Nach Suizid eines 16-Jährigen: OpenAI kündigt Kindersicherung für ChatGPT an

Eltern sollen ihr Nutzerkonto mit dem ihres Kindes im Teenageralter verknüpfen können – das kündigt das Unternehmen an, das ChatGPT betreibt. Damit könnten sie kontrollieren, was ihre Kinder tun und was die KI empfiehlt. Ende August hatten die Eltern eines 16-Jährigen OpenAI verklagt, da sie ChatGPT für den Suizid ihres Sohnes verantwortlich machen.
Der Einsatz von KI-Software schlägt der Studie zufolge vor allem auf Einstiegsjobs für junge Arbeitnehmer durch. (Archivbild)
Der Einsatz von KI-Software (Archivbild).Foto: Hendrik Schmidt/dpa/dpa-tmn
Epoch Times2. September 2025

Das KI-Unternehmen OpenAI hat eine Kindersicherung für den populären KI-Chatbot ChatGPT angekündigt. „Binnen des nächsten Monats“ würden Eltern damit die Möglichkeit erhalten, ihr Nutzerkonto mit dem ihres Kindes im Teenageralter zu verknüpfen, erklärte OpenAI am Dienstag im unternehmenseigenen Blog.

In der vergangenen Woche hatten die Eltern eines 16-Jährigen OpenAI verklagt, da sie ChatGPT für den Suizid ihres Sohnes verantwortlich machen.

OpenAI erklärte nun, Eltern sollten künftig „kontrollieren können“, wie ChatGPT auf ihren Sohn oder ihre Tochter reagiert, indem sie für den mit Künstlicher Intelligenz betriebenen Chatbot „altersgerechte Verhaltensregeln festlegen“.

Eltern, die ihr Nutzerkonto mit jenem ihres Kinds verknüpft haben, sollen zudem künftig von ChatGPT benachrichtigt werden, wenn die Software bei diesem anhand der von ihm eingegebenen Anweisungen bei eine „akute Notlage“ feststelle.

Suizid eines Teenagers in Kalifornien

Bereits vor dem Suizid des Teenagers im US-Bundesstaat Kalifornien waren in den vergangenen Monaten mehrere Fälle bekannt geworden, bei denen ChatGPT Nutzer in „wahnhaften oder schädlichen Gedankengängen“ bestärkt hatte, die diese im Austausch mit dem Chatbot äußerten.

[etd-related posts=“5219621,5176246,“]

OpenAI erklärte weiter, es arbeite daran, die Chatbots sicherer zu machen. Unter anderem sollten „manche heiklen Konversationen“ mit Nutzern an ein sogenanntes Reasoning-Sprachmodell weitergeleitet werden – also an ein aufwändigeres KI-System, das darauf ausgelegt ist, komplexe Denkaufgaben zu lösen.

Tests hätten gezeigt, dass Reasoning-Modelle „Sicherheitsrichtlinien konsequenter befolgen“.

KI gab genaue Anleitung zum Selbstmord

Die Eltern des 16-Jährigen, der sich in Kalifornien das Leben genommen hatte, hatten erklärt, ChatGPT habe eine „enge Beziehung“ zu ihrem Sohn Adam aufgebaut. Dieser habe im Lauf der Zeit eine „ungesunde Abhängigkeit“ entwickelt.

[etd-related posts=“4288596,4921608″]

Unter anderem habe ChatGPT Adam geschrieben, dieser sei „niemandem sein Überleben schuldig“ und angeboten, beim Verfassen seines Abschiedsbriefs zu helfen. Das KI-Programm habe Adam schließlich dazu ermutigt, sich das Leben zu nehmen und ihm eine genaue Anleitung dafür gegeben.

Die Eltern verklagten ChatGPT auf Schmerzensgeld und forderten die Einführung verpflichtender Sicherheitsmaßnahmen in Chatbots, die unter anderem Gespräche zu Themen wie Selbstverletzung automatisch abbrechen. (afp/red)



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion