Klage gegen OpenAI nach Suizid von 16-jährigem Jugendlichen

Nach dem Suizid ihres 16-jährigen Sohnes haben Eltern im US-Bundesstaat Kalifornien das KI-Unternehmen OpenAI verklagt. Dessen Chatbot ChatGPT habe Adam dazu ermutigt, sich das Leben zu nehmen, heißt es in der Klage.
Der Einsatz von KI-Software schlägt der Studie zufolge vor allem auf Einstiegsjobs für junge Arbeitnehmer durch. (Archivbild)
Der Einsatz von KI-Software (Archivbild).Foto: Hendrik Schmidt/dpa/dpa-tmn
Epoch Times27. August 2025

Nach dem Suizid ihres 16-jährigen Sohnes haben Eltern im US-Bundesstaat Kalifornien das KI-Unternehmen OpenAI verklagt. Konkret geht es um ChatGPT, den mit künstlicher Intelligenz betriebenen Chatbot des Unternehmens.

Dieser habe zwischen 2024 und 2025 eine enge Beziehung zu ihrem Sohn Adam aufgebaut, bevor dieser sich das Leben genommen habe, heißt es in der Klage der Eltern. Das KI-Programm habe Adam dazu ermutigt, sich das Leben zu nehmen und ihm eine genaue Anleitung dafür gegeben.

„Diese Tragödie war keine Panne oder ein unvorhersehbarer Sonderfall“, hieß es in der am Montag eingereichten Klage. „ChatGPT hat genau so funktioniert, wie es designt ist.“ Das Programm habe immer wieder das von Adam Gesagte bestätigt und bestärkt – darunter auch seine „gefährlichsten und selbstzerstörerischen Gedanken“.

Von Hausaufgaben zu ungesunder Abhängigkeit

Adam habe ChatGPT zunächst als Unterstützung bei seinen Hausaufgaben genutzt und habe dann eine ungesunde Abhängigkeit entwickelt, erklärten die Eltern.

Die Klageschrift enthält Auszüge aus Gesprächen zwischen Adam und dem Chatbot. Das KI-Programm soll dem Jugendlichen angeblich gesagt haben, dass er „niemandem sein Überleben schuldig“ sei und ihm angeboten haben, beim Verfassen seines Abschiedsbriefes zu helfen.

Anleitung zum Binden einer Schlinge

Laut der Klage hat ChatGPT Adam in der letzten Unterhaltung am 11. April 2025 geholfen, Wodka von seinen Eltern zu stehlen.

Das Programm habe zudem eine genaue Anleitung dazu gegeben, wie man eine Schlinge bindet und bestätigt, dass diese „potentiell einen Menschen hängen könnte“, hieß es in der Klage weiter. Adam wurde Stunden später tot aufgefunden und hatte die beschriebene Methode verwendet, um sich das Leben zu nehmen.

Die Eltern fordern nun Schmerzensgeld sowie die Einführung verpflichtender Sicherheitsmaßnahmen in Chatbots, die unter anderem Gespräche zu Themen wie Selbstverletzung automatisch abbrechen.

In den USA laufen derzeit mehrere ähnliche Prozesse. Die Bedenken zur Sicherheit von Chatbots, insbesondere für Jugendliche, wachsen. Laut einer im vergangenen Monat erschienen Studie der Nichtregierungsorganisation Common Sense Media verwenden fast drei von vier Jugendlichen in den USA „KI-Begleiter“. In der Studie wurde allerdings die Nutzung von einfacheren Chatbots wie Character.AI und Replika untersucht. Die Verwendung von ChatGPT war nicht Gegenstand der Forschung.

Mehr Einblick für Eltern

Für Nutzer im Alter unter 18 Jahren soll es zusätzliche Sicherheitsmaßnahmen geben. OpenAI stellte etwa „stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten“ in Aussicht. Eltern sollen sich besser darüber informieren können, wie ihre Kinder ChatGPT nutzen.

Bei Unterhaltungen mit ChatGPT, in denen Nutzer die Absicht bekunden, anderen zu schaden, greift OpenAI dem Blogeintrag zufolge bereits jetzt ein.

Solche Unterhaltungen würden an ein spezielles Team weitergeleitet – und bei einer konkreten Bedrohungs-Situation würden auch Sicherheitsbehörden eingeschaltet. (dpa/afp/red)



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion