ChatGPT: OpenAI will „verdächtige Chats“ an Behörden weiterleiten

OpenAI, das US-Techunternehmen hinter dem Chatbot ChatGPT, hat seine Sicherheitsmaßnahmen deutlich verschärft und will „verdächtige Chats an Behörden“ weitergeben.
In einer offiziellen Mitteilung gab das Unternehmen zu, dass es die Unterhaltungen der Nutzer scannt und alle Interaktionen, die ein menschlicher Prüfer als ausreichend bedrohlich einstuft, der Polizei meldet. Gleichzeitig betont das Unternehmen, dass bei Selbstverletzung oder Suizidgedanken keine Daten an Behörden weitergegeben werden. Stattdessen werde der betroffene Nutzer auf professionelle Hilfsangebote hingewiesen.
Selbstmord nach Nutzung von ChatGPT
Anlass für die Verschärfung der Sicherheitsmaßnahmen war der Selbstmord eines 16-jährigen Jungen, nachdem er über Selbstverletzung mit ChatGPT gesprochen hatte. Die Eltern des Jungen haben Klage gegen OpenAI, das Unternehmen hinter ChatGPT, eingereicht.
Ihr Vorwurf, nachdem sie auf dem Smartphone ihres Sohnes auf Chatprotokolle gestoßen waren: ChatGPT habe dem Teenager zwar mehrfach geraten, mit jemandem über seine Suizidgedanken zu sprechen, und auf Hilfsangebote hingewiesen.
Am Ende habe die KI ihren Sohn aber in seinem Entschluss bestärkt und sogar Informationen geliefert, wie er sich das Leben nehmen könne, und ihm geholfen, einen Abschiedsbrief zu schreiben. Die Eltern verklagten OpenAI daraufhin wegen fahrlässiger Tötung.
OpenAI beschreibt sein Vorgehen folgendermaßen: „Es ist vorgekommen, dass Inhalte, die hätten blockiert werden sollen, nicht blockiert wurden. Diese Lücken entstehen in der Regel, weil der Klassifizierer den Schweregrad des Gesehenen unterschätzt. Wir arbeiten an diesen Schwellenwerten, damit der Schutz zum richtigen Zeitpunkt ausgelöst wird.“ Und weiter:
„Unsere oberste Priorität besteht darin, sicherzustellen, dass ChatGPT einen schwierigen Moment nicht noch weiter verschlimmert.“
[etd-related posts=“5225284″]
Privatsphäre für Gespräche mit KI?
Die Erwähnung, dass OpenAI Chatverläufe an Behörden weiterleiten kann, hat im Netz einen Sturm der Entrüstung ausgelöst. Konkret geht es um diese Passage:
„Wenn wir feststellen, dass Benutzer anderen Schaden zufügen möchten, leiten wir ihre Gespräche an spezielle Pipelines weiter, wo diese von einem kleinen Team überprüft werden, das gemäß unseren Nutzungsrichtlinien trainiert und befugt ist, Maßnahmen zu ergreifen, einschließlich der Sperrung von Konten. Wenn menschliche Prüfer feststellen, dass in einem Fall eine unmittelbare Gefahr schwerer körperlicher Schäden für andere besteht, können wir diesen an die Strafverfolgungsbehörden weiterleiten.“
Sam Altman, CEO von OpenAI, hatte angesichts dessen, dass immer mehr junge Menschen den Chatbot wie einen Therapeuten oder Lebensberater nutzen, im Juli in einem Podcast gesagt, es sollte „dasselbe Konzept von Privatsphäre für Gespräche mit KI geben wie bei einem Therapeuten“ und dass man die Dringlichkeit angehen müsse.
„Wenn ihr derzeit mit einem Therapeuten, einem Anwalt oder einem Arzt über solche Probleme sprecht, gibt es dafür ein rechtliches Privileg – die ärztliche Schweigepflicht oder anwaltliche Verschwiegenheit“, so Altman. „Wir haben noch keine Lösung dafür gefunden, wie es ist, wenn ihr mit ChatGPT sprecht.“

OpenAI Chef Sam Altman beim World Economic Forum. Foto: Markus Schreiber/AP/dpa
Neue Kindersicherung für ChatGPT
Innerhalb der kommenden Wochen soll eine Art „Kindersicherung“ bei ChatGPT eingeführt werden. Eltern können so beim Konto ihres Teenagers „altersgerechte Verhaltensregeln festlegen“, gibt das Unternehmen bekannt. Details dazu nannte OpenAI bislang nicht; nur, dass auch eine Benachrichtigung der Eltern erfolgen soll, wenn die Software eine „akute Notlage“ feststellt.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion