Globale Überwachung: Wie Peking ChatGPT missbrauchen wollte

Ein Fall, der ein Weckruf für die internationale Gemeinschaft sein sollte und deutlich macht, in welche Richtung die Ambitionen des chinesischen Regimes gehen.
Titelbild
Foto: Epoch Times
Von 13. Oktober 2025

In Kürze:

  • Chinas Handlanger in den Grauzonen der Sicherheitsvorkehrungen
  • Puzzleteile eines globalen Überwachungsplans?
  • Warum ChatGPT und nicht DeepSeek?
  • KI ist neutral, der Mensch nicht

 

Dank der Aufmerksamkeit der amerikanischen Techfirma OpenAI wurden Internetnutzer mit Verbindungen zum chinesischen Staat gestoppt, um ChatGPT für die Entwicklung globaler Überwachungsmechanismen zu missbrauchen. In der Sendung „Leas Einblick“ wirft die seit rund 30 Jahren in Deutschland lebende chinesische YouTuberin einen genaueren Blick auf den OpenAI-Report mit dem Titel „Disrupting malicious uses of AI“ (Unterbindung des böswilligen Gebrauchs von KI).

An dieser Stelle wird ein Video von Youtube angezeigt. Bitte akzeptieren Sie mit einem Klick auf den folgenden Button die Marketing-Cookies, um das Video anzusehen.

Anfang Oktober veröffentlichte die amerikanische Techfirma OpenAI einen bemerkenswerten Bericht. Das Unternehmen hatte mehrere Konten gesperrt, von denen man annahm, dass sie mit chinesischen Regierungsstellen in Verbindung standen. Diese Konten hatten versucht, die Künstliche Intelligenz ChatGPT für Überwachungszwecke zu missbrauchen – weit über die Grenzen des kommunistischen Machtbereiches hinaus und mit globalen Dimensionen.

Es scheint verwunderlich, dass sich chinesische Akteure mit sensiblen Aufgabenstellungen an ChatGPT wenden, wenn China mit DeepSeek doch ein eigenes KI-Modell entwickelt haben will.

Doch was genau hatte sich zugetragen?

Stellen Sie sich vor: Ein Nutzer meldet sich bei ChatGPT an – vielleicht über einen VPN-Dienst, um seine wahre Herkunft zu verschleiern. Er fordert von der KI nicht etwa Hilfe bei einer Hausaufgabe oder einem kreativen Projekt – sondern für die Erstellung von Konzepten für Massenüberwachungssysteme.

Science-Fiction? Mitnichten

Laut einem 37-seitigen „Threat Intelligence Report“ oder Bedrohungsanalyse-Bericht von OpenAI wurden mehrere Fälle aufgeführt, die unter der Überschrift „Unterbrechung böswilliger KI-Anwendungen: Oktober 2025“ zusammengefasst wurden. Hier einige Beispiele:

Ein Nutzer hatte ChatGPT den Auftrag erteilt, ihm bei der Entwicklung eines „Massenüberwachungstools“ zu helfen, das verschiedene Plattformen wie X (ehemals Twitter), Facebook und YouTube nach angeblich „extremistischen Äußerungen“ oder Inhalten zu ethnischen, religiösen und politischen Themen durchsuchen sollte.

Ein anderer Nutzer wollte Hilfe bei der Erstellung eines „Hochrisiko-Personenüberwachungsmodells“, das Verkehrsdaten mit Polizeiinformationen abgleichen sollte, um die Bewegungen bestimmter Bevölkerungsgruppen vorherzusagen – insbesondere der uigurischen Minderheit.

Es ist wichtig zu verstehen, dass die Nutzer von der KI nicht verlangten, diese Systeme tatsächlich zu programmieren oder zu betreiben. Sie wollten jedoch Konzepte, Vorschläge und Werbetexte dafür erstellen lassen – gewissermaßen die Blaupause für solche Systeme.

[etd-related posts=“5192337″]

Strebt China nach dem globalen digitalen Auge?

Neben diesen Versuchen, Massenüberwachungssysteme zu konzipieren, entdeckte OpenAI noch eine zweite beunruhigende Tendenz: Konten, die ChatGPT für gezielte Nachforschungen nutzten – wie ein digitales Fernglas, das auf bestimmte Personen oder Gruppen gerichtet ist.

  • Ein Nutzer fragte ChatGPT nach der möglichen Finanzierungsquelle eines X-Kontos, das die chinesische Regierung kritisierte.
  • Ein anderer wollte wissen, wer hinter einer Petition in der Mongolei steckt.
  • Besonders auffällig: Ein Nutzer bat die KI, täglich Nachrichten zu sammeln, die für China relevant sein könnten – einschließlich über hochsensible Themen wie den Gedenktag des Tiananmen-Massakers von 1989 und den Geburtstag des Dalai Lamas.

OpenAI betont, dass die KI in diesen Fällen nur öffentlich zugängliche Informationen zusammengestellt hat. Dennoch zeigen diese Anfragen, wie KI-Systeme potenziell für politische Nachforschungen und Überwachung genutzt werden könnten.

[etd-related posts=“5250901,5252400″]

Die Identifizierung identischer Muster

Doch wie gelang es OpenAI, diesen Konten aus China auf die Schliche zu kommen, obwohl viele davon gar nicht auf Chinesisch kommunizierten?

Die Antwort liegt nicht in der Sprache, sondern im Verhalten.

OpenAI analysierte Nutzungsmuster – welche Anfragen gestellt wurden, wann sie gestellt wurden und welche technischen Ähnlichkeiten es gab.

Stellen Sie sich vor: Zwei Personen bitten um Hilfe bei der Entwicklung eines Tools zur Überwachung von Social-Media-Plattformen. Eine Person fragt auf Chinesisch, die andere auf Englisch. Doch das Muster ist identisch – wie ein charakteristischer Fingerabdruck. Es ist, als würde jemand mit einem Akzent sprechen, den eine KI vielleicht nicht hört – aber die dahinterliegende Absicht bleibt dieselbe. Oder wie der Bericht es poetisch ausdrückt: „Die KI kann vielleicht keinen Akzent hören, aber der ‚Tonfall‘ des Verhaltens lässt sich nicht verbergen.“

[etd-related posts=“5244174,5241999″]

Was ist mit Chinas KI-Modell DeepSeek?

Eigentlich hat China ja eigene KI-Modelle wie DeepSeek entwickelt. Es stellt sich allerdings die Frage: Warum nutzen die chinesischen Akteure ChatGPT anstatt DeepSeek für solch sensible Aufgaben?

  • Der erste Grund ist anscheinend technischer Natur: ChatGPT verfügt über fortschrittlichere Fähigkeiten zur Codegenerierung, besonders bei englischsprachigen technischen Inhalten.
  • Der zweite Grund ist etwas ironisch: Chinesische KI-Modelle wie DeepSeek unterliegen einer strengen staatlichen Aufsicht. Politische und sicherheitsrelevante Themen sind dort weitgehend gesperrt. Ausgerechnet Mitarbeiter chinesischer Behörden umgehen deshalb die eigene Internetzensur – was in China verboten ist –, um bei ChatGPT nach Überwachungskonzepten zu suchen.
  • Der dritte Grund ist die Flexibilität: ChatGPT ist global zugänglich und seine API ist flexibler.

Interessanterweise hat Deutschland im Juni 2025 die DeepSeek-App verboten – aus Sorge über Datentransfers nach China und mögliche Überwachung. Ein Beispiel dafür, wie dieses Thema internationale Dimensionen annimmt.

KI-Systeme sollten eigentlich Menschen helfen, die Welt besser zu verstehen – doch nun werden sie zunehmend genutzt, um Menschen zu überwachen. Wenn KI für die Überwachung sozialer Medien eingesetzt wird, ist das nicht mehr nur ein nationales Sicherheitsthema. Wenn die Überwachung Grenzen, Sprachen und Plattformen überschreitet, kann theoretisch jede Person weltweit zum Ziel werden.

Der Fall zeigt: KI selbst ist ein Werkzeug. Entscheidend ist, wer sie einsetzt und wofür. Wie ein Internetnutzer treffend bemerkte: „KI begann als künstliche Intelligenz, wird aber zunehmend zu einer kontrollierten Intelligenz.“

OpenAIs Sperraktion wirft ein Schlaglicht auf eine unbequeme Wahrheit: KI ist neutral, aber die Menschen, die sie nutzen, sind es nicht. Diese Enthüllungen sind vermutlich nur der Anfang einer Reihe von KI-Sicherheitsherausforderungen.

(Redaktionelle Überarbeitung: sm)

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers oder des Interviewpartners dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion