Geheimcode von Lampen soll manipulierte Videos entlarven

Die rasante Entwicklung von KI-Tools zur Videobearbeitung macht es immer schwieriger, Fälschungen aufzudecken. Derzeit sind die Fälscher ihren Verfolgern deutlich voraus. Ein neues Verfahren könnte den Abstand jedoch verkürzen.
Titelbild
Dank moderner KI-Werkzeuge entstehen immer mehr Fake-Videos. Eine neue Technik soll helfen, sie aufzuspüren.Foto: Deagreez/iStock
Von 22. August 2025

In Kürze:

  • Forscher entwickeln für das Auge unsichtbare Lichtcodes als Wasserzeichen für Videos.
  • Deepfakes und KI-Manipulationen lassen sich damit technisch entlarven.
  • Lampen können unabhängig nachgerüstet werden. Kameras erfordern keine Umrüstung.
  • Erste Tests waren erfolgreich, auch im Freien und bei unterschiedlichen Hauttönen.

 

Videos galten lange Zeit als der ultimative Beweis. Wer Szenen aufnahm, konnte sich sicher sein: Bilder lügen nicht. Doch spätestens mit der Verbreitung generativer KI ist diese Gewissheit dahin. Innerhalb weniger Minuten lassen sich täuschend echte Aufnahmen konstruieren – von politischen Reden hin zu frei erfundenen Ereignissen. Auf Social Media verbreiten sich Deepfakes oft schneller, als Faktenchecker reagieren können.

„Früher wurden Videos als Quelle der Wahrheit behandelt, aber diese Annahme können wir nicht länger aufrechterhalten“, sagte Abe Davis, Informatikprofessor an der US-amerikanischen Cornell University. Heute lasse sich „im Prinzip jedes beliebige Video erschaffen“. Genau hier setzt das neue Verfahren an: Die Authentizität soll durch Licht selbst nachweisbar werden.

Licht als unsichtbares Wasserzeichen

Das Forschungsteam hat ein Verfahren entwickelt, das geheime Informationen direkt in Leuchtmitteln versteckt. Diese senden minimale Helligkeitsschwankungen aus, die für Menschen nicht sichtbar sind. In Videos hinterlassen sie jedoch ein unsichtbares Wasserzeichen. So sendet jede Lichtquelle einen individuellen Code, der später wie ein digitaler Fingerabdruck zur Überprüfung dient.

[etd-related posts=“4970079″]

Im Unterschied zu klassischen Pixel-Wasserzeichen bleibt diese Methode gänzlich unabhängig von Kameras oder Dateiformaten. Sobald ein Video in entsprechendem Licht aufgenommen wird, ist es mit diesem unsichtbaren Code versehen – unabhängig davon, wer die Aufnahme macht oder über welchen Kanal sie verbreitet wird.

Mini-Chip verwandelt jede Lampe in Sicherheitsschlüssel

Die technische Umsetzung ist erstaunlich simpel. Bereits vorhandene, programmierbare Leuchten lassen sich direkt durch Software steuern. Herkömmliche Lampen können mit einem winzigen Chip nachgerüstet werden – gerade einmal so groß wie eine Briefmarke. Dieser regelt die Lichtintensität nach einem geheimen Muster und macht jede Lampe zum Träger eines Wasserzeichens.

Für das menschliche Auge wirken die Schwankungen wie – ohnehin vorhandenes – zufälliges Rauschen oder natürliches Flimmern von Licht. Wer jedoch den Code kennt, kann aus dem Videomaterial eine zweite, verborgene Spur auslesen. Dieses „Code-Video“ zeigt eine grobe Kopie der Szene – genug, um Manipulationen aufzudecken.

Das Prinzip: Jede Abweichung zwischen sichtbarem und unsichtbarem Signal deckt eine Bearbeitung auf. Schneidet jemand ein Interview, entstehen Lücken im Code-Video. Fügt eine KI künstlich Personen oder Objekte ein, erscheinen diese im unsichtbaren Bild als schwarze Flächen.

[etd-related posts=“4360951″]

Das Verfahren kann zudem mehrere Lichtquellen gleichzeitig nutzen. Jede Lampe sendet ihren eigenen Code. Ein Fälscher müsste dann gleich mehrere verdeckte Datenströme gleichzeitig fälschen. Dieser Aufwand gilt als nahezu unüberwindbar.

Erste Tests auch draußen erfolgreich

Die Forscher prüften das Verfahren nicht nur in der Laborumgebung. Erste Tests belegen, dass es auch im Freien funktioniert, etwa bei wechselnden Lichtverhältnissen. Sogar unterschiedliche Hauttöne führten nicht zu Fehlern – ein wichtiger Nachweis für die Praxistauglichkeit.

Damit könnte die Technik künftig bei Pressekonferenzen, Interviews, politischen Auftritten oder in internationalen Institutionen wie der UNO verwendet werden. Jede Aufnahme, die im „codierten Licht“ entsteht, wäre eindeutig überprüfbar.

Auch wenn die Ergebnisse vielversprechend sind, warnen die Forscher vor überzogenen Erwartungen. „Der Kampf gegen Falschinformationen ist ein Wettrüsten“, so Davis. KI-Systeme werden immer leistungsfähiger, und auch Manipulationsmethoden entwickeln sich weiter. Absolute Sicherheit wird es nicht geben. Doch das neue Verfahren schafft einen klaren Vorsprung – und liefert Faktenprüfern ein robustes Instrument.

Forschung mit politischer Dimension

Vorgestellt wurde die Arbeit von Peter Michael, Informatik-Doktorand an der Cornell University, im August 2025 auf der weltweit renommierten SIGGRAPH-Konferenz in Vancouver. Neben Michael und Davis waren auch Zekun Hao von der Universität Kopenhagen und Serge Belongie beteiligt.

[etd-related posts=“4938565,5094377″]

Gefördert wurde die Arbeit unter anderem durch Stipendien aus dem US-Programm für nationale Sicherheitsforschung. Das zeigt, dass diese Forschung längst eine sicherheitspolitische Dimension hat. Sie betrifft nicht nur die Medienwelt, sondern auch Fragen der Demokratie, globaler Sicherheit und öffentlicher Meinungsbildung.

In diesem Spannungsfeld machen die Cornell-Forscher das Licht selbst zum Wahrheitszeugen. Ein unsichtbarer, technischer Fingerabdruck könnte künftig helfen, Deepfakes und manipulierte Videos zuverlässig zu entlarven. Ob sich die Methode international durchsetzt, ist offen. Doch im digitalen Zeitalter, in dem jedes Video potenziell gefälscht sein kann, könnte das passende Flimmern einer Lampe zum glaubwürdigsten Beweis werden.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion