Zurück zum Thema | Deepfake

Wie entlarven wir KI-Propaganda?

Deepfakes, also künstlich erzeugte Bilder und Videos, lassen sich auch für politische Propaganda einsetzen. Wie funktioniert Fact-Checking bei Bildern und Videos, die täuschend echt aussehen?

Deepfake: Täuschend echt

Donald Trump wehrt sich gegen seine Verhaftung, Wladimir Putin kniet ehrfürchtig vor Xi Jinping und Papst Franziskus trägt zum päpstlichen Kruzifix eine hippe Daunenjacke: Diese Bilder gingen um die Welt, doch sie sind nicht echt. Deepfakes heißen diese von einer KI erzeugten Bilder oder auch Videos. Mit Programmen wie „Dall-E“, „Stable Diffusion“ oder „Midjourney“ kann praktisch jeder innerhalb von Sekunden ein gefälschtes Bild oder Video erzeugen. Noch lässt sich künstlich generierter Content bei genauem Hinsehen oft als Fake erkennen.

KI-generierte Bilder sind im Detail oft nicht perfekt. Oder sie sind zu perfekt, also man sieht zum Beispiel keine Hautunreinheiten, wenn man sich die Menschen genauer anschaut.

Patrick Gensing, Experte für Desinformation im Netz

KI als Propaganda-Tool

Die künstlich generierten Bilder können auch gezielt als Werkzeug für politische Propaganda und gezielte Desinformation eingesetzt werden. So nutzt etwa die AfD Deepfake, um gegen Migranten zu hetzen: Der Abgeordnete Norbert Kleinwächter hatte auf seinem Instagram-Kanal ein von einer KI generiertes Bild gepostet, das wutentbrannte, schreiende Migranten zeigt. Auch im Kontext des russischen Angriffskriegs auf die Ukraine spielen gefälschte Bilder und Videos eine Rolle. Beispielsweise ging im vergangenen Jahr ein Deepfake-Video viral, in dem der ukrainische Präsident Wolodymyr Selenskyj vermeintlich zur Kapitulation aufruft. Zwar gibt es KI-Detektoren wie „Hugging Face“, die helfen sollen, echte und manipulierte Bilder voneinander zu unterscheiden — bisher sind die aber noch nicht immer verlässlich.

Diese Idee, dass wir eine KI entwickeln, die immer und exakt künstlich generierte Bilder erkennt — das ist ein wichtiges Element, aber es kann auf keinen Fall der einzige Ansatz sein.

Philipp Slusallek, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz

Wie verändert sich Propaganda durch Künstliche Intelligenz — und wie funktioniert Fact-Checking bei Deepfake? Darüber spricht detektor.fm-Moderator Gottfried Haufe mit Patrick Gensing in dieser Folge von „Zurück zum Thema“. Gensing ist ehemaliger Leiter des faktenfinder-Portals der Tagesschau und Experte für Desinformation im Netz. Philipp Slusallek, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz, erklärt, wie KI dabei helfen kann, gefälschte Videos und Bilder zu erkennen.

Die Folge ist der Auftakt zu unserer Themenwoche „Künstliche Intelligenz“. Wie verändert KI unser Leben? Welche Chancen und welche Risiken bringen die Innovationen mit sich? Wir sprechen in dieser Woche über Deep Fakes, Strafverfolgung, Musik und Schutz vor Diskriminierung durch KI.