News

Deepfakes: „Es ist ein Albtraum an Desinformation“

28.06.2021

Moderne Technik revolutioniert die Möglichkeiten, Bilder und Videos zu fälschen. Die Folgen können gravierend sein, warnt Viorela Dan, Kommunikationswissenschaftlerin an der LMU.

Deepfake-Videos:

"Neu ist der Einsatz von künstlicher Intelligenz (KI). Damit lassen sich Stimme, Worte und Mimik genau nachgestalten", sagt Dan. | © www.interfoto.at

Vor drei Jahren hat der amerikanische Schauspieler Jordan Peele mit einem Video Aufsehen erregt. Darin sieht man, wie der frühere US-Präsident Barack Obama seinen Nachfolger Donald Trump als „total and complete dipshit“ bezeichnet, als kompletten Vollidioten. Hätten Sie erkannt, dass das ein Fake ist?

Viorela Dan: Von der Optik her eher nicht, das Video sieht täuschend echt aus. Aber bei den Aussagen wäre ich schnell hellhörig geworden, zumal diese direkt in die Kamera gesagt werden.

Solche Fake-Videos werden als „Deepfakes“ bezeichnet – was ist das Neue daran?

Dan: Neu ist der Einsatz von künstlicher Intelligenz (KI). Damit lassen sich Stimme, Worte und Mimik genau nachgestalten. Deshalb sind Deepfake-Videos der wahr gewordene Traum von Akteuren, die Desinformation verbreiten wollen. Und der Albtraum derjenigen, die dagegen ankämpfen.

Wie muss ein Deepfake gemacht sein, damit es verfängt?

Dan: Wer einen Skandal inszenieren will, müsste wohl ein Video erstellen, welches so aussieht, als wäre es mit einer versteckten Kamera aufgenommen worden. Also nicht so wie bei dem Obama-Deepfake, wo der Ex-Präsident direkt in die Kamera schaut. Außerdem müssten die Aussagen glaubwürdig sein. Wie weit würde ein Politiker, der sonst jedes Wort abwägt, wirklich gehen? Wir würden vor einem großen Problem stehen, wenn der synthetisierten Version eines Politikers Worte in den Mund gelegt werden, die plausibel sind.

Wenn Sie die Anzeige des Videos aktivieren, werden Ihre personenbezogenen Daten an YouTube übertragen und möglicherweise auch Cookies auf Ihrem Gerät gesetzt. Wir haben keinen Einfluss auf eine etwaige Datenübertragung und deren weitere Verwendung.

Weitere Informationen: Datenschutzerklärung der LMU, Datenschutzinformationen von YouTube / Google

Das Deepfake-Video, in dem der amerikanische Schauspieler Jordan Peele Barack Obama erstaunliche Sätze in den Mund legt.

1:12 | 28.06.2021

Der fiktive Politiker Peter Behrens

Eine kleine Flagge machts:

der fiktive Politiker Peter Behrens im Wahlkampfmodus, im Experiment mal liberal, mal konservativ. | © Dan/Arendt

Solche Behauptungen könnte man ja auch anders aufstellen, etwa mit vermeintlichen Audio-Mitschnitten. Warum sind Videos besonders wirksam?

Dan: Weil wir dazu neigen, die Echtheit von Videos nicht in Frage zu stellen. Wir glauben, was wir sehen. Wir verstehen vielleicht inzwischen, dass Videos manchmal inszeniert werden. Aber wir zweifeln nicht grundsätzlich die Echtheit der Personen an, die darin zu sehen sind. Denken Sie an die Bedeutung, die wir Überwachungsvideos beimessen. Da käme niemand auf die Idee, zu sagen: „Die Person, die wir da sehen, ist nicht echt.“

Noch einfacher ist es, Standbilder zu manipulieren. Da hat sich in der Kommunikationswissenschaft der Begriff der Subtle Backdrop Cues (SBCs) etabliert. Was bedeutet das auf Deutsch?

Dan: Wörtlich übersetzt wären das subtile Hintergrund-Hinweise. Das sind zum Beispiel Symbole oder Bilder, die bei einem Foto im Hintergrund zu sehen sind. Wenn Sie mich auf einem Bild sehen, und hinter mir wäre ein Kreuz zu erkennen, dann würden Sie annehmen, dass ich CDU oder CSU wähle. Politiker nutzen SBCs aber auch, um Botschaften zu transportieren, die vielleicht nicht salonfähig sind.

Was wäre da ein Beispiel?

Dan: Donald Trump hat im Wahlkampf 2016 in einem Tweet ein Bild seiner Konkurrentin Hillary Clinton gezeigt mit vielen Geldscheinen im Hintergrund. Außerdem waren die Worte zu lesen: „Most corrupt candidate ever!“, also „Korrupteste Kandidatin aller Zeiten!“, und zwar eingerahmt von einem sechszackigen Stern, den man als jüdischen Davidstern deuten konnte. Damit hat Trump nahegelegt, dass Hillary Clinton durch jüdische Wirtschaftskreise finanziert und gesteuert wird.

Und wie waren die Reaktionen?

Dan: Trump wurde sofort von liberalen Medien dafür kritisiert. Er hat dann abgestritten, solche Absichten gehabt zu haben. Das ist genau die Besonderheit von persuasiver Kommunikation, die visuell unterstützt wird. Man kann immer beteuern: Das habe ich nie gesagt. Ich kann nichts dafür, was du in das Bild hineininterpretierst. Aber okay, ich ziehe es zurück. Doch die Zielgruppe, die man damit erreichen will, wird erreicht. Deshalb gelten SBCs als eine Art Hundepfeifen: Die Botschaften sind wahrnehmbar für die Zielgruppe, aber nicht zwingend für die Allgemeinbevölkerung.

Das Interview ist der soeben erschienenen Ausgabe des Forschungsmagazins EINSICHTEN entnommen.

Das sind Fragen, über die sich PR-Berater sicher schon seit längerem Gedanken machen. Was sind neue Entwicklungen in diesem Bereich?

Dan: Neu ist, dass wir dieses Phänomen inzwischen auf allen politischen Ebenen finden. Früher wurden solche Strategien von Präsidenten oder Kanzlern verwendet. Dass aber beispielsweise auch der Landeshauptmann des österreichischen Bundeslandes Vorarlberg, Markus Wallner, so etwas macht, das ist eine neue Qualität.

Was ist da geschehen?

Dan: Bei einem Gespräch von Wallner mit Österreichs Bundeskanzler Sebastian Kurz wurde ein Foto gemacht. Darauf war hinter Wallner ein Bild einer alten Frau zu sehen, die eine Art Zigarre raucht. Man hätte aber auch denken können, dass das ein Joint ist. Und das wurde durch ein Landschaftsbild ersetzt. Das ist allerdings aufgefallen, weil die erste Version auch publik wurde. Wallner hat sich dann damit gerechtfertigt, dass er und seine Partei eine sehr eindeutige Haltung zum Thema Cannabis hätten. Wenn eine Frau hinter ihm zu sehen gewesen wäre, die einen Joint raucht, hätte man denken können, dass er sich für die Legalisierung von Cannabis einsetzt. Und das habe er verhindern wollen.

Wie kann man die Wirkung von Subtle Backdrop Cues erforschen?

Dan: Experimentell, genauso wie die Wirkung von Deepfakes. Wir zeigen Menschen Bilder mit verschiedenen SBCs (zum Beispiel liberale versus konservative), die wir in dem Twitter-Feed eines fiktiven Politikers einbetten; eine Kontrollgruppe bekommt dieselben Vordergrund-Bilder angezeigt, ohne SBCs. Anschließend stellen wir den verschiedenen Gruppen dieselben Fragen und vergleichen dann die Ergebnisse.

Was für Botschaften haben Sie da untersucht?

Dan: Wir konnten beispielsweise zeigen, dass ein Politiker mit Deutschlandflagge im Hintergrund eher als konservativ eingeschätzt wird, auch wenn die Fahne wirklich unauffällig ist. Vielleicht wenig überraschend, deshalb ein anderes Beispiel: Wir haben ein Bild eines Politikers am Schreibtisch gezeigt, auf dem ein Foto einer Frau zu sehen war. Einmal war die Frau am Computer zu sehen, auf dem anderen Foto steht sie am Herd und zieht sie einen Braten aus dem Ofen. Und tatsächlich sind die Menschen davon ausgegangen, dass ein Politiker, zu dem sie sonst keinerlei Hinweise hatten, einmal als eher links einzuordnen ist und einmal als eher rechts. Rechts war der mit der Frau am Herd.

Können Deepfakes und Subtle Backdrop Cues gefährlich werden?

Dan: Ja. Sie können dazu führen, dass Politiker gewählt werden, die ihre Ansichten nicht offen kommunizieren (SBCs) oder dass Politiker aus den falschen Gründen nicht gewählt oder entmachtet werden (Deepfakes). In Gabun hat etwa ein Video, von dem gesagt wurde, dass es ein Deepfake ist, einen Putschversuch ausgelöst. Der Präsident Ali Bongo war vorher längere Zeit nicht in der Öffentlichkeit aufgetreten. Ein Video, das ihn mit einer Neujahrsansprache zeigt, nutzten dann seine Gegner, um zu behaupten, sein politisches Lager habe eine synthetisierte Version des Präsidenten erstellt, weil er nicht in der Lage gewesen sei, die Neujahrsansprache selbst zu halten. Es wurde spekuliert, er sei schwer erkrankt oder verstorben. Und dieses vermeintliche Machtvakuum führte dazu, dass Militärs geputscht haben.

Der amerikanische Schauspieler Jordan Peele warnt in dem von ihm mitgestalteten Obama-Deepfake die Zuschauer, zu leichtgläubig zu sein. Ist es so einfach? Oder müsste man Videofälschungen unter Strafe stellen?

Dan: Wir sollten nicht den Teufel an die Wand malen, aber wir müssen über Lösungen nachdenken. Die wurden lange vor allem im Bereich Informatik gesucht: Man hat in Algorithmen investiert, die Desinformation erkennen und entfernen sollen. Wir werden aber das Internet nicht „dekontaminieren“ können. Selbst wenn wir die besten Algorithmen haben, ist das völlig illusorisch. Mal ganz zu schweigen davon, dass das Löschen von Posts oder Social-Media-Accounts mehr Probleme bringt als es löst. Ich denke, wir sollten mehr auf Medienkompetenz setzen. Und wir müssen versuchen, den Schaden, der durch Deepfakes entsteht, einzudämmen – etwa durch Faktenchecks. Oder durch Videos, die zeigen, wie Deepfakes entstehen. Automatische Identifikation und Regulierung sind wichtig, aber genauso brauchen wir Wirkungsforschung.

Interview: Nikolaus Nützel

Dr. Viorela Dan ist wissenschaftliche Mitarbeiterin am Institut für Kommunikationswissenschaft und Medienforschung der LMU. Derzeit ist sie Junior Researcher in Residence am Center for Advanced Studies (CAS) der LMU.

News

Mehr Unsicherheit wagen - ein Gespräch mit Klaus H. Goetz und Armin Nassehi

Weiterlesen

Lesen Sie weitere Beiträge etwa auch zu unserem Schwerpunktthema Wir Krisenmanager in der aktuellen Ausgabe von „EINSICHTEN. Das Forschungsmagazin“.

Lesen Sie außerdem ausgewählte Geschichten im Online-Bereich der EINSICHTEN und stöbern im Heftarchiv.

Oder abonnieren Sie EINSICHTEN kostenlos und verpassen keine Ausgabe mehr.

Wonach suchen Sie?