Animierte Fotos und Deepfakes

„Das ist doch niemals so passiert! – Oder doch?“ Mit künstlicher Intelligenz können täuschend echt wirkende Videoszenen  erstellt werden, die es so niemals gegeben hat. Das kann harmlos sein, aber auch schlimme Folgen haben.

Analoger Film und Fake-Stempeldruck

Stempelaufdruck „Fake“ auf analogem Film; Bild: Grimme-Institut / Michael Schnell

„Animieren Sie Ihre Familienfotos!“ Mit diesem Spruch wirbt die Ahnenforschungs-Website MyHeritage für eine neue App: Man lädt das Foto des verstorbenen Opas hoch und die App „Deep Nostalgia“ haucht dem Antlitz etwas Leben ein: Das Gesicht bewegt sich und der vielleicht ernst dreinblickende Vorfahr lächelt, er schaut in verschiedene Richtungen und seine Augenlider bewegen sich.

Die zum Teil recht lebensnahe Animierung mittels eines oder mehrerer Fotos benötigt Techniken aus dem Bereich der künstlichen Intelligenz, wie Netzwelt.de berichtet:

„Die KI ‚Deep Nostalgia‘ greift auf eine Datenbank von Videoaufnahmen zurück und entscheidet selbst, welches Video sich am besten für ein bestimmtes Standbild eignet und legt dieses über das Foto.“[1]

Etwas magisch-mystisch und mit Bezug auf Harry Potter erklärt dies Arno Frank bei Spiegel Online:

„Zu diesem Zweck wird die hochgeladene Vorlage (Urgroßmutter) über eine Datenbank einer passenden Videoaufnahme zugewiesen, die dann sozusagen in das Bild kriecht wie eine Hand in einen Handschuh – und das Unbewegliche in Bewegung versetzt. Der Effekt ist auf den ersten Blick faszinierend. Und ein wenig unheimlich. (…) Tatsächlich fühlen sich viele Betrachter an die belebten Ölgemälde aus den ‚Harry Potter‘-Filmen erinnert.“[2]

Ähnlich funktioniert die Erstellung von Deepfakes, also Videos, die etwas zeigen, was in Wirklichkeit nie passiert ist. So kann zum Beispiel in ein bestehendes Video täuschend echt ein Gesicht mit Sprache und passender Mimik eingebaut werden – und das mittlerweile schon mit relativ bescheidenen technischen Mitteln.

„Deep Nostalgia“ mag noch als harmloser Spaß zu verstehen sein, aber die negativen Folgen zunehmend perfekt hergestellter Fake-Videos können immens sein. In den vergangenen Monaten waren laut mixed.de vor allem Frauen vom Missbrauch solcher Techniken betroffen:

„Das Forschungsunternehmen Sensity AI hat Deepfake-Videos seit Ende 2018 nachverfolgt. Zwischen 90 und 95 Prozent dieser Videos sind demnach Pornos und davon betreffen wiederum 90 Prozent Frauen. Eine Untersuchung des niederländischen Unternehmens Deeptrace bestätigt das Ergebnis: 96 Prozent von 15.000 untersuchten Deepfake-Videos waren Pornos. Die Opfer sind zumeist Frauen des öffentlichen Lebens.“[3]

Doch vermehrt sind auch Privatpersonen betroffen: So wurden mittlerweile zwei Apps verboten, mittels denen Frauen nackt dargestellt werden konnten – betroffen waren hiervon auch Minderjährige.[4]

Hinzu kommt: Angesichts der voranschreitenden technischen Möglichkeiten könnte das Video als eine der noch glaubhafteren Abbildungen der Realität künftig ausgedient haben. Laut ZDF.de könnten Meinungsmache und Fake News deutlich an Kraft gewinnen, Mobbing eine ganz neue Qualität bekommen.[5] Und so verwundert es nicht, dass – so das Internet-Portal Security Insider – bereits nach Möglichkeiten geforscht wird, solche Fake-Videos ausfindig zu machen:

„Professor Nasir Memon und sein Team von der Tandon School of Engineering an der New York University (NYU) haben eine Methode entwickelt, um die Aufdeckung von Deepfakes zu erleichtern. Hierzu müsse jede Kamera und Software mit Hilfe von KI einige Artefakte in Videos und Bilder einbetten. Diese Artefakte, für das bloße Auge der Zuschauer nahezu unsichtbar, ließen sich dann im Zuge einer Forensischen Datenanalyse (FDA) auslesen. Langfristig könnte eine Blockchain-Plattform die Authentizität von Video- und Audiomaterial bewachen.“[6]

So oder so: Lösungen müssen her, denn die Folgen von Deepfakes können immens sein: im privaten Bereich ebenso wie im Gesellschaftlichen, in der Politik ebenso wie für die Wirtschaft. Was ist Wahrheit, was bewusste Irreführung? Das wird künftig noch schwerer zu erkennen sein und gerade der Journalismus benötigt hier gut funktionierende Hilfsmittel.

[1] Christoph Zeiss: MyHeritage: Künstliche Intelligenz erweckt Ahnenbilder zum Leben. Bei netzwelt.de unter: https://www.netzwelt.de/news/186806-myheritage-kuenstliche-intelligenz-erweckt-ahnenbilder-leben.html (vom 03.03.2021, abgerufen am 09.03.2021)

[2] Arno Frank: Neue App Deep Nostalgia: Digitale Zombies. Bei Spiegel Online unter: https://www.spiegel.de/kultur/foto-app-deep-nostalgia-digitale-zombies-a-3d399c60-3c8a-46be-b11d-429f4a07b388 (vom 06.03.2021, abgerufen am 09.03.2021)

[3] Anja Klemm und Benjamin Danneberg: Deepfakes: Frauen sind die Opfer – und der Gesetzgeber schläft. Auf der Website mixed.de unter: https://mixed.de/deepfakes-frauen-sind-die-opfer/ (vom 07.03.2021, abgerufen am 09.03.2021)

[4] Ebd.

[5] Siehe dazu einen Artikel des ZDF von 2020: Oliver Klein: Deepfakes – darum sollten wir besorgt sein. Bei ZDF.de unter: https://www.zdf.de/nachrichten/digitales/deepfake-video-sorge-faelschungen-100.html (vom 29.03.2020, abgerufen am 09.03.2021)

[6] Anna Kobylinska und Filipe Martins: KI-Betrug mittels Deepfakes. Auf der Website von Security Insider unter: https://www.security-insider.de/ki-betrug-mittels-deepfakes-a-989107/ (vom 23.12.2020, abgerufen am 09.03.2021)