Schlagwortarchiv für: Fake

Kriegsbilder auf TikTok; Bild: Grimme-Institut / Michael Schnell

Wie nehmen wir Bilder wahr? Was hat sich durch Digitalisierung, durch die Nutzung von Sozialen Netzwerken und Messengern geändert? Wie können wir Fakes und Manipulationen erkennen? Diese Fragen möchte dieser Artikel beantworten – vor allem mit Blick auf die Bilderflut, die uns derzeit aus der Kriegsregion Ukraine erreicht, und auf ihre Wirkung auf uns und auf Kinder und Jugendliche.

Schlagwortarchiv für: Fake

Bildmaterial: Wahrheitsgehalt prüfen!

Wie lassen sich Fotografien und Videos auf ihren Wahrheitsgehalt prüfen? Und wie kann man vermeiden, dass Fälschungen weiterverbreitet werden?[1]

Blauer Haken bei Instagram für eine seriöse Nachrichtenagentur; Bild:  Grimme-Institut / Michael Schnell

Blauer Haken bei Instagram für eine seriöse Nachrichtenagentur; Bild: Grimme-Institut / Michael Schnell

Journalist*innen und Faktenchecker*innen

  • untersuchen die Metadaten von Fotos und Videos, die oft auch das Aufnahmedatum und den Aufnahmeort (Geodaten) beinhalten – aber auch geändert werden können und bei Verwendung in Sozialen Medien auch oft automatisch gelöscht werden;
  • nutzen die Bildersuche bei Google, Bing oder auch der russischen Suchmaschine Yandex, bei denen ein Bild eingegeben werden kann. Unter den Suchergebnissen finden sich identische und/oder ähnliche Bilder, die Hinweise geben können auf das Entstehungsdatum oder auf das Originalbild, das später verfälscht worden ist;
  • recherchieren in speziellen Datenbanken nach bereits geklärten Bilderverifikationen;
  • betrachten die Bildmaterialien genau und entdecken so ggf. Fehler bei einer nachträglichen Bildbearbeitung: zum Beispiel falsche Schatten oder widersprüchliche Hell-/Dunkelbereiche, bei Bewegungen ein nicht zur Person passender Gang, verzerrte Bewegungen, zu lange Gliedmaßen und mehr;
  • haben bei der genauen Betrachtung auch Kleinigkeiten im Blick (zum Beispiel Gebäude oder Straßenzüge im Hintergrund), um den Entstehungsort der Bilder zu lokalisieren, ziehen dazu Satellitenaufnahmen und Kartendienste hinzu;
  • machen sich für die Ortung der Bildmaterialien eigene oder Kenntnisse anderer zu regionalen Besonderheiten zunutze;
  • forschen nach, von wem das Bild stammt: von einer seriösen Person oder Institution?
  • wissen, welche Besonderheiten einzelne Social-Media-Instrumente haben, zum Beispiel wie man den Zeitpunkt eines Tweets unabhängig von der Zeitverschiebung erkennen kann.

Was jeder machen kann:

  • Generell misstrauisch sein!
  • Fotografien, Videos, Texte nicht zu schnell per Messenger und über Soziale Netzwerke weiterleiten, vor allem nicht bei unbekannten Absender*innen.
  • Grundsätzlich überlegen, von wem das Bild stammt!
  • Bilder von glaubwürdigen, unabhängigen Medien und seriösen Personen nutzen!
  • Darauf achten, ob der Account einer prominenten Person (zum Beispiel eines/-r Journalistin/-en) verifiziert ist.
  • Speziell bei TikTok: Stammen Bild und Ton von derselben Person? (Ansonsten ist ggf. der Ton von einem anderen Video in das eigene gemischt worden, was bei TikTok gängig und leicht zu bewerkstelligen, aber auch einfach zu erkennen ist).
  • Sofern möglich, oben genannte Tools zum Faktencheck (Rückwärts-Bildersuche u. a.) und die Tipps nutzen.

Verweis


[1] Nachfolgende Tipps finden sich in folgenden Artikeln: Wolfgang Wichmann: faktenfinder-Tutorial: Wie verifiziert man Videos im Netz? Online auf den Seiten der Tagesschau unter: https://www.tagesschau.de/faktenfinder/tutorials/video-verifikation-101.html (vom 08.04.2020, abgerufen am 05.04.2022); Felix Huesmann: Falsche Aufnahmen aus der Ukraine erkennen. Zerstörung in Echtzeit: Wie behält man den Durchblick im Krieg der Bilder? Online auf den Seiten des Redaktionsnetzwerks Deutschland unter: https://www.rnd.de/politik/falschinformationen-aus-der-ukraine-erkennen-durchblick-im-krieg-der-bilder-VFYEREMJQFASHBBHVMV2MQKT3M.html (vom 03.03.2022, abgerufen am 05.04.2022); Jana Heigl, Max Gilbert und Julia Ley: Ukraine-Krieg: So ordnen Sie Quellen und Bilder richtig ein. Online auf den Seiten des Bayerischen Rundfunks unter: https://www.br.de/nachrichten/deutschland-welt/ukraine-konflikt-quellen-und-bilder-richtig-einordnen-faktenfuchs,SyMTZUo (vom 24.02.2022, abgerufen am 05.04.2022); Markus Böhm und Janne Knödler: Ukrainekrieg auf Twitter, TikTok und Co. So entlarven Sie falsche Bilder und Videos. Bei Spiegel online unter: https://www.spiegel.de/netzwelt/web/ukraine-krieg-auf-tiktok-twitter-und-co-so-entlarven-sie-falsche-bilder-und-videos-a-ced13de6-3134-4818-84c1-8ea561275324 (vom 25.02.2022, abgerufen am 05.04.2022); Imre Grimm: Krieg in sozialen Netzwerken. Traut euren Augen nicht! Im Krieg der Bilder ist praktisch alles möglich. Online auf den Seiten des Redaktionsnetzwerks Deutschland unter: https://www.rnd.de/medien/bilder-zum-krieg-in-der-ukraine-was-ist-echt-was-faelschung-ARJX75LDS5GGFKQRNH7EXIDPXU.html (vom 16.03.2022, abgerufen am 05.04.2022); Deutschlandfunk Kultur: Ukraine-Krieg in den Medien. Auf der Suche nach der Wahrheit. Online auf den Seiten von Deutschlandfunk Kultur unter: https://www.deutschlandfunkkultur.de/berichterstattung-ukraine-russland-krieg-100.html (vom 11.03.2022, abgerufen am 05.04.2022).

Fakes, Manipulationen und Propaganda

„Noch nie hat ein moderner Krieg eine solche Flut an nicht nachprüfbaren Bildern produziert“, heißt es in einem Artikel von Imre Grimm auf den Seiten des Redaktionsnetzwerks Deutschland.[1] Ein täuschend echt wirkendes Video von einem fiktiven Luftangriff auf Paris zeigt auf, was technisch möglich ist. Dieses Video wurde erstellt vom ukrainischen Verteidigungsministerium, um die NATO für eine Flugverbotszone über der Ukraine zu gewinnen – und es war relativ klar, dass es eine Fälschung ist.

Kriegsbild und Aufschrift

Kriegsbild und Aufschrift „Fake?“; Bild: Grimme-Institut / Michael Schnell

Doch bei vielen anderen Bildern muss immer ein Restzweifel bleiben, ob es die abgebildete Szene tatsächlich gegeben hat. Da bloggen zwei Personen, die es nachweislich nicht gibt, für eine Webseite namens „Ukraine Today“. Mit Hilfe von Bots, Bildbearbeitung und Künstlicher Intelligenz wurden „glaubwürdige“ Gestalten erschaffen, die auf den ersten Blick völlig real wirken und über Soziale Netzwerke die öffentliche Meinung zum Krieg beeinflussen sollten.[2] Ein anderes Beispiel: Der ukrainische Präsident Selenskyj wurde mit einem Fußballtrikot gezeigt, auf dem ein Hakenkreuz abgebildet ist – das echte Bild hat an dieser Stelle die Rückennummer 95 des Trikots gezeigt.[3]

Neben solchen Fälschungen existieren auch Bilder, die schlicht in einen neuen Kontext gesetzt werden: Eine Fotografie mit einem brennenden Flugzeug zeigt keinen Absturz eines russischen Fliegers im derzeitigen Ukraine-Krieg, sondern ein Unglück bei einer Flugshow Jahre zuvor. Ein Mädchen, das mit einem Soldaten spricht, stammt aus einem älteren Video und zeigt nicht ein Mädchen, das den russischen Soldaten bittet, nach Hause zu gehen.[4] Die Bilder waren also echt, entstanden allerdings nicht im Zusammenhang mit dem derzeitigen Krieg.

Bei der Betrachtung von Kriegsbildern ist auch immer der Urheber zu beachten, da die Kriegsparteien jeweils ihre eigene Wahrnehmung des Krieges verbreiten möchten. Das zuvor erwähnte Video des ukrainischen Verteidigungsministeriums spielt natürlich mit den Ängsten der Menschen in Westeuropa. Auch die Auftritte der beiden Präsidenten, Wladimir Putin und Wolodymyr Selenskyj sind natürlich berechnend: Der Kommunikationsexperte Christian Schicha erklärt in einem Interview des ZDF, dass Selenskyj „in Handyvideos im militärgrünen T-Shirt, wo er sich mit pathetischen Worten als Kämpfer darstellt und die Herzen seines Volkes erreicht“ auftrete, die russische Seite hingegen „über klassische Ansprachen“ ihr Zielpublikum zu erreichen suche. Vorteile in der Außendarstellung sieht Schicha auf der ukrainischen Seite: Selenskyj zeige sich als „Meister der strategischen Kommunikation“, der die modernen Medien geschickt einsetze.[5] Ähnlich sehen dies Ingo Neumayer und Alex Getmann auf WDR.de, die auf die frühere Karriere des ukrainischen Präsidenten als Schauspieler und Regisseur verweisen.[6]

Journalist*innen und Redaktionen müssen vorsichtig sein, aufwendig recherchieren, gründlich abwägen, ob ein Bild bzw. ein Video gezeigt wird oder nicht, auch wenn nur leichte Zweifel an ihrer Echtheit vorliegen mögen. Zudem ist Voreingenommenheit zu vermeiden: Selbst wenn die zuvor genannten Beispiele für Falschinformationen vornehmlich von russischer Seite stammen, warnt der Medienwissenschaftler Florian Zollmann vor einem einfachen „Gut/Böse-Schema“, weil die Zahl der unabhängigen Beobachter*innen des Krieges gering sei.[7]

Verweise


[1] Imre Grimm: Krieg in sozialen Netzwerken. Traut euren Augen nicht! Im Krieg der Bilder ist praktisch alles möglich. Online auf den Seiten des Redaktionsnetzwerks Deutschland unter: https://www.rnd.de/medien/bilder-zum-krieg-in-der-ukraine-was-ist-echt-was-faelschung-ARJX75LDS5GGFKQRNH7EXIDPXU.html (vom 16.03.2022, abgerufen am 05.04.2022).


[2] Elisabeth Urban: Wie Deepfakes russische Propaganda im Netz verbreiten. Online auf den Seiten von t3n.de unter: https://t3n.de/news/deepfakes-russische-propaganda-1455520/ (vom 01.03.2022, abgerufen am 05.04.2022).


[3] Grimm (rnd.de vom 16.03.2022, s. Anm. 1)


[4] Patrick Gensing: Desinformation zum Ukraine-Krieg. Veraltete Bilder und fiktive Journalisten. Online auf den Seiten der Tagesschau unter: https://www.tagesschau.de/faktenfinder/krieg-ukraine-bilder-videos-101.html (vom 01.03.2022, abgerufen am 05.04.2022).


[5] ZDF.de: Von Kampfgeist und Bildkontrolle. Wie Selenskyj und Putin kommunizieren. Online unter: https://www.zdf.de/nachrichten/panorama/kommunikation-information-medien-russland-ukraine-krieg-100.html (vom 02.03.2022, abgerufen am 05.04.2022).


[6] Ingo Neumayer und Alex Getmann: Ukraine-Krieg: Propagandaschlacht und Kampf um die Bilder. Online auf den Seiten des WDR unter: https://www1.wdr.de/nachrichten/ukraine-russland-krieg-informationen-propaganda-100.html (vom 05.03.2022, abgerufen am 05.04.2022).


[7] Ingo Neumayer und Alex Getmann (wdr.de vom 05.03.2022, s. Anm. 6).

Animierte Fotos und Deepfakes

„Das ist doch niemals so passiert! – Oder doch?“ Mit künstlicher Intelligenz können täuschend echt wirkende Videoszenen  erstellt werden, die es so niemals gegeben hat. Das kann harmlos sein, aber auch schlimme Folgen haben.

Analoger Film und Fake-Stempeldruck

Stempelaufdruck „Fake“ auf analogem Film; Bild: Grimme-Institut / Michael Schnell

„Animieren Sie Ihre Familienfotos!“ Mit diesem Spruch wirbt die Ahnenforschungs-Website MyHeritage für eine neue App: Man lädt das Foto des verstorbenen Opas hoch und die App „Deep Nostalgia“ haucht dem Antlitz etwas Leben ein: Das Gesicht bewegt sich und der vielleicht ernst dreinblickende Vorfahr lächelt, er schaut in verschiedene Richtungen und seine Augenlider bewegen sich.

Die zum Teil recht lebensnahe Animierung mittels eines oder mehrerer Fotos benötigt Techniken aus dem Bereich der künstlichen Intelligenz, wie Netzwelt.de berichtet:

„Die KI ‚Deep Nostalgia‘ greift auf eine Datenbank von Videoaufnahmen zurück und entscheidet selbst, welches Video sich am besten für ein bestimmtes Standbild eignet und legt dieses über das Foto.“[1]

Etwas magisch-mystisch und mit Bezug auf Harry Potter erklärt dies Arno Frank bei Spiegel Online:

„Zu diesem Zweck wird die hochgeladene Vorlage (Urgroßmutter) über eine Datenbank einer passenden Videoaufnahme zugewiesen, die dann sozusagen in das Bild kriecht wie eine Hand in einen Handschuh – und das Unbewegliche in Bewegung versetzt. Der Effekt ist auf den ersten Blick faszinierend. Und ein wenig unheimlich. (…) Tatsächlich fühlen sich viele Betrachter an die belebten Ölgemälde aus den ‚Harry Potter‘-Filmen erinnert.“[2]

Ähnlich funktioniert die Erstellung von Deepfakes, also Videos, die etwas zeigen, was in Wirklichkeit nie passiert ist. So kann zum Beispiel in ein bestehendes Video täuschend echt ein Gesicht mit Sprache und passender Mimik eingebaut werden – und das mittlerweile schon mit relativ bescheidenen technischen Mitteln.

„Deep Nostalgia“ mag noch als harmloser Spaß zu verstehen sein, aber die negativen Folgen zunehmend perfekt hergestellter Fake-Videos können immens sein. In den vergangenen Monaten waren laut mixed.de vor allem Frauen vom Missbrauch solcher Techniken betroffen:

„Das Forschungsunternehmen Sensity AI hat Deepfake-Videos seit Ende 2018 nachverfolgt. Zwischen 90 und 95 Prozent dieser Videos sind demnach Pornos und davon betreffen wiederum 90 Prozent Frauen. Eine Untersuchung des niederländischen Unternehmens Deeptrace bestätigt das Ergebnis: 96 Prozent von 15.000 untersuchten Deepfake-Videos waren Pornos. Die Opfer sind zumeist Frauen des öffentlichen Lebens.“[3]

Doch vermehrt sind auch Privatpersonen betroffen: So wurden mittlerweile zwei Apps verboten, mittels denen Frauen nackt dargestellt werden konnten – betroffen waren hiervon auch Minderjährige.[4]

Hinzu kommt: Angesichts der voranschreitenden technischen Möglichkeiten könnte das Video als eine der noch glaubhafteren Abbildungen der Realität künftig ausgedient haben. Laut ZDF.de könnten Meinungsmache und Fake News deutlich an Kraft gewinnen, Mobbing eine ganz neue Qualität bekommen.[5] Und so verwundert es nicht, dass – so das Internet-Portal Security Insider – bereits nach Möglichkeiten geforscht wird, solche Fake-Videos ausfindig zu machen:

„Professor Nasir Memon und sein Team von der Tandon School of Engineering an der New York University (NYU) haben eine Methode entwickelt, um die Aufdeckung von Deepfakes zu erleichtern. Hierzu müsse jede Kamera und Software mit Hilfe von KI einige Artefakte in Videos und Bilder einbetten. Diese Artefakte, für das bloße Auge der Zuschauer nahezu unsichtbar, ließen sich dann im Zuge einer Forensischen Datenanalyse (FDA) auslesen. Langfristig könnte eine Blockchain-Plattform die Authentizität von Video- und Audiomaterial bewachen.“[6]

So oder so: Lösungen müssen her, denn die Folgen von Deepfakes können immens sein: im privaten Bereich ebenso wie im Gesellschaftlichen, in der Politik ebenso wie für die Wirtschaft. Was ist Wahrheit, was bewusste Irreführung? Das wird künftig noch schwerer zu erkennen sein und gerade der Journalismus benötigt hier gut funktionierende Hilfsmittel.

[1] Christoph Zeiss: MyHeritage: Künstliche Intelligenz erweckt Ahnenbilder zum Leben. Bei netzwelt.de unter: https://www.netzwelt.de/news/186806-myheritage-kuenstliche-intelligenz-erweckt-ahnenbilder-leben.html (vom 03.03.2021, abgerufen am 09.03.2021)


[2] Arno Frank: Neue App Deep Nostalgia: Digitale Zombies. Bei Spiegel Online unter: https://www.spiegel.de/kultur/foto-app-deep-nostalgia-digitale-zombies-a-3d399c60-3c8a-46be-b11d-429f4a07b388 (vom 06.03.2021, abgerufen am 09.03.2021)


[3] Anja Klemm und Benjamin Danneberg: Deepfakes: Frauen sind die Opfer – und der Gesetzgeber schläft. Auf der Website mixed.de unter: https://mixed.de/deepfakes-frauen-sind-die-opfer/ (vom 07.03.2021, abgerufen am 09.03.2021)


[4] Ebd.


[5] Siehe dazu einen Artikel des ZDF von 2020: Oliver Klein: Deepfakes – darum sollten wir besorgt sein. Bei ZDF.de unter: https://www.zdf.de/nachrichten/digitales/deepfake-video-sorge-faelschungen-100.html (vom 29.03.2020, abgerufen am 09.03.2021)


[6] Anna Kobylinska und Filipe Martins: KI-Betrug mittels Deepfakes. Auf der Website von Security Insider unter: https://www.security-insider.de/ki-betrug-mittels-deepfakes-a-989107/ (vom 23.12.2020, abgerufen am 09.03.2021)