Was Franziska Giffey passiert ist, könnte jeden Menschen treffen: Die Bürgermeisterin Berlins ist auf eine Fälschung hereingefallen: In einem Videotelefonat mit Vitali Klitschko hat sie nicht gemerkt, dass sie nicht mit dem echten Klitschko sprach – sondern mit einer Fälschung. Auch wenn Expert:innen uneins sind, ob das Video tatsächlich ein Deep Fake war oder einfach nur handwerklich sehr geschickt geschnittenes Bildmaterial des echten Klitschko: Es zeigt, wie gefälschte Videos zum Einsatz kommen können. Deep Fakes erstellen mithilfe von Software sowie Künstlicher Intelligenz echt wirkende Bilder und Videos – und oft ist dafür gar kein großes handwerkliches Geschick nötig, eine App kann reichen.
Herausforderungen für Medienschaffende
Deep Fakes sind eine Gefahr für Gesellschaft,Wirtschaft, Politik – und die Medien. Mit ihnen lassen sich politische Prozesse beeinflussen und die Richtung der öffentlichen Meinung lenken: Stimmen und Gesichter können beliebig manipuliert und Personen in anderen Zusammenhängen dargestellt werden. Mit steigender Rechenleistung und Künstlicher Intelligenz als Basistechnologie, die immer besser wird, lässt sich gefälschtes Material zunehmend schwieriger von echtem unterscheiden. Das Tempo, in dem Bilder und Videos in den sozialen Medien verbreitet und als wahr akzeptiert werden, potenziert das Problem. Auch deshalb fällt Medienschaffenden an dieser Stelle eine zunehmende Verantwortung zu, es sorgfältig zu prüfen und zu klassifizieren. Nur: Leider ist das nicht immer so leicht möglich.
Content-Authentizität schützt vor Manipulation
Deep Fakes sind ein gutes Beispiel dafür, wie die gleiche Technologie, die genutzt wird, um die Erstellung und Bearbeitung von Inhalten zu verbessern, effizienter und einfacher zu machen, missbraucht werden kann. Denn letztlich basiert der automatische Austausch von Hintergründen oder aufwendige CGI-Effekte in Filmen auf den gleichen Grundlagen. Deep Fakes stellen Tech-Unternehmen, Social-Media-Plattformen, Medien und die Gesellschaft vor Herausforderungen. Einen interessanten Ansatz, wie Unternehmen darauf reagieren, stellt die Content Authenticity Initiative dar: Adobe hat sie 2019 zusammen mit Twitter und der New York Times gegründet. Inzwischen gehören ihr über 750 Mitglieder an, darunter auch die dpa oder der Stern. Ziel ist es, Menschen die Chance zu geben, die Herkunft und Bearbeitung von Bildern und Videos einfach nachprüfen zu können – transparent und fälschungssicher. Der Hebel dafür: Ein Echtheitsnachweis, der Bildern und Videos hinzugefügt wird, der alle Bearbeitungen und Veränderungen dokumentiert.
Medienkompetenz ist Aufgabe aller Nutzer:innen
Langfristig will die Initiative einen offenen Standard schaffen, mit dem Medien, Journalist:innen, Künstler:innen und andere Kreative ihre audiovisuellen Arbeiten authentifizieren können. Deren Herkunft soll dabei zweifelsfrei nachweisbar werden: Geklärt werden soll, wer das Bild oder das Video wann und wo aufgenommen hat – und wie es im Zweifel verändert wurde. Ein Nachweis, der nur dann richtig funktioniert, wenn dessen Informationen überall ausgewiesen werden – also auch auf der Medien-Website, auch im sozialen Netzwerk. Und wenn sich Nutzer:innen damit beschäftigen. Adobes CEO Shantanu Narayen nimmt auch sie im Gespräch mit Forbes in die Pflicht. Auch sie müssten sich informieren wollen und verfügbare Tools nutzen, um zu prüfen, ob denn echt ist, was sie sehen. Das erfordert Medienkompetenz – und kritisches Denken.
Gemeinsam gegen Desinformation
Die Content Authenticity Initiative ist damit ein gutes Beispiel dafür, wie sich Branchenfelder zusammenschließen und zur Lösung von Problemen einbringen können – und auch dafür, wen es dafür alles braucht. Von Software über Hardware bis hin zu Medien, Social-Media-Plattformen und eben auch den Nutzer:innen. Deep Fakes zur Desinformation sind ein Problem, für das es zum einen technische Lösungen braucht, ob nun Erkennungstools oder einen fälschungssicheren Echtheitsnachweis, zum anderen Distributionskanäle und Plattformen ihren Teil schultern müssen. Verlagshäusern und deren Medien kommt immer stärker die Aufgabe zu, nicht nur selbst in der Lage zu sein, Inhalte zu prüfen, sondern auch, Desinformationsmechanismen und Kampagnen als Gegenstand der Berichterstattung aufzugreifen. Und mündige Nutzer:innen sind ebenfalls gefragt – um Desinformation gemeinsam zu bekämpfen.
Bilderursprung: iStock.com/VectorMine