Vielen Dank für Ihre Registrierung. Sie haben den Aktivierungslink für Ihr Benutzerkonto per E-Mail erhalten.

Vielen Dank für Ihre Anmeldung.

Vielen Dank für Ihre Bestellung. Wir wünschen Ihnen viel Spass beim Lesen.

Video

Videomanipulation: Politiker fürchten sich vor Fake-Media-Welle

Künstliche Intelligenz erlaubt es jedermann, Bewegtbilder zu manipulieren. Politiker warnen vor den Folgen einer Fake-Media-Welle im US-Wahlkampf.
Tomislav Bezmalinovic

Barack Obama nennt Donald Trump bei laufender Kamera einen «kompletten Vollidioten». Facebook-Chef Mark Zuckerberg gesteht in einer Fernsehübertragung, dass er für eine Geheimorganisation mit Weltherrschaftsplänen Daten sammelt. Und Putin brüstet sich in einer Talkshow damit, Trump zur Macht verholfen zu haben.

«Man stelle sich vor, dass ein solches Video am Vortag einer Wahl erscheint»: Marco Rubio, republikanischer Senator

All dies ist in Internetvideos zu sehen. In Wirklichkeit hat aber keine dieser Personen so etwas gesagt. Bei den Videos handelt es sich um sogenannte «Deep­fakes». Das sind Ton-, Bild- und Videoinhalte, die unter Verwendung künstlicher Intelligenz erstellt oder nachträglich manipuliert wurden (siehe Infobox unten). Die hierfür benötigten Programme können kostenlos im Internet heruntergeladen werden, sodass selbst Laien Gesichter in Videos austauschen und Menschen beliebige Worte in den Mund legen können. Und die Technik entwickelt sich rasend schnell fort: Sie wird immer leichter in der Handhabe und überzeugender in der Wirkung.

Infobox: Alles begann mit einem Porno

2017 stellte ein Internetnutzer unter dem Pseudonym «deepfakes» Fake-Pornos ins Netz, die prominente Schauspielerinnen wie Gal Gadot und Emma Watson beim Sex zeigen. Die Aktion demonstrierte, wie täuschend echt sich Videos mit neuster Technologie manipulieren lassen. Das Wort «Deepfake» ist ein Zusammenzug aus «deep» (tief) und «fake» (Fälschung). «Deep» bezieht sich auf «Deep Learning», eine Kategorie maschinellen Lernens, die technische Grundlage von Deepfake ist. Bei dieser KI-Technik lernen Computer mittels künstlicher neuronaler Netze, die den Aufbau und die Funktionsweise eines Gehirns nachahmen. Im Fall eines digitalen Gesichtertauschs füttert man eine künstliche Intelligenz so lange mit Bildern und Videos einer Person, bis sie sich ihr Gesicht eingeprägt hat. Danach kann das Gesicht auf eine andere Person übertragen werden. Je besser das Trainingsmaterial der KI, desto echter wirkt das Ergebnis. Deepfakes werden mit einer speziellen Art künstlicher neuronaler Netze erstellt, sogenannte «Generative Adversarial Networks» oder kurz GANs. Das Lernverfahren nutzt zwei gegnerische KI, die sich im Wettkampf gegenseitig verbessern: Die erste KI erstellt einen Inhalt, die zweite beurteilt dessen Qualität. Fällt es durch, bessert die erste KI nach. So werden die Resultate des KI-Systems immer überzeugender. (tb)

In den USA warnen führende Politiker vor den neuen Fake-Medien. Einer der prominentesten Mahner ist der republikanische Senator Marco Rubio, der in Deepfakes die nächste grosse Attacke auf Amerika und westliche Demokratien sieht: «Man stelle sich vor, dass ein solches Video am Vortag einer Wahl erscheint, innerhalb einer Kultur, in der die Menschen bereits zu Vorurteilen neigen und an ungeheuerliche Dinge zu glauben bereit sind und einer Medienlandschaft und sozialen Netzwerken, in der sich das Video rasant verbreitet.» Bis das Material als Fälschung entlarvt sei, sei die Wahl schon vorbei.

Löschen oder nicht?

Im Hinblick auf die Präsidentschaftswahlen 2020 hat der US-Kongress kürzlich die drohende Deepfake-Schwemme diskutiert. Der US-Geheimdienstausschuss traf mit einem Gremium aus Rechts- und KI-Experten zusammen, um über mögliche Massnahmen zu beraten. Die Mitglieder fanden einstimmig, dass man die sozialen Netzwerke stärker in die Pflicht nehmen müsse. Plattformen wie Facebook sollten einheitliche und klare Richtlinien im Umgang mit Deepfakes definieren, um Nutzer vor viralen KI-Fakes zu schützen. Geschehe das erst nach den Präsidentschaftswahlen, sei es bereits zu spät.

Auf ein im Mai veröffentlichtes und mit herkömmlichen Mitteln manipuliertes Video, das die Sprecherin des US-Repräsentantenhauses Nancy Pelosi in vermeintlich betrunkenem Zustand zeigt, reagierten die sozialen Netzwerke sehr unterschiedlich. Youtube löschte das Video, Facebook markierte es als Fake, ohne es zu entfernen, und Twitter liess es unangetastet.

Facebook-Chef Mark Zuckerberg liess am Mittwoch verlauten, dass die Plattform an Deepfake-Richtlinien arbeitet. Das eingangs erwähnte gefälschte Video von Zuckerberg wurde übrigens nicht vom Foto-Netzwerk Instagram, das zu Facebook gehört, gelöscht; über die Suchfunktion ist es allerdings nicht mehr auffindbar.

Für einige Politiker geht eine strengere Regulierung sozialer Netzwerke nicht weit genug: Der republikanische Senator Ben Sasse kämpft seit 2018 für ein Gesetz, dass die Erstellung und Verbreitung schädlicher Deepfakes unter Strafe stellt, während die Demokratin Yvette Diane Clarke eine gesetzliche Wassermarkenpflicht für Deepfakes fordert.

Auch das Pentagon reagierte bereits auf die Gefahr: Das US-Verteidigungsminsterium lässt seit 2018 KI-gestützte Programme entwickeln, die Deep­fakes entlarven sollen. Die damit beauftragte US-Behörde Darpa arbeitet hierfür unter anderem mit einem in Martigny ansässigen und von der EPFL mitgegründeten Forschungsinstitut zusammen. Diese Programme sollen nicht nur den Plattformen, sondern auch den Internetnutzern zur Verfügung gestellt werden.

Doch sind Deepfakes wirklich so gefährlich? Eine Bestandsaufnahme zeigt, dass die KI-Fakes trotz frei verfügbarer Technologie noch kaum für politische Zwecke missbraucht wurden. Die eingangs angeführten Beispiele sind als Deepfakes markiert und dienen zu Satire- und Bildungszwecken. Davon abgesehen können sie bei näherem Hinsehen leicht als Fälschungen entlarvt werden. Die Herstellung eines täuschend echt wirkenden Deepfake-Videos ist mit viel Aufwand verbunden, sodass Fälscher (noch) zu älteren und einfacheren Methoden greifen. Doch das könnte sich in den nächsten Jahren ändern.

Deepfake auf Netflix

Experten sehen bereits eine Deepfake-Flut auf die Öffentlichkeit zukommen. Der Erfinder der KI-Technik Ian Goodfellow warnt vor dem Aufkommen eines Medienzeitalters, in dem Ton-, Bild- und Videoaufnahmen ihre Beweiskraft eingebüsst haben. In der allgemeinen Verunsicherung würden die Quellen und journalistischen Organe, die eine Nachricht herausgeben, für mehr Verlässlichkeit bürgen als das gezeigte Material selbst.

Doch die Technologie lässt sich auch für ganz andere Zwecke nutzen. Besucher des Dalí Museums in Florida können dem Meister des Surrealismus seit kurzem in digitaler Form begegnen. Das Museum liess ein professionelles Deepfake des Surrealisten anfertigen. Hierfür wurde eine KI mit 6000 Standbildern aus Videoaufnahmen des Künstlers trainiert. Das Gesicht samt charakteristischer Mimik wurde anschliessend über das eines Schauspielers mit Dalís Körpermassen gelegt. Damit der Deepfake-Dalí auch so klingt wie das Original, wurde ein Dalí-Stimmenimitator engagiert. Das Ergebnis sind 45 Minuten neues Filmmaterial, in denen der Künstler Zeitung liest, das Wetter kommentiert, aus seinem Leben erzählt und Selfies mit Besuchern schiesst.

Ein anderes Anwendungsbeispiel sind Spezialeffekte. Experten gehen davon aus, dass Deepfakes in den nächsten Jahren Hollywoods Tricktechnik revolutionieren. Der auf Deepfakes spezialisierte Youtube-Kanal Ctrl Shift Face ersetzt schon jetzt Schauspieler in berühmten Filmen – mit verblüffendem Ergebnis. So tritt urplötzlich Sylvester Stallone statt Arnold Schwarzenegger in der Rolle des Terminators auf. Gut möglich, dass es auf Netflix dereinst möglich sein wird, Rollen mit seinen Lieblingsschauspielern zu besetzen oder sogar das Gesicht des Hauptdarstellers mit seinem eigenen auszutauschen und so selbst in der Serie mitzuspielen.

Merkliste

Hier speichern Sie interessante Artikel, um sie später zu lesen.

  • Legen Sie Ihr persönliches Archiv an.
  • Finden Sie gespeicherte Artikel schnell und einfach.
  • Lesen Sie Ihre Artikel auf allen Geräten.