#failoftheweek: Wie die Photoshopisierung der Welt die Demokratie bedroht

Die Zeiten, in denen man nur Bilder retuschieren konnte, sind vorbei. Bald schon können wir so ziemlich alles faken und Politkern jeden beliebigen Satz in den Mund legen. Christian Schiffer fragt sich, wie wir der Photoshopisierung der Welt begegnen sollen.

Da ist er endlich wieder! Stars-and-Stripes-Pin am Revers, im Hintergrund die Fahne mit dem Präsidenten-Banner, den Blick entschlossen in die Kamera gerichtet. Barack Obama spricht über ein wichtiges Thema, er warnt nämlich vor Videomanipulation, bald schon könne jeder jedem alles jederzeit in den Mund legen. Und dann plötzlich fängt er an, wirres Zeug über die die Comic-Serie „Black Panther“ zu reden und nennt Donald Trump einen Volldeppen:

Klar, natürlich ist das Obama-Video selbst ein Fake. Eigentlich spricht da der der Schauspieler Jordan Peele, doch sein Gesicht wurde so manipuliert, dass er aussieht wie Obama. Die Macher haben dazu die Software Fake App verwendet, die es umsonst im Netz gibt und zum Schluss nochmal mit After Effects von Adobe drübergebügelt, zack fertig: Ex-Präsident.

Ein paar Sprachfetzen sollen für den Stimmen-Fake reichen

Vor ein paar Monaten sorgte Fake App schon mal für Diskussionen, damals hatten Spaßvögel die Gesichter von Prominenten in Pornos montiert und das Resultat war… nunja, sagen wir es mal so: Überzeugend. Deep Fakes nennt man diese Art der Manipulation mit Hilfe von künstlicher Intelligenz und fälschen kann man damit nicht nur bewegte Bilder, sondern auch die Stimme. Bereits Ende 2016 hat Adobe eine Software vorgestellt, die jeden Text von jeder Stimme vorlesen lassen kann und dazu lediglich eine zwanzigminütige Sprachprobe benötigt. Und kürzlich erst staunte die Tech-Welt über eine chinesische Software, die nur eine Sprachprobe von 3,7 Sekunden benötigt.

Wer etwas Ähnliches selbst ausprobieren möchte, der kann die Seite Lyrebird aufrufen, dort ein paar Sätze einsprechen und schon kann die Software aus der eigenen Stimme jeden beliebigen Satz generieren:

„Hello I am Christian and I am writing a radio piece. Right now I have no fucking idea what I want to write so maybe it’s better go to bed again.“

Das hört sich bei Lyrebird dann so an:

Klar, das ist alles andere als perfekt, die Stimme klingt metallisch, die  Aussprache ist undeutlich, die Qualität ist bescheiden, aber man kann die Stimme wiedererkennen, auch das unterirdische Englisch des Sprechenden *hüstel* wird einigermaßen akkurat wiedergegeben.

Bald werden die Tools perfekt sein – mit dramatischen Folgen

Adobe & Co. bekommen das Ganze noch viel besser hin und bald schon werden solche Tools nahezu perfekte Ergebnisse erzielen. Die Folgen könnten dramatisch sein: Jedem Politiker könnte man alles in den Mund legen, wer möchte könnte Markus Söder „Wir schaffen das!“ sagen lassen oder ihn die bayerische Unabhängigkeit verkünden lassen oder man könnte, aufgepasst, jetzt wird es richtig weird, man könnte Andrea Nahles im Parlament Pippi-Langstumpf-Lieder singen lassen! Wobei, okay, das geht schon heute. Mit Youtube.

Dennoch: Verschwörungstheorien würden boomen, niemand wüsste mehr, woran man ist, eine Herausforderung für die Demokratie. Helfen könnte dann künstliche Intelligenz, ausgerechnet. Komplexe Algorithmen könnten Deep Fakes enttarnen und Aufschluss darüber geben, wie und wo ein Video oder eine Stimme manipuliert wurde. Bleibt nur zu hoffen, dass die Wahrheit dieses technologische Wettrüsten gewinnt.

 

Kommentieren:

Kommentare werden vor der Freischaltung geprüft. Mehr in den Kommentarrichtlinien.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.