#failoftheweek: Wie uns Gabun zeigt, dass Fake News nur der Anfang waren

Ein Präsident schaut in seiner Neujahrsansprache starr und unbeweglich in die Kamera. Das Video gerät unter Manipulationsverdacht und löst einen Putsch aus. In Gabun kann man beobachten, wie Deep Fake Videos Zweifel an der Realität aufkommen lassen.

Eigentlich scheint das Video eine recht typische Neujahrsansprache zu zeigen. Beschwingte Hymne am Anfang, links drei Fahnen, staatsmännische Ansprache ans Volk, irgendwas mit Wohlstand und Zusammenhalt, beschwingte Hymne am Ende, Hurra, das neue Jahr kann kommen. Doch etwas ist anders, als Gabuns Präsident Ali-Ben Bongo sich dieses Mal mit salbungsvollen Worten an sein Volk wendet. Da ist zunächst einmal die Tatsache, dass Präsident Bongo überhaupt eine Neujahrsansprache hält. Denn der autoritäre Präsident, dessen Familie sich seit fast 50 Jahren an die Macht klammert, gilt als schwer krank, seit einem Schlaganfall wird er in Saudi Arabien behandelt, längst kursieren Gerüchte, er sei in Wirklichkeit tot. Und dann blickt der 60-jährige auch noch merkwürdig starr in die Kamera. Klar, das kann vermutlich auch am Gesundheitszustand liegen, aber warum wirken seine Augen so unbeweglich, seine Pupillen scheinen wie festgetackert und warum blinzelt der Bongo nur 13 mal in den zwei Minuten? Etwa halb so oft viel wie ein Durchschnittsmensch? Dass Bongo so selten blinzelt könnte mit dazu geführt haben, dass wenig später ein weiteres Video durch Netzt kursiert.

In diesem Video geht es weniger staatsmännisch zu. Ein Offizier verliest eine Erklärung, es geht um den schlechten Gesundheitszustand des Präsidenten, darum, dass das Land seine Würde verloren habe und dass es so ja wohl nicht mehr weiter gehen kann. Im Hintergrund zwei Soldaten, Maschinengewehre im Anschlag. Der Putsch scheitert, aber interessant ist die Ursache des Staatstreichs, denn offenbar probten die Soldaten den Aufstand auch deswegen, weil politische Gegner des Präsidenten behaupteten, das Video mit der Neujahrsansprache sei in Wirklichkeit ein Deep Fake.

Well, that escalated quickly!

Deepfakes sind Videos, bei denen mit Hilfe von künstlicher Intelligenz und Machine Learning beispielsweise die Gesichter von Personen ausgetauscht werden. Fotoshop auf Speed quasi und für bewegte Bilder. Das Gesicht von Steve Buscemi landet dann auf dem von Jennifer Lawrence und natürlich wird beträchtliche Rechenkapazität darauf verwendet, reihenweise Deepfake-Pornos mit bekannten Schauspielerinnen zu erstellen, Scarlett Johansson hat den Kampf gegen künstliche Schmuddelfilmchen mit ihrem Gesicht bereits aufgegeben. Und natürlich könnte man so auch Politikern Dinge in den Mund legen, die sie gar nicht gesagt haben. Etwa Barack Obama.

K.I. legt Fallen. Und hilft uns sie zu finden.

Man kann solche, durch künstliche Intelligenz manipulierten, Videos entlarven und zwar mit Hilfe von, nunja, künstlicher Intelligenz. Ob aber die Neujahrsansprache von Ali-Ben Bongo wirklich manipuliert war, da sind sich die Experten nicht ganz einig. Und so kann man in Gabun jetzt schon sehen, worin die Gefahr der Deep-Fake-Technologie liegt: Nicht so sehr darin, dass ein manipuliertes Donald Trump Video gleich einen Atomkrieg auslöst. Aber darin, dass alles in Zweifel gezogen werden kann, dass Menschen nicht mehr wissen, ob sie ihren Augen noch trauen können und man sich nur noch auf eines einigen kann: Nichts ist, wie es scheint.