Manipulation einfach gemacht

Teile diesen Artikel

„Deepfake“ erreicht neues Niveau

Ausgabe Nr. 2630

Das Foto ist ein Screenshot von https://www.ohadf.com/projects/text-based-editing/
Auf dieser Seite wurde die neue Technologie der Öffentlichkeit präsentiert.

„Deepfake“ (dt.: tiefe Fälschung) ist ein noch sehr junger Begriff für eine ebenso junge technologiebasierte Entwicklung, mit der zum Beispiel Videos manipuliert werden können. Seit 2017 ist er in der Öffentlichkeit ein Thema und nimmt mit jeder weiteren Innovation an Bedeutung zu. Anfang Juni wurde ein neuer Algorithmus vorgestellt, dessen falsche Anwendung einen moralisch fragwürdigen Meilenstein für die Zukunft der menschlichen Gesellschaft darstellen könnte.

 

Algorithmen und KI (künstliche Intelligenz) schreiten in ihrer Entwicklung immer weiter fort und erleichtern den Menschen in vielen Lebensbereichen den Alltag. Auch besonders in der Forschung lassen sich diese Neuerungen nicht mehr wegdenken.

Ein Team aus Wissenschaftlern von „Adobe Research“, dem Max Planck Institut für Informatik und den Universitäten Princeton und Stanford haben nun ein Programm entwickelt, mit der sich Videos so bearbeiten lassen, dass man mit der Anwendung Personen ganz andere Dinge sagen lassen kann, als sie es im Original getan haben. Und dabei muss der Sprecher oder die Sprecherin in dem Video noch nicht einmal ähnlich klingende Worte benutzt haben; denn nicht nur die Audioausgabe wird dabei manipuliert, sondern auch die visuelle Komponente.

Wie funktioniert das? Zunächst einmal analysiert das Programm das Quell-Video auf Phoneme hin, also auf die gesprochenen Laut-Kategorien, die sich je nach Sprache unterscheiden. Im Deutschen gibt es etwa 40 davon, im Englischen einige mehr. Die KI erstellt einen Inventar aller Phoneme und von deren Unterkategorien, den Allophonen, und speichert Beispiele davon ab.

Die Anwendung kann dann relativ simpel die Sätze der Sprecher verändern, indem der dazu geschriebene Text (Transkript) von dem Benutzer verändert und vom Programm wiederum in die passenden Sprechlaute umgewandelt wird. Da das für eine täuschend echte Fälschung jedoch nicht reichen würde, passt der Algorithmus anschließend auch die untere Hälfte des Sprecher-Gesichtes digital an. Die Mund- und Kehlkopf-Bewegungen ergänzen dann also die neuen Sprechlaute.

Was das nunmehr für das Resultat bedeutet, kann man sich denken: Sprecher in Videos sagen plötzlich Dinge, die sie nie zuvor gesagt haben. Und das in sehr überzeugender Qualität.

Alles was ein Anwender dieses Programms benötigt, ist ein Quellvideo von mindestens 40 Minuten Dauer, und er kann den Inhalt zu 100 Prozent verändern. Kleinere Änderungen sind aber auch mit wesentlich weniger Material möglich.

Was dies für die Öffentlichkeit in Zeiten von Digitalisierung, YouTube und Fakenews, um nur mal einige Beispiele zu nennen, bedeuten kann, ist schwer abzuschätzen. Auch die AutorInnen des Programms, das sie „Text-based Editing of Talking-head videos“ nennen, also „textbasiertes Bearbeiten von Sprech-Kopf-Videos“, sind sich der Gefahren bewusst. Entwickelt haben sie es vor allem, um etwa die Nachbearbeitung von Filmproduktionen zu vereinfachen, was bisher in der Praxis sehr viel Zeit in Anspruch genommen hat; auch für Film-Übersetzungen kann die Anwendung genutzt werden. Sie schreiben jedoch zugleich, dass „böse Akteure“ leicht die Neuentwicklung missbrauchen können, um etwa politische Strömungen zu beeinflussen. Daher plädieren sie in ihrer Veröffentlichung unter anderem für einen „robusten“ gesellschaftlichen Diskurs über zu ergreifende Vorsichtsmaßnahmen und dafür, weiterführende Forschung in Sachen „digitaler und analoger Fälschungserkennungen, Fingerabdrücke und Wasserzeichen“ zu betreiben.

Ob solche Schritte jedoch ausreichend sind, um ein dermaßen einfach zu bedienendes Programm in verantwortbaren Umgang zu setzen, ist sehr fraglich. Ist die Büchse der Pandora, wie man so sagt, erst einmal geöffnet, wir es für jeden Menschen mit etwas digitaler Kompetenz ein Leichtes sein, Videos nach Lust und Laune zu manipulieren. Und selbst wenn es eines Tages von Gesetzesseiten her eine Reglementierung für den freien Gebrauch geben sollte, sei an dieser Stelle auf das „darknet“ verwiesen. Politisch und gesellschaftlich birgt das neue Programm einige nicht zu unterschätzende Risiken, wenngleich es wohl nur eine Frage der Zeit war, wann die Forschung diesen Meilenstein passieren würde.

Jan-Christian BREWER

 

 

 

 

 

Veröffentlicht in Technik, Aktuelle Ausgabe.