Zum Inhalt springen
Inhalt

Bytes/Pieces Deep-Fake-Videos: Mehr als nur Porno

Neue Trends im Internet finden meist als erstes in der Pornoindustrie Anwendung. So auch bei Deep-Fakes – einer Technologie, mit welcher man Gesichter in Videos beinahe beliebig austauschen kann. Deep-Fakes bieten allerdings mehr Möglichkeiten als Porno – und weitaus gefährlichere.

Neu ist die Idee nicht: Seitdem es Videos gibt, wird mit Tricks gearbeitet und «gefälscht», was das Zeug hält. Dass es dafür neuronale Netzwerke oder künstliche Intelligenzen gibt, die frei zugänglich im Internet kursieren und die man auf die Erstellung von Fälschungen trainieren und spezialisieren kann, ist allerdings ein Novum.

Die Technik hinter Deep-Fakes

Was genau Deep-Fakes sind und wie sie funktionieren, erfährst du im Video oben oder hier.

Mama Reddit

Wie viele technologische Errungenschaften entspringt auch die Deep-Fake-Software einem Reddit-Subforum. Dort tauschte eine gelangweilte und vermutlich hauptsächlich männliche Community ab 2016 fleissig Schmuddelfilmchen mit Hollywood-Sternchen. 2017 schaffte das den Sprung in den Mainstream und löste dort einen regelrechten Deep-Fake-Hype aus, Link öffnet in einem neuen Fenster.

Von Porno zu Politik

Dort trieb die Technologie neue, seltsame Blüten. Der Schauspieler Nicolas Cage – aus irgendeinem Grund häufig Ziel von Internet-Witzbolden - war ein frühes Opfer von Deep-Fakes.

Kurz darauf sorgte ein Video für Schlagzeilen, in dem sich Barack Obama wortgewaltig über seinen Nachfolger Donald Trump ausliess.

Das Video wurde von Buzzfeed und dem Schauspieler Jordan Peele fabriziert, um die (Netz-)Welt für die wahre, mit Deep-Fakes einhergehende Problematik zu sensibilisieren: Die potentielle Informationsapokalypse. Je ausgefeilter die Technologie wird, desto einfacher wird es nämlich, jedes erdenkliche Video zu fälschen. Bereits jetzt gibt es eine Deep-Fake-App im Netz und Adobe arbeitet an «Voco» – einem Programm, das in etwa dasselbe mit Stimmen macht. Zukünftig kann man also nicht nur Personen in Videos «swappen», sondern auch gleich noch deren Aussagen.

Die potentielle Deep-Fake-Katastrophe

Diese Entwicklung kann unter Umständen katastrophale Auswirkungen haben. Man stelle sich beispielsweise gefälschte Videos vor, in denen Politiker atomare Kriege erklären, und die sich in Windeseile im Netz verbreiten.

Alles scheisse oder was?

Bevor ihr jetzt alle das Informationshandtuch werft und nie mehr etwas Glauben schenkt: Mögliche Lösungen der Deep-Fakes-Problematik werden ebenfalls bereits heiss diskutiert. Die (wieder) wachsende Bedeutung von Journalismus als faktencheckende Instanz ist eine davon, andere sind technischer Natur. Bereits jetzt schrauben Technologiekonzerne an Programmen, die den Deep-Fake-Prozess «rückwärts» laufen lassen und so gefälschte Videos entlarven können.

Unterdessen appellieren wir mal an die Selbstverantwortung: Glaubt nicht alles, was ihr seht.

Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Wir haben Ihren Kommentar erhalten und werden ihn nach Prüfung freischalten.

Einen Kommentar schreiben

verfügbar sind noch 500 Zeichen

Mit dem Absenden dieses Kommentars stimme ich der Netiquette von srf.ch zu.

Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.

Es wurden noch keine Kommentare erfasst. Schreiben Sie den ersten Kommentar.