Eigentlich war es ja unvermeidlich: Die
Pornographen haben KI für ihre Zwecke entdeckt.
Das geht dann so, dass die Gesichter von Pornodarstellerinnen mit den
Gesichtern bekannter Persönlichkeiten (meistens handelt es sich bei den Opfern
um prominente Schauspielerinnen) ersetzt werden. Social Networks wie Reddit
sind bereits voll von Fake-Porn. Und Porno-Videos sind natürlich nicht das
Einzige, das digital gefälscht werden kann.
Zuerst waren es Fake-News, jetzt sind wir beim
Fake-Porn angelangt. Das ist eigentlich nicht überraschend, wenn man weiss,
dass mehr als 30 Prozent des Datenflusses im Internet auf pornographische
Inhalte zurückzuführen sind. Abgesehen von den ethischen Fragen, die durch
die digitale Fälschung von Personen in Videos aufgeworfen werden, zeigt diese
Entwicklung auf, wie schnell sich Künstliche Intelligenz und
Machine-Learning-Technologien in den letzten Jahren entwickelt haben. Zitat aus
dem Stern:
“Das Erschreckendste ist, wie einfach die genutzten Methoden zu sein scheinen. Gegenüber "Motherboard" erklärte deepfakes, er nutze eine Software, die er sich aus mehreren kostenlosen Tools zusammenklaubt habe. Beim Bildmaterial dienen die Pornos als Basis, dann kommen Bilder aus Google-Suchen, Stock-Fotos und YouTube-Clips der Stars hinzu - und das Programm erledigt den Rest…“
Tatsächlich hat der hier zitierte Reddit-User mit dem Namen “deepfakes“ einen Trend ausgelöst, der nicht mehr aufzuhalten
sein wird. Social Networks wie Reddit sind bereits voll von Fake-Porn, und für
die User von Social Networks wird es nochmals schwieriger, die Wahrheit von der
Lüge zu unterscheiden - denn Pornos sind längst nicht das Einzige, das digital
gefälscht werden kann:
“Besonders peinlich sind Sex-Clips; natürlich ließe sich so aber auch ein Überwachungsvideo oder eine Unfallaufnahme fingieren. Bedenkt man, dass die Menschen Dutzende Milliarden von Selfies ins Netz stellen, dürfte die Suche nach Material in den meisten Fällen kaum eine Hürde darstellen. Welche Folgen eine so einfache Manipulation von Bildern und Videos hat, ist bisher kaum einzuschätzen. Noch braucht man relativ leistungsfähige Hardware, besonders teuer ist die allerdings nicht mehr. Die Entwicklung ist rasant. In nicht allzu ferner Zukunft dürften selbst Smartphones die nötigen Berechnungen schaffen. Auch der selbstlernende Algorithmus wird immer besser. Bis jedes bessere Smartphone fehlerfreie Fake-Videos in Echtzeit bauen kann, dürften es höchstens einige Jahre dauern.“
Damit ein Gesicht in einem Video gefälscht
werden kann, braucht es also möglichst viele Fotos als Ausgangsmaterial - im
Zeitalter der Social Networks eigentlich kein Problem mehr. Zitat aus der Zeit:
“Nimmt man zu Fotodiensten wie Google Fotos noch Plattformen wie Instagram, Facebook und Twitter dazu, fallen Milliarden an Selfies pro Jahr an. Die fotografische Präsenz in den sozialen Netzwerken, dank Snapchat oder Features wie den Instagram Stories zunehmend auch in Form von Videos, bringt riesige Datenmengen hervor – und damit auch neues Missbrauchspotenzial. In den vergangenen Jahren standen zudem häufig sogenannte Rachepornos im Mittelpunkt: Nacktbilder oder Videos, die ursprünglich zwischen zwei Menschen geteilt wurden, aber schließlich, etwa nach einer Trennung oder aufgrund von Hackerangriffen, im Internet landeten […] Nimmt man alles zusammen – die zahlreichen Foto- und Videoquellen, das Potenzial für Missbrauch und die technischen Entwicklungen – dann ist der Weg vom Rache- zum Fake-Porno nicht weit.“
Schliesslich fallen uns, ohne lang nachzudenken, auch zahlreiche politische und
gesellschaftliche Anwendungsmöglichkeiten für Fake-Videos ein (das untenstehende Video zeigt ein Video in dem Angela Merkels Gesicht durch jenes von Donald Trump ersetzt wird).
KI wird also in den nächsten Jahren mithelfen, digitale Nachrichtenvermittlung und Kommunikation noch unglaubwürdiger zu machen, als sie schon sind. Wir können nur hoffen, dass auch die entsprechenden Technologien entwickelt werden, um Fake-Videos schnell und eindeutig zu erkennen. Bei Fake-News funktioniert das ja schon ganz hervorragend…
KI wird also in den nächsten Jahren mithelfen, digitale Nachrichtenvermittlung und Kommunikation noch unglaubwürdiger zu machen, als sie schon sind. Wir können nur hoffen, dass auch die entsprechenden Technologien entwickelt werden, um Fake-Videos schnell und eindeutig zu erkennen. Bei Fake-News funktioniert das ja schon ganz hervorragend…