Sunday, January 28, 2018

Künstliche Intelligenz kreiert Fake-Pornos

Eigentlich war es ja unvermeidlich: Die Pornographen haben KI für ihre Zwecke entdeckt.  Das geht dann so, dass die Gesichter von Pornodarstellerinnen mit den Gesichtern bekannter Persönlichkeiten (meistens handelt es sich bei den Opfern um prominente Schauspielerinnen) ersetzt werden. Social Networks wie Reddit sind bereits voll von Fake-Porn. Und Porno-Videos sind natürlich nicht das Einzige, das digital gefälscht werden kann.

Zuerst waren es Fake-News, jetzt sind wir beim Fake-Porn angelangt. Das ist eigentlich nicht überraschend, wenn man weiss, dass mehr als 30 Prozent des Datenflusses im Internet auf pornographische Inhalte zurückzuführen sind. Abgesehen von den ethischen Fragen, die durch die digitale Fälschung von Personen in Videos aufgeworfen werden, zeigt diese Entwicklung auf, wie schnell sich Künstliche Intelligenz und Machine-Learning-Technologien in den letzten Jahren entwickelt haben. Zitat aus dem Stern:
“Das Erschreckendste ist, wie einfach die genutzten Methoden zu sein scheinen. Gegenüber "Motherboard" erklärte deepfakes, er nutze eine Software, die er sich aus mehreren kostenlosen Tools zusammenklaubt habe. Beim Bildmaterial dienen die Pornos als Basis, dann kommen Bilder aus Google-Suchen, Stock-Fotos und YouTube-Clips der Stars hinzu - und das Programm erledigt den Rest…“
Tatsächlich hat der hier zitierte Reddit-User mit dem Namen “deepfakes“ einen Trend ausgelöst, der nicht mehr aufzuhalten sein wird. Social Networks wie Reddit sind bereits voll von Fake-Porn, und für die User von Social Networks wird es nochmals schwieriger, die Wahrheit von der Lüge zu unterscheiden - denn Pornos sind längst nicht das Einzige, das digital gefälscht werden kann:
“Besonders peinlich sind Sex-Clips; natürlich ließe sich so aber auch ein Überwachungsvideo oder eine Unfallaufnahme fingieren. Bedenkt man, dass die Menschen Dutzende Milliarden von Selfies ins Netz stellen, dürfte die Suche nach Material in den meisten Fällen kaum eine Hürde darstellen. Welche Folgen eine so einfache Manipulation von Bildern und Videos hat, ist bisher kaum einzuschätzen. Noch braucht man relativ leistungsfähige Hardware, besonders teuer ist die allerdings nicht mehr. Die Entwicklung ist rasant. In nicht allzu ferner Zukunft dürften selbst Smartphones die nötigen Berechnungen schaffen. Auch der selbstlernende Algorithmus wird immer besser. Bis jedes bessere Smartphone fehlerfreie Fake-Videos in Echtzeit bauen kann, dürften es höchstens einige Jahre dauern.“
Damit ein Gesicht in einem Video gefälscht werden kann, braucht es also möglichst viele Fotos als Ausgangsmaterial - im Zeitalter der Social Networks eigentlich kein Problem mehr. Zitat aus der Zeit:
“Nimmt man zu Fotodiensten wie Google Fotos noch Plattformen wie Instagram, Facebook und Twitter dazu, fallen Milliarden an Selfies pro Jahr an. Die fotografische Präsenz in den sozialen Netzwerken, dank Snapchat oder Features wie den Instagram Stories zunehmend auch in Form von Videos, bringt riesige Datenmengen hervor – und damit auch neues Missbrauchspotenzial. In den vergangenen Jahren standen zudem häufig sogenannte Rachepornos im Mittelpunkt: Nacktbilder oder Videos, die ursprünglich zwischen zwei Menschen geteilt wurden, aber schließlich, etwa nach einer Trennung oder aufgrund von Hackerangriffen, im Internet landeten […] Nimmt man alles zusammen – die zahlreichen Foto- und Videoquellen, das Potenzial für Missbrauch und die technischen Entwicklungen – dann ist der Weg vom Rache- zum Fake-Porno nicht weit.“
Schliesslich fallen uns, ohne lang nachzudenken, auch zahlreiche politische und gesellschaftliche Anwendungsmöglichkeiten für Fake-Videos ein (das untenstehende Video zeigt ein Video in dem Angela Merkels Gesicht durch jenes von Donald Trump ersetzt wird). 
KI wird also in den nächsten Jahren mithelfen,  digitale Nachrichtenvermittlung und Kommunikation noch unglaubwürdiger zu machen, als sie schon sind. Wir können nur hoffen, dass auch die entsprechenden Technologien entwickelt werden, um Fake-Videos schnell und eindeutig zu erkennen. Bei Fake-News funktioniert das ja schon ganz hervorragend…

No comments:

Post a Comment