Falls Adobes Projekt VoCo (Voice Conversion) jemals allgemeinzugänglich wird, wird es noch schwieriger, gesprochene Inhalte ernst zu nehmen und an ihre Echtheit zu glauben. VoCo braucht nämlich nur eine Stimmprobe und kann dann aufgrund dieses Samples zum Reden gebracht werden. Ganz einfach, indem der gewünschte Text in den Computer eingegeben wird. Wenn also im nächsten amerikanischen Präsidentschaftswahlkampf wieder Aufnahmen mit unanständigen Aussagen des Kandidaten oder der Kandidaten ausgegraben werden, wird es schwierig werden, an deren Echtheit zu glauben.
Oder doch nicht?
Immerhin plant Adobe, manipulierte Sprache mit einem digitalen “Wasserzeichen“ zu versehen, um Fälschungen schwieriger zu machen:
“Auf der Konferenz versicherte einer der Entwickler nach Angaben der NZZ, dass Adobe "akustische Wasserzeichen" in die von VoCo erzeugten Schnipsel einbauen wolle. Mit deren Hilfe sollen sich Fälschungen erkennen lassen. Selbst wenn das dauerhaft funktionieren sollte: So wie es immer Menschen geben wird, die auf manipulierte Fotos hereinfallen, wird es auch solche geben, die erst einmal glauben, was sie hören.“Aber neben all den naiven Medienkonsumenten, die “erst einmal glauben, was sie hören“, wie es der Journalist so schön formuliert hat, wird es wohl auch nicht sehr lange dauern, bis Hacker einen Weg finden, um diese Wasserzeichen zu eliminieren – oder versuchen, damit biometrische Sicherheitssysteme zu überlisten. Experten sind allerdings nicht sehr besorgt über dieses Risiko:
“Wir sind sicher, dass wir Täuschungsversuchen immer einen Schritt voraus sind", sagt Nils Lenke gegenüber Spiegel Online. Der Forscher arbeitet beim Unternehmen Nuance, das biometrische Sicherheitssysteme entwickelt und Apple bei der Programmierung des Sprachassistenten Siri unterstützt hat. Nuance hat unter anderem die biometrische Stimmerkennung für die HSBC-Bank und den Telekommunikationskonzern TalkTalk entwickelt. Mehr als 130 Millionen Kunden verwenden nach Angaben von Nuance bereits ihre Stimme als Passwort. […] Sollten Betrüger versuchen, die Stimme eines Bankkunden zu simulieren, dann erkenne man schnell, ob eine Software das Sprachsignal verändert hat. Auch wenn die Stimme für das menschliche Ohr natürlich klingen sollte: Die Algorithmen der Manipulationssoftware hinterlassen dem Forscher zufolge deutliche synthetische Spuren, die sich leicht entlarven lassen.“Wir sind davon überzeugt, dass “Photoshop für Audiodateien“ mittel und langfristig auf breiter Front eingesetzt werden wird. Das Tool ist schlicht und einfach zu praktisch. Wir, die Konsumenten von elektronischen Medien, werden uns daran gewöhnen, auch gesprochene Inhalte nicht mehr einfach als echt zu akzeptieren. Wie das ja bei anderen Inhalten schon längst der Fall ist.
No comments:
Post a Comment