Alexas Fähigkeit, tote Verwandte nachzuahmen, könnte die gruseligste Sache aller Zeiten sein

Inhaltsverzeichnis:

Alexas Fähigkeit, tote Verwandte nachzuahmen, könnte die gruseligste Sache aller Zeiten sein
Alexas Fähigkeit, tote Verwandte nachzuahmen, könnte die gruseligste Sache aller Zeiten sein
Anonim

Key Takeaways

  • Der Alexa-Sprachassistent von Amazon kann eine Stimme mit nur einer Minute Audio kopieren.
  • Du könntest Alexa bitten, eine Geschichte mit der Stimme eines verstorbenen Elternteils vorzulesen.
  • Es ist die gleiche Idee wie Deepfakes, nur für die Kräfte des Guten verwendet.
Image
Image

Amazon Alexas neuestes Gimmick besteht darin, zu lernen, die Stimme eines verstorbenen geliebten Menschen nachzuahmen, damit er über das Grab hinaus mit Ihnen sprechen kann.

Alexa benötigt nur eine Minute Sprachausgabe, um eine Stimme überzeugend nachzuahmen. Amazon stellt es als eine beruhigende Funktion in Rechnung, die Sie mit Ihren Lieben in Kontakt bringen kann, aber es könnte auch eine ziemlich gruselige Erfahrung sein. Und es zeigt, wie einfach es ist, Deep-Fake-Audio zu machen, das gut genug ist, um uns zu täuschen, selbst wenn die Stimme eine ist, die wir sehr gut kennen.

"Amazon hat mit seiner Ankündigung, dass Alexa bald in der Lage sein wird, die Stimme toter Verwandter zu lernen und dann bald zu verwenden, definitiv ein ziemlich einzigartiges und bizarres Gebiet betreten", sagte Bill Mann, Datenschutzexperte bei Restore Privacy Lifewire per E-Mail. "Für manche Leute ist es überhaupt nicht gruselig. Tatsächlich kann es ziemlich berührend sein."

Geist in der Maschine

Amazon zeigt das Feature im Rahmen seiner jährlichen re:MARS-Konferenz in einem kurzen Video. Darin fragt ein Kind Alexa, ob Oma ihm weiter „Der Zauberer von Oz“vorlesen kann, das beliebteste Keynote-freundliche Public-Domain-Werk aller Kinder. Und es ist ein ziemlich berührender Moment. Es ist schwer, keine menschlichen Gefühle zu empfinden, wenn Oma zu lesen beginnt.

"Menschen kämpfen mit der Sterblichkeit, besonders in der westlichen Kultur. Seit Jahrhunderten haben wir versucht, Wege zu finden, um den Toten zu gedenken, von Totenmasken über Haarsträhnen und alte Fotos bis hin zum Ansehen alter Filme", Andrew Selepak, ein Social-Media-Professor an der University of Florida, gegenüber Lifewire per E-Mail. „Deepfakes verwenden die neueste Technologie, um eine neue Totenmaske eines verstorbenen geliebten Menschen zu erstellen. Aber ist es je nach Perspektive gruselig oder eine Möglichkeit, jemandem, den Sie lieben, nach dem Tod zu gedenken und ihn festzuh alten?“

Aber ein Memento Mori kann sowohl beruhigend als auch gruselig sein. Der Freund eines Familienmitglieds ist tot, aber Sie können ihn immer noch sprechen hören. Es hilft nicht, dass Alexa eine Geschichte von seltsamem und manchmal erschreckendem Verh alten hat. Im Jahr 2018, als der Meinungskolumnist der NYT, Farhad Manjoo, ins Bett ging, begann sein Amazon Echo „zu heulen, wie ein Kind, das in einem Horrorfilmtraum schreit.“

Kurz darauf gab Amazon zu, dass Alexa manchmal laut gelacht hat, was zusammen mit Teenagern und Kellern Horrorfilm 101 ist.

Man kann sich nur fragen, wie du dich fühlen würdest, wenn Alexa die gleichen Tricks in Omas Stimme spielen würde.

Deep Fake

Die scheinbare Leichtigkeit, mit der Alexa lernt, eine Stimme nachzuahmen, führt uns zu schändlicheren Anwendungen des Klonens von Stimmen: Deepfakes.

Image
Image

"Deepfake-Audio ist nicht neu, auch wenn es wenig verstanden und wenig bekannt ist. Die Technologie ist seit Jahren verfügbar, um die Stimme einer Person mit künstlicher Intelligenz und Deep Learning nachzubilden, wobei relativ wenig tatsächliches Audio von der Person verwendet wird, " sagt Selepak. „Eine solche Technologie könnte auch gefährlich und zerstörerisch sein. Eine gestörte Person könnte die Stimme eines toten Ex-Freundes oder einer toten Ex-Freundin reproduzieren und das neue Audio verwenden, um hasserfüllte und verletzende Dinge zu sagen.“

Das ist nur im Zusammenhang mit Alexa. Deep-Fake-Audio könnte weit darüber hinausgehen und Menschen davon überzeugen, dass beispielsweise prominente Politiker Dinge glauben, die sie nicht glauben. Aber je mehr wir uns auf der anderen Seite an diese Deepfakes gewöhnen – vielleicht in Form dieser Alexa-Stimmen – desto skeptischer werden wir den ruchloseren Fälschungen gegenüberstehen. Andererseits, wenn man bedenkt, wie einfach es ist, Lügen auf Facebook zu verbreiten, vielleicht auch nicht.

Amazon hat nicht gesagt, ob diese Funktion zu Alexa kommt oder ob es sich nur um eine Technologiedemo handelt. Ich hoffe irgendwie, dass es das tut. Technologie ist am besten, wenn sie auf eine humanistische Weise wie diese verwendet wird, und obwohl die leichte Reaktion darin besteht, sie als gruselig zu bezeichnen, wie Selepak sagt, unterscheidet sie sich wirklich nicht sehr vom Ansehen alter Videos oder dem Anhören gespeicherter Voicemails. wie eine Figur in einer faul geschriebenen TV-Show.

Und wenn die Technologie für Deepfakes bereits verfügbar ist, warum nutzen wir sie nicht, um uns selbst zu trösten?

Empfohlen: