Key Takeaways
- Neue Forschungsergebnisse zeigen, dass Menschen KI-generierte Bilder nicht von echten unterscheiden können.
- Teilnehmer bewerteten KI-generierte Bilder als vertrauenswürdiger.
- Experten glauben, dass Menschen aufhören sollten, allem zu vertrauen, was sie im Internet sehen.
Das Sprichwort "Sehen ist Glauben" ist im Internet nicht mehr relevant, und Experten sagen, dass es in absehbarer Zeit nicht besser werden wird.
Eine kürzlich durchgeführte Studie ergab, dass Bilder von Gesichtern, die von künstlicher Intelligenz (KI) generiert wurden, nicht nur höchst fotorealistisch sind, sondern auch tugendhafter erscheinen als echte Gesichter.
"Unsere Bewertung des Fotorealismus von KI-synthetisierten Gesichtern zeigt, dass Synthese-Engines das unheimliche Tal passiert haben und in der Lage sind, Gesichter zu erstellen, die nicht zu unterscheiden und vertrauenswürdiger sind als echte Gesichter", beobachteten die Forscher.
Diese Person existiert nicht
Die Forscher, Dr. Sophie Nightingale von der Lancaster University und Professor Hany Farid von der University of California, Berkeley, führten die Experimente durch, nachdem sie die weit verbreiteten Bedrohungen durch Deepfakes anerkannt hatten, die von allen Arten von Online-Betrug bis hin zu belebenden reichten Desinformationskampagnen.
"Am schädlichsten ist vielleicht die Konsequenz, dass in einer digitalen Welt, in der jedes Bild oder Video gefälscht werden kann, die Authentizität jeder unbequemen oder unerwünschten Aufnahme in Frage gestellt werden kann", behaupteten die Forscher.
Sie argumentierten, dass es zwar Fortschritte bei der Entwicklung automatischer Techniken zur Erkennung von Deep-Fake-Inh alten gegeben habe, die derzeitigen Techniken jedoch nicht effizient und genau genug seien, um mit dem ständigen Strom neuer Inh alte Schritt zu h alten, die online hochgeladen werden. Das bedeutet, dass es an den Verbrauchern von Online-Inh alten liegt, die Echtheit von der Fälschung zu unterscheiden, schlägt das Duo vor.
Jelle Wieringa, eine Verfechterin des Sicherheitsbewusstseins bei KnowBe4, stimmte zu. Er teilte Lifewire per E-Mail mit, dass die Bekämpfung tatsächlicher Deepfakes selbst ohne spezialisierte Technologie äußerst schwierig zu bewerkstelligen sei. "[Abwehrtechnologien] können teuer und schwierig in Echtzeitprozesse zu implementieren sein, wodurch ein Deepfake oft erst im Nachhinein erkannt wird."
Mit dieser Annahme führten die Forscher eine Reihe von Experimenten durch, um festzustellen, ob menschliche Teilnehmer hochmoderne synthetisierte Gesichter von echten Gesichtern unterscheiden können. In ihren Tests stellten sie fest, dass sich die Genauigkeitsrate trotz Schulung zur Erkennung von Fälschungen nur auf 59 % verbesserte, gegenüber 48 % ohne Schulung.
Dies veranlasste die Forscher zu testen, ob die Wahrnehmung von Vertrauenswürdigkeit Menschen helfen könnte, künstliche Bilder zu identifizieren. In einer dritten Studie baten sie die Teilnehmer, die Vertrauenswürdigkeit der Gesichter zu bewerten, nur um festzustellen, dass die durchschnittliche Bewertung für synthetische Gesichter 7 betrug.7 % vertrauenswürdiger als die durchschnittliche Bewertung für echte Gesichter. Die Zahl mag nicht nach viel klingen, aber die Forscher behaupten, sie sei statistisch signifikant.
Deeper Fakes
Deep Fakes waren bereits ein großes Problem, und jetzt wurden die Gewässer durch diese Studie weiter getrübt, die darauf hindeutet, dass solche hochwertigen gefälschten Bilder Online-Betrug eine ganz neue Dimension verleihen könnten, indem sie beispielsweise dazu beitragen, mehr zu schaffen überzeugende gefälschte Online-Profile.
"Die einzige Sache, die die Cybersicherheit vorantreibt, ist das Vertrauen der Menschen in die Technologien, Prozesse und Menschen, die versuchen, sie zu schützen", sagte Wieringa. „Deep Fakes, insbesondere wenn sie fotorealistisch werden, untergraben dieses Vertrauen und damit die Einführung und Akzeptanz von Cybersicherheit. Dies kann dazu führen, dass Menschen allem, was sie wahrnehmen, misstrauen.“
Chris Hauk, Consumer Privacy Champion bei Pixel Privacy, stimmte zu. In einem kurzen E-Mail-Austausch teilte er Lifewire mit, dass fotorealistische Deepfakes online „Verwüstung“anrichten könnten, insbesondere heutzutage, wo mit der Foto-ID-Technologie auf alle Arten von Konten zugegriffen werden kann.
Korrekturmaßnahme
Zum Glück sagt Greg Kuhn, Director of IoT, Prosegur Security, dass es Prozesse gibt, die eine solche betrügerische Authentifizierung verhindern können. Er teilte Lifewire per E-Mail mit, dass KI-basierte Anmeldesysteme eine verifizierte Person mit einer Liste abgleichen, aber viele Sicherheitsvorkehrungen eingebaut haben, um die „Lebendigkeit“zu überprüfen.
"Diese Art von Systemen kann einen Benutzer dazu auffordern und anleiten, bestimmte Aufgaben auszuführen, wie z. B. zu lächeln oder den Kopf nach links und dann nach rechts zu drehen. Das sind Dinge, die statisch generierte Gesichter nicht ausführen könnten", teilte Kuhn mit.
Die Forscher haben Richtlinien vorgeschlagen, um ihre Erstellung und Verbreitung zu regulieren, um die Öffentlichkeit vor synthetischen Bildern zu schützen. Für den Anfang schlagen sie vor, tief verwurzelte Wasserzeichen in die Bild- und Videosynthesenetzwerke selbst zu integrieren, um sicherzustellen, dass alle synthetischen Medien zuverlässig identifiziert werden können.
Bis dahin, sagt Paul Bischoff, Datenschutzbeauftragter und Herausgeber von Infosec Research bei Comparitech, sind die Menschen auf sich allein gestellt.„Die Leute müssen lernen, Gesichtern im Internet nicht zu vertrauen, so wie wir alle (hoffentlich) gelernt haben, Anzeigenamen in unseren E-Mails nicht zu vertrauen“, sagte Bischoff Lifewire per E-Mail.