Videos zu fälschen ist einfach, tiefe Nostalgie-Shows

Inhaltsverzeichnis:

Videos zu fälschen ist einfach, tiefe Nostalgie-Shows
Videos zu fälschen ist einfach, tiefe Nostalgie-Shows
Anonim

Key Takeaways

  • Deep Nostalgia ist ein neues Programm, mit dem Sie alte Fotos animieren können.
  • Die Technologie zeigt, wie einfach es ist, Videos von Menschen zu erstellen, die Dinge tun, die sie im wirklichen Leben eigentlich nicht getan haben.
  • Die Deep-Fake-Technologie ist bereits so ausgeklügelt, dass es schwer zu sagen ist, ob ein Video echt oder computergeneriert ist, sagt ein Experte.
Image
Image

Seien Sie vorsichtig mit neuer Software, die sogenannte "Deep Fakes" erstellen kann, in denen Videos von echten Menschen simuliert werden können, warnen Experten.

Deep Nostalgia, veröffentlicht von der Firma MyHeritage, ist in den sozialen Medien im Trend, wobei die Benutzer alle wiederbeleben, von berühmten Komponisten bis hin zu toten Verwandten. Die Software ruft gemischte Reaktionen hervor, wobei einige Leute von den Kreationen begeistert sind und andere sie gruselig finden. Die Technologie zeigt, wie einfach es ist, Videos von Menschen zu erstellen, die Dinge tun, die sie im wirklichen Leben eigentlich nicht getan haben.

"Die Deepfake-Technologie wird immer ausgefeilter und gefährlicher", sagte Aaron Lawson, stellvertretender Direktor des Speech Technology and Research (STAR) Laboratory von SRI International, in einem E-Mail-Interview. „Dies liegt zum Teil an der Natur der künstlichen Intelligenz. Wo „traditionelle“Technologie menschliche Zeit und Energie erfordert, um sich zu verbessern, kann die KI von sich selbst lernen.

"Aber die Fähigkeit der KI, sich selbst zu entwickeln, ist ein zweischneidiges Schwert", fuhr Lawson fort. „Wenn eine KI geschaffen wird, um etwas Gutes zu tun, ist das großartig. Aber wenn eine KI für etwas Bösartiges wie Deepfakes konzipiert ist, ist die Gefahr beispiellos.“

Software erweckt Fotos zum Leben

Die Genealogie-Website MyHeritage hat die Animations-Engine letzten Monat eingeführt. Die als Deep Nostalgia bekannte Technologie ermöglicht es Benutzern, Fotos über die MyHeritage-Website zu animieren. Ein Unternehmen namens D-ID hat Algorithmen für MyHeritage entwickelt, die die Bewegung menschlicher Gesichter digital nachbilden. Die Software wendet die Bewegungen auf Fotos an und modifiziert Gesichtsausdrücke so, dass sie sich laut der MyHeritage-Website wie menschliche Gesichter normalerweise bewegen.

Deep Nostalgia zeigt, dass Deep-Fake-Technologie immer zugänglicher wird, sagte Lior Shamir, Professor für Informatik an der Kansas State University, in einem E-Mail-Interview. Es schreitet schnell voran und beseitigt sogar die subtilen Unterschiede zwischen gefälschtem und echtem Video und Audio.

"Es gab auch erhebliche Fortschritte in Richtung Echtzeit-Deep-Fake, was bedeutet, dass überzeugende Deep-Fake-Videos zum Zeitpunkt der Videokommunikation erstellt werden", sagte Shamir."Zum Beispiel kann man ein Zoom-Meeting mit einer bestimmten Person haben, während man die Stimme einer völlig anderen Person sieht und hört."

Es gibt auch eine wachsende Zahl sprachbasierter Deepfakes, sagte Jason Corso, der Direktor des Stevens Institute for Artificial Intelligence am Stevens Institute of Technology, in einem E-Mail-Interview. „Das Generieren ganzer Absätze von Deep-Fake-Text für eine bestimmte Agenda ist ziemlich schwierig, aber moderne Fortschritte in der tiefen Verarbeitung natürlicher Sprache machen es möglich“, fügte er hinzu.

Wie man einen Deep Fake erkennt

Während sich die Deep-Fake-Erkennungstechnologie noch in der Anfangsphase befindet, gibt es einige Möglichkeiten, wie Sie einen erkennen können, sagte Corso, beginnend mit dem Mund.

"Die Variabilität im Erscheinungsbild des Mundinneren beim Sprechen ist sehr hoch, was es schwierig macht, überzeugend zu animieren", erklärte Corso. „Es ist möglich, aber es ist schwieriger als der Rest des Kopfes. Beachten Sie, dass die Deep Nostalgia-Videos keine Fähigkeit des Fotos zeigen, „Ich liebe dich“oder einen anderen Satz während der Deep-Fake-Erstellung zu sagen. Dies würde das Öffnen und Schließen des Mundes erfordern, was für die Deep-Fake-Generierung sehr schwierig ist."

Ghosting ist ein weiteres Werbegeschenk, fügte Corso hinzu. Wenn Sie eine Unschärfe an den Rändern des Kopfes sehen, ist dies das Ergebnis „schneller Bewegung oder begrenzter Pixel, die im Quellbild verfügbar sind. Ein Ohr könnte vorübergehend teilweise verschwinden, oder Haare könnten dort verschwommen werden, wo Sie es nicht erwarten würden“, er sagte.

Du kannst auch auf Farbabweichungen achten, wenn du versuchst, ein Deep Fake-Video zu erkennen, z. B. eine scharfe Linie über dem Gesicht, mit dunkleren Farben auf der einen und helleren auf der anderen Seite.

"Computeralgorithmen können diese Verzerrungsmuster oft erkennen", sagte Shamir. "Aber Deep-Fake-Algorithmen entwickeln sich schnell weiter. Es ist unvermeidlich, dass strenge Gesetze erforderlich sein werden, um sich vor Deep-Fake und dem Schaden zu schützen, den sie leicht anrichten können."

Empfohlen: