Ihr LinkedIn-Kontakt könnte ein Deepfake sein

Inhaltsverzeichnis:

Ihr LinkedIn-Kontakt könnte ein Deepfake sein
Ihr LinkedIn-Kontakt könnte ein Deepfake sein
Anonim

Key Takeaways

  • Eine kürzlich durchgeführte Studie ergab, dass viele Kontakte auf LinkedIn keine echten Personen sind.
  • Es ist Teil des wachsenden Problems von Deepfakes, bei denen eine Person in einem bestehenden Bild oder Video durch eine computerveränderte Darstellung ersetzt wird.
  • Experten empfehlen, beim Klicken auf URLs oder Antworten auf LinkedIn-Nachrichten Vorsicht w alten zu lassen.

Image
Image

Du solltest es dir vielleicht zweimal überlegen, bevor du dich online mit diesem freundlichen Gesicht verbindest.

Forscher sagen, dass viele Kontakte auf der beliebten Netzwerkseite LinkedIn keine echten Menschen sind. Dies ist Teil des wachsenden Problems von Deepfakes, bei denen eine Person in einem vorhandenen Bild oder Video durch eine computerveränderte Darstellung ersetzt wird.

"Deep Fakes sind insofern wichtig, als sie das effektiv eliminieren, was traditionell als todsichere Methode zur Bestätigung der Identität g alt", sagte Tim Callan, Chief Compliance Officer der Cybersicherheitsfirma Sectigo, in einem E-Mail-Interview mit Lifewire. "Wenn Sie einer Sprach- oder Videonachricht Ihres vertrauten Kollegen nicht glauben können, ist es umso schwieriger geworden, die Prozessintegrität zu schützen."

Verknüpfung mit wem?

Die Untersuchung von LinkedIn-Kontakten begann, als Renée DiResta, eine Forscherin am Stanford Internet Observatory, eine Nachricht von einem Profil erhielt, das als Keenan Ramsey aufgeführt ist.

Die Notiz schien gewöhnlich zu sein, aber DiResta bemerkte einige seltsame Dinge über Keenans Profil. Zum einen zeigte das Bild eine Frau mit nur einem Ohrring, perfekt zentrierten Augen und verschwommenen Haarsträhnen, die zu verschwinden und wieder aufzutauchen schienen.

Auf Twitter schrieb DiResta: „Dieses zufällige Konto hat mir eine Nachricht gesendet… Das Gesicht sah aus, als wäre es von einer KI generiert worden, also war mein erster Gedanke Spear-Phishing; es hatte einen ‚Klicken Sie hier, um ein Meeting einzurichten‘-Link gesendet. Ich fragte mich, ob es vorgab, für das Unternehmen zu arbeiten, das es angeblich vertritt, da LinkedIn Unternehmen nicht mitteilt, wenn neue Konten behaupten, irgendwo zu arbeiten … Mitarbeiter, der auf eine frühere Nachricht von der ersten falschen Person verwies, und daraus wurde etwas ganz anderes."

DiResta und ihr Kollege Josh Goldstein haben eine Studie gestartet, die mehr als 1.000 LinkedIn-Profile mit Gesichtern gefunden hat, die scheinbar von KI erstellt wurden.

Deep Fakers

Deep Fakes sind ein wachsendes Problem. Laut einem veröffentlichten Bericht wurden bis Dezember 2020 über 85.000 Deepfake-Videos entdeckt.

In letzter Zeit wurden Deepfakes zur Unterh altung und zur Demonstration der Technologie verwendet, darunter ein Beispiel, in dem der ehemalige Präsident Barack Obama über gefälschte Nachrichten und Deepfakes sprach.

"Obwohl dies zum Spaß großartig war, konnte man mit angemessener Computerleistung und Anwendungen etwas produzieren, das [weder] Computer noch das menschliche Ohr unterscheiden können", Andy Rogers, Senior Assessor bei Schellman, einem globalen Unternehmen Cybersecurity Assessor, sagte in einer E-Mail."Diese Deepfake-Videos könnten für eine Vielzahl von Anwendungen verwendet werden. Beispielsweise könnten berühmte Personen und Prominente auf Social-Media-Plattformen wie LinkedIn und Facebook marktbeeinflussende Aussagen und andere äußerst überzeugende Post-Inh alte abgeben."

Image
Image

Hacker wenden sich insbesondere Deepfakes zu, da sowohl die Technologie als auch ihre potenziellen Opfer immer ausgefeilter werden.

"Es ist viel schwieriger, einen Social-Engineering-Angriff über eingehende E-Mails durchzuführen, zumal die Opfer zunehmend über Spear-Phishing als Bedrohung aufgeklärt werden", sagte Callan.

Plattformen müssen gegen Deepfakes vorgehen, sagte Joseph Carson, der leitende Sicherheitswissenschaftler der Cybersicherheitsfirma Delinea, per E-Mail gegenüber Lifewire. Er schlug vor, dass Uploads auf Websites Analysen unterzogen werden, um die Authentizität des Inh alts zu bestimmen.

"Wenn für einen Beitrag keinerlei vertrauenswürdige Quelle oder Kontext bereitgestellt wurde, sollte die korrekte Kennzeichnung des Inh alts dem Betrachter klar machen, dass die Inh altsquelle verifiziert wurde, noch analysiert wird oder dass der Inh alt vorhanden ist erheblich modifiziert wurde", fügte Carson hinzu.

Deep Fakes sind insofern wichtig, als sie effektiv eliminieren, was traditionell als todsichere Methode zur Bestätigung der Identität g alt.

Experten empfehlen Benutzern, vorsichtig zu sein, wenn sie auf URLs klicken oder auf LinkedIn-Nachrichten antworten. Seien Sie sich bewusst, dass Stimmen und sogar bewegte Bilder vermeintlicher Kollegen gefälscht werden können, schlug Callan vor. Gehen Sie diese Interaktionen mit der gleichen Skepsis an, die Sie gegenüber textbasierter Kommunikation haben.

Wenn Sie sich jedoch Sorgen darüber machen, dass Ihre eigene Identität in einem Deep Fake verwendet wird, gibt es laut Callan keine einfache Lösung.

"Die besten Schutzmaßnahmen müssen von denen getroffen werden, die die von Ihnen verwendeten digitalen Kommunikationsplattformen entwickeln und betreiben", fügte Callan hinzu. "Ein System, das die [Identitäten] von Teilnehmern mit unzerbrechlichen kryptografischen Techniken bestätigt, kann diese Art von Risiko sehr effektiv untergraben."

Empfohlen: