KI könnte mit dem Herumschnüffeln aufhören, indem sie vorhersagt, was Sie sagen werden

Inhaltsverzeichnis:

KI könnte mit dem Herumschnüffeln aufhören, indem sie vorhersagt, was Sie sagen werden
KI könnte mit dem Herumschnüffeln aufhören, indem sie vorhersagt, was Sie sagen werden
Anonim

Key Takeaways

  • Forscher haben eine Methode zum Verschlüsseln von Gesprächen entwickelt, um zu verhindern, dass betrügerische Mikrofone unsere Gespräche aufzeichnen.
  • Die Methode ist von Bedeutung, da sie beim Streamen von Audio in Echtzeit und mit minimalem Schulungsaufwand funktioniert.
  • Experten begrüßen die Forschungsergebnisse, glauben aber, dass sie dem durchschnittlichen Smartphone-Nutzer nicht viel nützen.
Image
Image

Wir sind von intelligenten Geräten mit Mikrofonen umgeben, aber was ist, wenn sie kompromittiert wurden, um uns zu belauschen?

In dem Bestreben, unsere Gespräche vor Schnüfflern abzuschirmen, haben Forscher der Columbia University eine Neural Voice Camouflage-Methode entwickelt, die automatische Spracherkennungssysteme in Echtzeit stört, ohne Menschen zu stören.

"Mit der Invasion von [intelligenten sprachaktivierten Geräten] in unser Leben beginnt sich die Idee der Privatsphäre zu verflüchtigen, da diese Abhörgeräte immer eingesch altet sind und überwachen, was gesagt wird", Charles Everette, Direktor von Cyber Advocacy, Deep Instinct, teilte Lifewire per E-Mail mit. "Diese Forschung ist eine direkte Antwort auf die Notwendigkeit, die Stimme und die Gespräche einer Person vor diesen elektronischen Lauschern zu verbergen oder zu tarnen, die in einem Gebiet bekannt oder unbekannt sind."

Reden

Die Forscher haben ein System entwickelt, das flüsterleise Töne erzeugt, die Sie in jedem Raum abspielen können, um fremde Mikrofone daran zu hindern, Ihre Gespräche auszuspionieren.

Die Art und Weise, wie diese Art von Technologie dem Abhören entgegenwirkt, erinnert Everette an Noise-Cancelling-Kopfhörer. Anstatt flüsterleise Geräusche zu erzeugen, um die Hintergrundgeräusche auszulöschen, senden die Forscher Hintergrundgeräusche, die die Algorithmen der künstlichen Intelligenz (KI) stören, die Schallwellen in verständliches Audio interpretieren.

Solche Mechanismen zur Tarnung der Stimme einer Person sind nicht einzigartig, aber was die Neural Voice Camouflage von den anderen Methoden unterscheidet, ist, dass sie beim Streaming von Audio in Echtzeit funktioniert.

"Um mit Live-Sprache arbeiten zu können, muss unser Ansatz [das richtige verschlüsselte Audio] in die Zukunft vorhersagen, damit es in Echtzeit abgespielt werden kann", stellen die Forscher in ihrem Artikel fest. Derzeit funktioniert die Methode für den Großteil der englischen Sprache.

Hans Hansen, CEO von Brand3D, sagte gegenüber Lifewire, dass die Forschung sehr bedeutsam sei, da sie eine große Schwachstelle in den heutigen KI-Systemen angreife.

In einem E-Mail-Gespräch erklärte Hansen, dass aktuelle Deep-Learning-KI-Systeme im Allgemeinen und die natürliche Spracherkennung im Besonderen funktionieren, nachdem sie Millionen von Sprachdatensätzen verarbeitet haben, die von Tausenden von Sprechern gesammelt wurden. Im Gegensatz dazu funktioniert Neural Voice Camouflage, nachdem es sich selbst auf nur zwei Sekunden Eingabesprache konditioniert hat.

Wenn ich persönlich besorgt bin, dass Geräte mithören, würde meine Lösung nicht darin bestehen, ein weiteres Abhörgerät hinzuzufügen, das versucht, Hintergrundgeräusche zu erzeugen.

Falscher Baum?

Brian Chappell, Chefsicherheitsstratege bei BeyondTrust, glaubt, dass die Studie für Geschäftsanwender vorteilhafter ist, die befürchten, dass sie sich inmitten kompromittierter Geräte befinden könnten, die auf Schlüsselwörter lauschen, die darauf hindeuten, dass wertvolle Informationen gesprochen werden.

"Wo diese Technologie potenziell interessanter wäre, ist in einem autoritäreren Überwachungsstaat, in dem KI-Video- und Sprachanalysen gegen Bürger eingesetzt werden", sagte James Maude, Lead Cyber Security Researcher von BeyondTrust, Lifewire per E-Mail.

Maude schlug vor, dass eine bessere Alternative darin bestünde, Datenschutzkontrollen dafür zu implementieren, wie Daten von diesen Geräten erfasst, gespeichert und verwendet werden. Darüber hinaus glaubt Chappell, dass die Nützlichkeit der Methode des Forschers begrenzt ist, da sie nicht darauf ausgelegt ist, menschliches Abhören zu stoppen.

"Beachten Sie zu Hause, dass die Verwendung eines solchen Tools zumindest theoretisch dazu führt, dass Siri, Alexa, Google Home und jedes andere System, das mit einem gesprochenen Auslösewort aktiviert wird, Sie ignorieren", sagte Chappell.

Image
Image

Aber Experten glauben, dass es mit der zunehmenden Integration von KI/ML-spezifischer Technologie in unsere intelligenten Geräte durchaus möglich ist, dass diese Technologie in naher Zukunft in unseren Telefonen landen könnte.

Maude ist besorgt, da KI-Technologien schnell lernen können, zwischen Rauschen und echtem Audio zu unterscheiden. Er glaubt, dass das System zwar anfangs erfolgreich sein könnte, sich aber schnell in ein Katz-und-Maus-Spiel verwandeln könnte, wenn ein Abhörgerät lernt, Störgeräusche herauszufiltern.

Noch besorgniserregender war, dass Maude darauf hinwies, dass jeder, der es benutzte, tatsächlich die Aufmerksamkeit auf sich ziehen könnte, da eine Unterbrechung der Spracherkennung ungewöhnlich erscheinen würde und darauf hindeuten könnte, dass Sie versuchen, etwas zu verbergen.

"Wenn ich mir persönlich Sorgen um Geräte mache, die mithören, würde meine Lösung nicht darin bestehen, ein weiteres Abhörgerät hinzuzufügen, das versucht, Hintergrundgeräusche zu erzeugen", teilte Maude mit. „Vor allem, da es das Risiko erhöht, dass ein Gerät oder eine App gehackt wird und mir zuhören kann.“

Empfohlen: