Warum Apples Image-Scanning-Technologie überhaupt nicht privat ist

Inhaltsverzeichnis:

Warum Apples Image-Scanning-Technologie überhaupt nicht privat ist
Warum Apples Image-Scanning-Technologie überhaupt nicht privat ist
Anonim

Key Takeaways

  • Apples neue Richtlinie gegen Material zum sexuellen Missbrauch von Kindern hat unter Benutzern und Datenschutzexperten zu Kontroversen geführt.
  • Die Technologie scannt Bilder in iCloud für CSAM und verwendet maschinelles Lernen, um anstößige Fotos in Nachrichten zu identifizieren.
  • Experten sagen, egal wie privat Apple sagt, dass seine Scan-Technologie ist, sie lässt letztendlich immer noch eine Hintertür offen, wo alles passieren könnte.
Image
Image

Apple hat kürzlich eine neue Technologie eingeführt, um Material über sexuellen Missbrauch von Kindern (CSAM) zu erkennen, aber sie wird von der Datenschutz-Community mehr kritisiert als gelobt.

Obwohl Apple zuvor als eines der wenigen Big-Tech-Unternehmen gepriesen wurde, das sich wirklich um die Privatsphäre der Benutzer kümmert, setzt die neue CSAM-Scanning-Technologie, die letzte Woche eingeführt wurde, einen großen Haken darin. Experten sagen, obwohl Apple die Privatsphäre der Benutzer verspricht, wird die Technologie letztendlich alle Apple-Benutzer gefährden.

"Apple geht einen sehr rutschigen Abhang hinab; sie haben ein Tool ausgearbeitet, das der Gefahr von Hintertüren der Regierung und Missbrauch durch schlechte Akteure ausgesetzt ist", sagte Farah Sattar, die Gründerin und Sicherheitsforscherin von DCRYPTD an Lifewire in einem E-Mail-Interview.

Apples Plan ist nicht privat

Die neue Technologie funktioniert auf zwei Arten: Erstens, indem ein Bild gescannt wird, bevor es in der iCloud gesichert wird – wenn ein Bild die Kriterien von CSAM erfüllt, erhält Apple die Daten des kryptografischen Belegs. Der andere Teil verwendet maschinelles Lernen auf dem Gerät, um sexuell explizite Bilder zu identifizieren und zu verwischen, die Kinder über Nachrichten erh alten.

Apple geht einen sehr rutschigen Abhang hinab; Sie haben ein Tool ausgearbeitet, das für Hintertüren der Regierung und Missbrauch durch schlechte Akteure gefährdet ist.

Experten sind besorgt über die Nachrichtenfunktion, da sie die Ende-zu-Ende-Verschlüsselung (E2EE), für die sich Apple eingesetzt hat, effektiv beenden würde.

"Apples Einführung des clientseitigen Scannens ist ein Eingriff in die Privatsphäre, da dies effektiv E2EE bricht", sagte Sattar.

"Der Zweck von E2EE besteht darin, eine Nachricht für alle Parteien mit Ausnahme des Absenders und Empfängers unlesbar zu machen, aber das clientseitige Scannen ermöglicht es Dritten, im Falle einer Übereinstimmung auf Inh alte zuzugreifen. Dies schafft den Präzedenzfall, dass Ihre Daten sind E2EE … bis sie es nicht sind."

Während Apple auf einer kürzlich veröffentlichten FAQ-Seite, die auf die Bedenken der Menschen bezüglich seiner neuen Richtlinie eingeht, sagte, dass es die Datenschutzgarantien von Messages nicht ändern und keinen Zugriff auf die Kommunikation erh alten wird, sind Unternehmen immer noch misstrauisch gegenüber Apples Versprechungen.

"Da die Erkennung eines 'sexuell expliziten Bildes' maschinelles Lernen auf dem Gerät verwendet, um den Inh alt von Nachrichten zu scannen, wird Apple iMessage nicht mehr ehrlich als "End-to-End-verschlüsselt" bezeichnen können, " schrieb die Electronic Frontier Foundation (EFF) als Antwort auf die Richtlinie von Apple.

"Apple und seine Befürworter mögen argumentieren, dass das Scannen vor oder nach dem Verschlüsseln oder Entschlüsseln einer Nachricht das "End-to-End"-Versprechen intakt hält, aber das wäre ein semantisches Manöver, um eine tektonische Verschiebung im Unternehmen zu vertuschen H altung gegenüber starker Verschlüsselung."

Image
Image

Missbrauchspotential

Die Hauptsorge vieler Experten ist die Existenz einer Hintertür, die, egal was Apple behauptet, immer noch offen für möglichen Missbrauch ist.

Obwohl diese Richtlinie nur für Benutzer unter 13 Jahren gelten soll, ist dieses Tool auch für Missbrauch geeignet, da es keine Garantie dafür gibt, dass der Benutzer tatsächlich unter 13 Jahre alt ist. Eine solche Initiative stellt ein Risiko für LGBTQ+-Jugendliche und Personen in missbräuchlichen Beziehungen dar, da sie als eine Form von Stalkerware existieren könnte“, sagte Sattar.

EFF sagte, dass der geringste Druck von außen (insbesondere seitens der Regierung) Missbrauch Tür und Tor öffnen würde, und wies auf Fälle hin, in denen dies bereits geschehen sei. Zum Beispiel sagte EFF, dass Technologien, die ursprünglich zum Scannen und Hashen von CSAM entwickelt wurden, umfunktioniert wurden, um eine Datenbank mit „terroristischen“Inh alten zu erstellen, zu der Unternehmen beitragen und auf die sie zugreifen können, um solche Inh alte zu verbieten.

"Alles, was nötig wäre, um die schmale Hintertür, die Apple baut, zu erweitern, wäre eine Erweiterung der maschinellen Lernparameter, um nach zusätzlichen Arten von Inh alten zu suchen, oder eine Anpassung der zu scannenden Konfigurations-Flags, nicht nur für Kinder, sondern Konten von irgendjemandem", sagte EFF.

Edward Snowden verurteilte Apples neue Technologie sogar als „nationales Sicherheitsproblem“und „katastrophal“, und seine Organisation, die Freedom of the Press Foundation, ist eine von vielen, die einen neuen Brief unterzeichnet haben, in dem sie Apple auffordern, dies zu beenden Politik, bevor sie überhaupt beginnt.

Der Brief wurde von mehr als 7.400 Sicherheits- und Datenschutzorganisationen und Experten unterzeichnet, in denen Apple aufgefordert wird, diese Technologie sofort einzustellen und eine Erklärung abzugeben, in der das Engagement des Unternehmens für End-to-End-Verschlüsselung und den Datenschutz der Benutzer bekräftigt wird.

"Apples aktueller Weg droht die jahrzehntelange Arbeit von Technologen, Akademikern und politischen Befürwortern zu untergraben, die darauf abzielen, dass strenge Maßnahmen zum Schutz der Privatsphäre die Norm für die meisten elektronischen Geräte und Anwendungsfälle der Unterh altungselektronik sind", heißt es in dem Brief.

Die Zeit wird zeigen, wie Apple plant, diese Technologie trotz der massiven Kontroverse um sie zu implementieren, aber die Behauptungen des Unternehmens, der Privatsphäre Vorrang einzuräumen, werden höchstwahrscheinlich niemals die gleichen sein.

Empfohlen: