Warum neue Profiling-Software Datenschutzbedenken aufwirft

Inhaltsverzeichnis:

Warum neue Profiling-Software Datenschutzbedenken aufwirft
Warum neue Profiling-Software Datenschutzbedenken aufwirft
Anonim

Key Takeaways

  • Software, die künstliche Intelligenz verwendet, um Personen zu profilieren, wirft Datenschutzbedenken auf.
  • Cryfe kombiniert Verh altensanalysetechniken mit künstlicher Intelligenz.
  • Das chinesische Unternehmen Alibaba wurde kürzlich kritisiert, nachdem es Berichten zufolge gesagt hatte, seine Software könne Uiguren und andere ethnische Minderheiten erkennen.
Image
Image

Neue Software mit künstlicher Intelligenz, mit der Arbeitgeber Profile ihrer Mitarbeiter erstellen können, wirft Datenschutzbedenken auf.

Eine neue Softwareplattform namens Cryfe kombiniert Techniken der Verh altensanalyse mit künstlicher Intelligenz. Der Entwickler behauptet, dass die Software durch die Analyse winziger Hinweise die Absichten der Menschen während der Interviews aufdecken kann. Einige Beobachter sagen jedoch, dass Cryfe und andere Arten von Software, die das Verh alten analysieren, in die Privatsphäre eindringen können.

„Unternehmen verlassen sich zunehmend auf KI für die Profilerstellung“, sagte KI-Experte Vaclav Vincale in einem E-Mail-Interview. „Aber selbst die Menschen, die diese Algorithmen codieren, und noch weniger ein Kundendienstmitarbeiter, den Sie am Telefon erreichen, konnten Ihnen nicht sagen, warum sie eine bestimmte Empfehlung aussprechen.“

Mehr als Worte

Cryfe wurde von einem Schweizer Unternehmen entwickelt, dessen Mitarbeiter vom FBI in Profiling-Techniken geschult wurden. „Cryfe hört bei der gesamten zwischenmenschlichen Kommunikation nicht nur auf Worte, sondern identifiziert auch andere vom Menschen ausgesandte Signale wie Emotionen, Mikroausdrücke und alle Gesten“, sagte Caroline Matteucci, die Gründerin von Cryfe, in einem E-Mail-Interview.

"So können wir zum Beispiel bei der Rekrutierung nach der wahren Persönlichkeit unseres Gesprächspartners suchen."

Matteucci sagte, die Privatsphäre der Benutzer sei geschützt, weil das Unternehmen die Funktionsweise seiner Software transparent mache. "Der Benutzer muss die allgemeinen Bedingungen akzeptieren, bevor er die Plattform nutzen kann", sagte sie.

"Dort wird festgelegt, dass der Nutzer auf keinen Fall ein Interview zur Analyse einreichen darf, ohne die schriftliche Zustimmung des Gesprächspartners eingeholt zu haben."

Cryfe ist nicht die einzige KI-gestützte Software, die vorgibt, menschliches Verh alten zu analysieren. Es gibt auch Humantic, das behauptet, das Verbraucherverh alten zu analysieren. „Die bahnbrechende Technologie von Humantic sagt das Verh alten aller voraus, ohne dass sie jemals einen Persönlichkeitstest machen müssen“, heißt es auf der Website des Unternehmens.

Image
Image

Das Unternehmen behauptet, KI zu verwenden, um psychologische Profile von Bewerbern zu erstellen, basierend auf den Wörtern, die sie in Lebensläufen, Anschreiben, LinkedIn-Profilen und anderen von ihnen eingereichten Texten verwenden.

Verh altenssoftware ist in der Vergangenheit auf rechtliche Herausforderungen gestoßen. Im Jahr 2019 berichtete Bloomberg Law, dass die Equal Employment Opportunity Commission (EEOC) Fälle mutmaßlicher rechtswidriger Diskriminierung aufgrund algorithmusgestützter, personalbezogener Entscheidungen untersucht hat.

"Das muss alles geklärt werden, denn die Zukunft der Personalbeschaffung liegt in der KI", sagte Anw alt Bradford Newman gegenüber Bloomberg.

Einige Beobachter haben Probleme mit Unternehmen, die Verh altens-Tracking-Software verwenden, weil sie nicht genau genug ist. In einem Interview sagte Nigel Duffy, globaler Leiter für künstliche Intelligenz beim Dienstleistungsunternehmen EY, gegenüber InformationWeek, dass er von Software beunruhigt ist, die Social-Media-Quiz verwendet und die Erkennung beeinträchtigt.

"Ich denke, es gibt einige wirklich fesselnde Literatur über das Potenzial der Affekterkennung, aber ich verstehe, dass die Art und Weise, wie das implementiert wird, oft ziemlich naiv ist", sagte er.

"Menschen ziehen Schlussfolgerungen, die die Wissenschaft nicht wirklich unterstützt, [wie] zu entscheiden, dass jemand ein potenziell guter Mitarbeiter ist, weil er viel lächelt, oder zu entscheiden, dass jemand Ihre Produkte mag, weil er viel lächelt."

Chinesische Unternehmen profilieren Berichten zufolge Minderheiten

Verh altens-Tracking könnte auch finsterere Zwecke haben, sagen einige Menschenrechtsgruppen. In China erregte kürzlich der Online-Marktplatz-Riese Alibaba Aufsehen, nachdem er Berichten zufolge behauptet hatte, seine Software könne Uiguren und andere ethnische Minderheiten erkennen.

Die New York Times berichtete, dass das Cloud-Computing-Geschäft des Unternehmens über Software verfügte, die Bilder und Videos scannen würde.

Aber selbst die Menschen, die diese Algorithmen codieren … konnten Ihnen nicht sagen, warum sie eine bestimmte Empfehlung aussprechen.

Die Washington Post berichtete kürzlich auch, dass Huawei, ein weiteres chinesisches Technologieunternehmen, eine Software getestet habe, die die Strafverfolgungsbehörden alarmieren könnte, wenn ihre Überwachungskameras uigurische Gesichter entdeckten.

Eine Patentanmeldung von Huawei aus dem Jahr 2018 behauptete angeblich, dass die "Identifizierung von Fußgängerattributen sehr wichtig" in der Gesichtserkennungstechnologie sei.„Die Attribute des Zielobjekts können Geschlecht (männlich, weiblich), Alter (z. B. Teenager, mittleres Alter, alt) [oder] Rasse (Han, Uigurisch) sein“, heißt es in der Anwendung.

Ein Huawei-Sprecher sagte gegenüber CNN Business, dass das Merkmal zur Identifizierung der ethnischen Zugehörigkeit "niemals Teil der Anwendung hätte werden dürfen".

Der zunehmende Einsatz künstlicher Intelligenz zum Sortieren großer Datenmengen wird zwangsläufig Bedenken hinsichtlich des Datenschutzes aufwerfen. Wenn Sie das nächste Mal zu einem Vorstellungsgespräch gehen, wissen Sie vielleicht nie, wer oder was Sie analysiert.

Empfohlen: