Key Takeaways
- Zoom sagte Berichten zufolge, dass es KI verwenden würde, um die Stimmung oder das Engagement eines Benutzers zu bewerten.
- Menschenrechtsgruppen fordern Zoom auf, seinen Plan aufgrund von Datenschutz- und Datensicherheitsbedenken zu überdenken.
- Einige Unternehmen verwenden bei Interviews auch Emotionserkennungssoftware, um zu beurteilen, ob der Benutzer aufmerksam ist.
Der zunehmende Einsatz künstlicher Intelligenz (KI) zur Überwachung menschlicher Emotionen führt zu Datenschutzbedenken.
Menschenrechtsorganisationen fordern Zoom auf, seinen Plan zur Einführung von KI zur Emotionsanalyse in seine Videokonferenzsoftware zu verlangsamen. Das Unternehmen hat Berichten zufolge angekündigt, dass es KI verwenden wird, um die Stimmung oder das Engagement eines Benutzers zu bewerten.
"Experten geben zu, dass Emotionsanalyse nicht funktioniert", schrieb das Konsortium von Menschenrechtsgruppen, darunter die ACLU, in einem Brief an Zoom. "Gesichtsausdrücke sind oft von den darunter liegenden Emotionen getrennt, und die Forschung hat ergeben, dass nicht einmal Menschen die Emotionen anderer manchmal genau lesen oder messen können. Die Entwicklung dieses Tools verleiht der Pseudowissenschaft Glaubwürdigkeit und setzt Ihren Ruf aufs Spiel."
Zoom hat nicht sofort auf eine Anfrage von Lifewire nach einem Kommentar geantwortet.
Deine Emotionen im Auge beh alten
Laut dem Protocol-Artikel würde das Zoom-Überwachungssystem namens Q for Sales das Sprechzeitverhältnis, die Reaktionszeitverzögerung und häufige Sprecherwechsel der Benutzer überprüfen, um zu verfolgen, wie engagiert die Person ist. Zoom würde diese Daten verwenden, um Punktzahlen zwischen null und 100 zuzuweisen, wobei höhere Punktzahlen ein höheres Engagement oder eine höhere Stimmung anzeigen.
Die Menschenrechtsgruppen behaupten, dass die Software Menschen mit Behinderungen oder bestimmten ethnischen Zugehörigkeiten diskriminieren könnte, indem sie davon ausgeht, dass alle die gleichen Gesichtsausdrücke, Stimmmuster und Körpersprache verwenden, um zu kommunizieren. Die Gruppen weisen auch darauf hin, dass die Software ein Datensicherheitsrisiko darstellen könnte.
"Das Sammeln zutiefst persönlicher Daten könnte jedes Unternehmen, das diese Technologie einsetzt, zu einem Ziel für schnüffelnde Regierungsbehörden und böswillige Hacker machen", heißt es in dem Schreiben.
Julia Stoyanovich, Professorin für Informatik und Ingenieurwesen an der New York University, sagte Lifewire in einem E-Mail-Interview, dass sie den Behauptungen hinter der Emotionserkennung skeptisch gegenüberstehe.
"Ich verstehe nicht, wie eine solche Technologie funktionieren kann – der emotionale Ausdruck der Menschen ist sehr individuell, sehr kulturell abhängig und sehr kontextspezifisch", sagte Stoyanovich.„Aber, was vielleicht noch wichtiger ist, ich verstehe nicht, warum wir wollen, dass diese Tools funktionieren. Mit anderen Worten, wir würden noch mehr Probleme bekommen, wenn sie gut funktionieren würden. Aber vielleicht sollten wir es tun, bevor wir über die Risiken nachdenken Fragen Sie - was sind die potenziellen Vorteile einer solchen Technologie?"
Zoom ist nicht das einzige Unternehmen, das Emotionserkennungssoftware verwendet. Theo Wills, Senior Director of Privacy bei Kuma LLC, einem Datenschutz- und Sicherheitsberatungsunternehmen, teilte Lifewire per E-Mail mit, dass bei Interviews Software zur Erkennung von Emotionen verwendet wird, um zu beurteilen, ob der Benutzer aufmerksam ist. Es wird auch in der Transportbranche getestet, um zu überwachen, ob Fahrer schläfrig erscheinen, auf Videoplattformen, um das Interesse zu messen und Empfehlungen anzupassen, und in Lernprogrammen, um festzustellen, ob eine bestimmte Lehrmethode ansprechend ist.
Wills behauptete, dass die Kontroverse um Emotionsüberwachungssoftware eher eine Frage der Datenethik als der Privatsphäre sei. Sie sagte, es gehe darum, dass das System reale Entscheidungen auf der Grundlage von Ahnungen treffe.
"Mit dieser Technologie nehmen Sie jetzt den Grund an, warum ich einen bestimmten Gesichtsausdruck habe, aber der Impuls hinter einem Gesichtsausdruck ist aufgrund von Dingen wie sozialer oder kultureller Erziehung, familiärem Verh alten, vergangenen Erfahrungen oder Nervosität sehr unterschiedlich im Moment ", fügte Wills hinzu. "Den Algorithmus auf eine Annahme zu stützen, ist von Natur aus fehlerhaft und potenziell diskriminierend. Viele Populationen sind in der Population, auf der die Algorithmen basieren, nicht vertreten, und eine angemessene Repräsentation muss priorisiert werden, bevor diese verwendet werden sollte."
Praktische Erwägungen
Die Probleme, die durch Emotion-Tracking-Software aufgeworfen werden, können sowohl praktischer als auch theoretischer Natur sein. Matt Heisie, der Mitbegründer von Ferret.ai, einer KI-gesteuerten App, die Beziehungsintelligenz bietet, sagte Lifewire in einer E-Mail, dass Benutzer fragen müssen, wo die Analyse von Gesichtern durchgeführt wird und welche Daten gespeichert werden. Wird die Studie an Anrufaufzeichnungen durchgeführt, die in der Cloud oder auf dem lokalen Gerät verarbeitet werden?
Außerdem fragte Heisie, während der Algorithmus lernt, welche Daten er über das Gesicht oder die Bewegungen einer Person sammelt, die möglicherweise vom Algorithmus entwirrt und zur Wiederherstellung der Biometrie einer Person verwendet werden könnten? Speichert das Unternehmen Momentaufnahmen, um die Erkenntnisse des Algorithmus zu überprüfen oder zu validieren, und wird der Benutzer über diese neuen abgeleiteten Daten oder gespeicherten Bilder informiert, die möglicherweise von seinen Anrufen erfasst werden?
"Das sind alles Probleme, die viele Unternehmen gelöst haben, aber es gibt auch Unternehmen, die von Skandalen erschüttert wurden, wenn sich herausstellte, dass sie dies nicht richtig gemacht haben", sagte Heisie. „Facebook ist der bedeutendste Fall eines Unternehmens, das seine Gesichtserkennungsplattform wegen Bedenken hinsichtlich der Privatsphäre der Benutzer zurückgefahren hat. Die Muttergesellschaft Meta zieht jetzt AR-Funktionen von Instagram in einigen Gerichtsbarkeiten wie Illinois und Texas wegen Datenschutzgesetzen in Bezug auf biometrische Daten.“