AI könnte bald in der Lage sein, Ihre Emotionen zu lesen

Inhaltsverzeichnis:

AI könnte bald in der Lage sein, Ihre Emotionen zu lesen
AI könnte bald in der Lage sein, Ihre Emotionen zu lesen
Anonim

Key Takeaways

  • Immer mehr Unternehmen nutzen KI, um Ihre Emotionen zu lesen.
  • Emotionslesende KI könnte möglicherweise die Nutzung von Technologie vereinfachen.
  • Einige Experten machen sich Sorgen über die Auswirkungen auf den Datenschutz, wenn Unternehmen Ihre emotionalen Daten sammeln.
Image
Image

Künstliche Intelligenz (KI) weiß vielleicht bald mehr über Sie als Sie denken.

Ein Startup namens Hume AI behauptet, Algorithmen zu verwenden, um Emotionen anhand von Gesichts-, Stimm- und verbalen Ausdrücken zu messen. Es gehört zu einer wachsenden Zahl von Unternehmen, die vorgeben, menschliche Emotionen mithilfe von Computern zu lesen. Aber einige Experten sagen, dass das Konzept Datenschutzprobleme aufwirft.

"Wer auch immer diese Systeme und Plattformen kontrolliert, wird viele Informationen über Einzelpersonen haben", sagte Bob Bilbruck, ein Tech-Startup-Berater, Lifewire in einem E-Mail-Interview. „Sie werden in der Lage sein, Profile für diese Personen zu erstellen, die für Geldgewinne, die Kontrolle der Ergebnisse oder möglicherweise noch schändlicheres Makro-Tracking von Personen und der Gesellschaft verwendet werden können.“

Gesichtslesen?

Hume sagt, das Geheimnis, KI beizubringen, Emotionen zu lesen, sind Big Data. Das Unternehmen sagt, dass es seine KI mit riesigen Datensätzen aus Nordamerika, Afrika, Asien und Südamerika trainiert.

"Unsere Vision ist eine Welt, in der KI wissenschaftliche Erkenntnisse in neue Wege übersetzt, um das menschliche emotionale Erleben zu verbessern", schreibt das Unternehmen auf seiner Website. „Emotionales Bewusstsein ist die fehlende Zutat, die benötigt wird, um Social-Media-Algorithmen zu entwickeln, die das Wohlbefinden der Benutzer optimieren…“

Hume ist eines von vielen Unternehmen, die versuchen, Daten zu nutzen, um Einblicke in menschliche Emotionen zu gewinnen. Unternehmen verwenden emotionale Überwachung, um zu versuchen, effektive Werbung zu entwerfen, sagte Oleksii Shaldenko, ein Professor, der KI am Igor Sikorsky Kyiv Polytechnic Institute in der Ukraine erforscht, Lifewire in einem E-Mail-Interview. Ähnliche Technologien werden verwendet, um den Tonfall in Callcentern zu bewerten, das Fahrerverh alten in Autos zu überwachen und die Einstellung der Zuschauer bei Streaming- und Produktionsunternehmen zu messen.

Es gibt erhebliche potenzielle Vorteile für Benutzer, wenn KI ihre Emotionen liest, sagte Ryan Monsurate, Chief Technical Officer von AI Dynamics, Lifewire in einem E-Mail-Interview. Er sagte, eine Anwendung wäre das Entwerfen von Schnittstellen, die die Wahrscheinlichkeit verringern, dass Menschen frustriert oder wütend auf ihre Technologie werden.

Ein schwieriger zu lösendes Problem wäre es, angemessene emotionale Reaktionen auf die Emotionen zu erzeugen, die von der KI bei der Interaktion mit Menschen wahrgenommen werden, sagte Monsurate.

"Viele von uns haben mit unseren Geheimdienstassistenten gesprochen, und obwohl sich die Qualität der Tonhöhe und Intonation ihrer Stimmen in den letzten zehn Jahren verbessert hat, sind sie nicht besser darin, auf eine Weise zu kommunizieren, die unterschiedliche Emotionen vermittelt, " er fügte hinzu."Ich sehe generative Modelle in der Lage, synthetische Stimmen mit Emotionen und mit kontextuell angemessenen Emotionen zu erzeugen, wenn Modelle an Größe und Komplexität wachsen oder wenn wir neue Durchbrüche auf dem Gebiet des Deep Learning erzielen."

Aber der unmittelbarste Vorteil der Technologie zum Lesen von Emotionen könnte für Unternehmen sein, die versuchen, Sachen zu verkaufen. Das System SenseR beispielsweise ermöglicht es Einzelhändlern, das Einkaufserlebnis zu personalisieren. Computer beobachten und analysieren die Mimik und Körpersprache der Käufer. Mitarbeiter können die Ergebnisse verwenden, um einen Verkauf in die richtige Richtung zu lenken, wenn sie von Verkaufsmitarbeitern im Geschäft dazu aufgefordert werden, sagte Fariha Rizwan, eine IT- und PR-Expertin, gegenüber Lifewire in einem E-Mail-Interview.

Image
Image

"Aus Sicht der Einzelhandelsanalyse kann der Einsatz von maschinellem Sehen zur Verfolgung menschlicher Käufer einem Einzelhändler Einblicke in die Dauer des Engagements im Geschäft, das Interesseniveau auf der Grundlage von Heatmaps, Einkaufsreisen und demografische Daten der Käufer geben", fügte Rizwan hinzu.

Wem gehören deine Gefühle?

Da Unternehmen sich zunehmend KI zuwenden, um Emotionen zu lesen, gibt es viele potenzielle Fallstricke in Bezug auf den Datenschutz. Gesichtserkennungstechnologien, die Emotionslesesysteme antreiben, neigen dazu, an öffentlichen und privaten Orten ohne die Zustimmung der zu verfolgenden Personen zu arbeiten, ihre Daten zu speichern und diese Daten manchmal an den Meistbietenden zu verkaufen, sagte Rizwan.

"Wir wissen auch nicht, inwieweit diese Systeme vor Cyberangriffen geschützt sind, die möglicherweise die Gesichtskarte einer Person in die Hände eines schlechten Schauspielers legen", fügte Rizwan hinzu. "Diese Bedenken haben eine Verschiebung in Richtung verstärkter Überwachung, Überwachung, Offenlegung der Privatsphäre und Rechenschaftspflicht eingeleitet."

Die größten Datenschutzbedenken beziehen sich nicht auf KI, sondern auf die zugrunde liegenden Rahmenwerke und Vorschriften für den Informationsaustausch, die bereits vorhanden sind, argumentierte Monsurate. Wenn Unternehmen Ihre Daten monetarisieren und zur Manipulation Ihres Verh altens verwenden können, hilft ihnen das Verständnis Ihres emotionalen Zustands dabei, dies besser zu tun.

"Was wir brauchen, sind Gesetze, um dieses Verh alten von vornherein zu verhindern, unabhängig davon, welche Mittel sie verwenden, um ihre Ziele zu erreichen", fügte Monsurate hinzu. "Es sind nicht die Tools, sondern die schlechten Schauspieler und unsere derzeitigen Datenschutzgesetze sind erschreckend unzureichend."

Empfohlen: