Kann KI uns beibringen, menschlicher zu sein?

Inhaltsverzeichnis:

Kann KI uns beibringen, menschlicher zu sein?
Kann KI uns beibringen, menschlicher zu sein?
Anonim

Key Takeaways

  • Künstliche Intelligenzprogramme wie Cogito versuchen, Menschen Empathie im Umgang mit Kunden beizubringen.
  • Experten sind sich uneins darüber, ob es möglich ist, dass eine Maschine Menschen Empathie beibringt, oder ob sie einfach nur Datenpunkte findet.
  • Einige Experten sind auch besorgt, dass das Lehren von KI-Empathie die Menschheit dieser Emotion berauben könnte.
Image
Image

Stellen Sie sich vor, Sie arbeiten in einem Callcenter und ein Kunde ruft an. Du antwortest, und sofort fangen die Dinge an, schlecht zu laufen. Der Kunde ist verärgert und die Spannungen steigen.

Du fängst an, Dinge zu sagen, die du später bereuen könntest. Plötzlich erscheint eine Meldung auf Ihrem Computerbildschirm. "Empathie Cue-Denken Sie darüber nach, wie sich der Kunde fühlt. Versuchen Sie, sich darauf zu beziehen."

Es ist keine echte Person, die dir sagt, was du tun sollst. Es ist eine Nachricht von Cogito, einem Programm für künstliche Intelligenz, das Mitarbeitern helfen soll, sich in frustrierte Anrufer einzufühlen und die Leistung zu steigern. Cogito ist eines von einer wachsenden Zahl von KI-Programmen, die versuchen, Menschen Empathie beizubringen.

Hier steckt eine offensichtliche Ironie. Menschliche Wissenschaftler haben jahrzehntelang versucht, lebensechtere Computer herzustellen. Jetzt sagen uns die Maschinen, wie wir uns verh alten sollen. Aber kann uns Software wirklich beibringen, wie wir empathischer sein können? Es ist ein Problem, das tiefgreifende Auswirkungen haben könnte, da künstliche Intelligenz beginnt, das tägliche Leben zu durchdringen.

AI imitiert menschliches Verh alten

Aus technischer Sicht ist es klar, dass KI Hinweise darauf aufnehmen kann, wie Menschen sich fühlen, und Feedback geben kann.

"KI- und maschinelle Lernsysteme sind sehr gut darin, Muster in Daten zu finden", sagte Adam Poliak, Postdoktorand in Informatik am Barnard College, in einem E-Mail-Interview.

"Wenn wir einer KI viele Beispiele für empathischen Text geben, kann die KI Muster und Hinweise entdecken, die Empathie hervorrufen oder demonstrieren."

KI kann so programmiert sein, dass sie einige der menschlichen Verh altensweisen, die mit Empathie einhergehen, aufschlüsselt und Menschen daran erinnert, sie auszuführen, aber das lehrt nicht Empathie.

KI, die menschliche Reaktionen analysiert, kann dabei helfen, die wachsende Kluft zwischen Menschen zu überbrücken, wenn wir digital kommunizieren, sagte Bret Greenstein, ein KI-Experte bei Cognizant Digital Business, in einem E-Mail-Interview.

"Im Laufe des letzten Jahres sind Echtzeit, Video, Sprache und Messaging schneller gewachsen, als sich irgendjemand hätte vorstellen können, und damit verbunden waren enorme Herausforderungen beim Aufbau wirklich empathischer Beziehungen, ohne tatsächlich Zeit mit Menschen zu verbringen", er hinzugefügt.

KI kann helfen, Merkmale wie Ton und Emotion in der Sprache zu analysieren und zu bewerten, sagte Greenstein. „Dies kann der Person, die Nachrichten erhält, helfen, besser zu verstehen, was gemeint war, und hilft der Person, die ‚spricht‘, indem es zeigt, wie Nachrichten interpretiert werden können“, fügte er hinzu.

Während Unternehmen sich beeilen, von KI-Trainingssoftware wie Cogito zu profitieren, bleibt die Frage offen, ob KI Menschen Empathie beibringen kann. Und die Antwort hat möglicherweise ebenso viel mit Philosophie wie mit Technologie zu tun.

Ilia Delio ist Theologin an der Universität Villanova, deren Arbeit sich auf die Schnittstelle von Glaube und Wissenschaft konzentriert. Sie glaubt, dass KI Empathie lehren kann.

Image
Image

Delio wies darauf hin, dass ein Team am MIT Roboter gebaut hat, die menschliche Emotionen wie Glück, Traurigkeit und Mitgefühl nachahmen können. „Während die Roboteremotionen programmiert sind, können die Roboter mit Menschen interagieren und so neuronale Muster aufbauen oder verstärken“, sagte sie.

Kann eine Maschine Empathie verstehen?

Experten definieren mindestens drei Formen von Empathie, die alle die Fähigkeit beinh alten, eine andere Person zu verstehen und sich auf sie zu beziehen, sagte Karla Erickson, Soziologin am Grinnell College in Iowa und Autorin des in Kürze erscheinenden Buches Messy Humans: A Sociology of Beziehungen zwischen Mensch und Maschine, die unsere Beziehungen zur Technologie untersucht.

"In Beziehung treten ist nicht etwas, was KI leisten kann, und es ist die Grundlage für Empathie", sagte Erickson in einem E-Mail-Interview.

KI kann so programmiert sein, dass sie einige der menschlichen Verh altensweisen, die mit Empathie einhergehen, auflöst und Menschen daran erinnert, sie auszuführen, aber das lehrt nicht Empathie. Beziehung, insbesondere in Bezug auf Empathie, würde erfordern, dass der Zuhörer das hat notwendigen Kontext, um sich darauf beziehen zu können – damit meine ich, dass das ‚Leben‘einer KI weder Verlust noch Sehnsucht, Hoffnung, Schmerz oder Tod beinh altet.“

Experten streiten sich jedoch darüber, ob KI uns beibringen kann, wie man sich einfühlt. Ein Teil des Problems besteht darin, dass sich nicht alle darüber einig sind, was „Empathie“oder „KI“überhaupt bedeuten. Der Begriff künstliche Intelligenz wird viel herumgeworfen, aber es ist derzeit nicht die Art von Intelligenz, die wir als menschlich betrachten.

Das ist reine Ingenieursarbeit, und ich mache mir keine Illusionen darüber, dass die fragliche KI selbst Emotionen hat oder Emotionen wirklich versteht.

"Die "Empathiehinweise" haben nichts mit Empathie zu tun", sagte Michael Spezio, Professor für Psychologie, Neurowissenschaften und Datenwissenschaft am Scripps College, in einem E-Mail-Interview.

"Sie sind Hinweise von Stimmen, die menschliche Bewerter als Stimmen von Menschen klassifiziert haben, die irritiert/verärgert sind. Es wird also nur menschliches Fachwissen in einem mathematischen Modell verwendet und dann behauptet, dass das Modell auf menschlichem Fachwissen aufgebaut ist intelligent. Begrenzte maschinelle Lernansätze wie dieser werden oft als KI gehyped, ohne intelligent zu sein."

Am Rensselaer Polytechnic Institute baut das Labor von Selmer Bringsjord mathematische Modelle menschlicher Emotionen. Die Forschung soll eine KI schaffen, die bei Tests zur emotionalen Intelligenz gut abschneiden und diese auf Menschen anwenden kann. Aber Bringsjord, ein KI-Experte, sagt, dass jeder Unterricht der KI unbeabsichtigt ist.

"Aber das ist reine Ingenieursarbeit, und ich mache mir keine Illusionen darüber, dass die fragliche KI selbst Emotionen hat oder Emotionen wirklich versteht", sagte er in einem E-Mail-Interview.

Was könnte schief gehen?

Während Unternehmen wie Cogito eine glänzende Zukunft für das KI-Training von Menschen sehen, sind andere Beobachter vorsichtiger.

Supportiv, ein Online-Dienst für psychische Gesundheit, verwendet KI, um jeden Benutzer basierend auf jedem einzelnen Gedanken, den er äußert, in Echtzeit an eine themenspezifische Peer-Support-Gruppe weiterzuleiten, die sich dynamisch für Benutzer mit ähnlichen Problemen zusammenfindet.

Image
Image

Jede Gruppe hat einen "superstarken" menschlichen Moderator, der den textbasierten Chat sicher und frei von Trollen hält und, wiederum durch KI, relevante Ressourcen, Empfehlungen und Verweise direkt in die Gruppenkonversation bringen kann. Mithilfe von KI schult Supportiv seine Moderatoren darin, die Intensität emotionaler Bedürfnisse zu erkennen.

"Empathie ist ein Muskel, den wir aufbauen", sagte Zara Dana, Datenwissenschaftlerin bei Supportiv, in einem E-Mail-Interview.

"Wenn wir anfangen, eine Krücke zum Gehen zu benutzen, verkümmern unsere Muskeln. Ich kann nicht umhin, mich zu fragen, ob sich eine abhängige Arbeiterin sicher fühlen würde, wenn das KI-System eines Tages nicht online ist? Ist sie dazu in der Lage effektiv arbeiten? Was sind die langfristigen Auswirkungen auf die Arbeitnehmer? Wie würden sie komplexe soziale Situationen bewältigen, in denen die KI fehlt?"

Auch wenn die Verwendung von KI zum Lehren von Empathie funktioniert, was passiert, wenn wir anfangen, uns zu sehr auf KI zu verlassen, um Emotionen zu trainieren? Ein möglicher Nachteil ist, dass Menschen sich mehr an Roboter als an andere menschliche Personen binden können, weil Roboter sich nicht gegen ihr Programm entscheiden können, wies Delio darauf hin.

"Die menschliche Fähigkeit zur Willensfreiheit versetzt die menschliche Handlungsfähigkeit in eine mehrdeutige Position", sagte Delio. "Eine Person kann an einem Tag mitfühlend und am nächsten rücksichtslos sein; ein Roboter wird durchweg mitfühlend bleiben, wenn er nicht anders trainiert wird."

Es gibt eine Menge, was schief gehen könnte, wenn KI Menschen beibringt, sich wie Menschen zu verh alten, sagen Experten.

Wir haben uns zu sozialen Tieren entwickelt, und unser Einfühlungsvermögen ist von zentraler Bedeutung für unsere Fähigkeit, mit anderen in Kontakt zu treten und uns um Kollektive zu kümmern, denen wir angehören.

"Ohne menschliche Aufsicht könnte der Schüler etwas absolut Verrücktes lernen", sagte Bringsjord.

"Ton und Tonhöhe der Stimme sind bloße Verh altenskorrelate ohne Inh alt. Dollars to donuts meine Stimme beim Unterrichten im Klassenzimmer würde von vielen gelesen werden … als Hinweis darauf, dass ich verärgert bin, während ich in Wirklichkeit ' Ich bin einfach leidenschaftlich und im geringsten empathiebedürftig."

Wenn das KI-Training von Menschen floriert, können wir uns darauf verlassen. Und das ist nicht unbedingt gut.

"Dieses Training entwertet menschliche Fähigkeiten, die beträchtlich sind, und lenkt die Aufmerksamkeit auf KI, als ob sie diejenigen mit Fachwissen wären", sagte Erickson.„Wir haben uns zu sozialen Wesen entwickelt, und unser Einfühlungsvermögen ist von zentraler Bedeutung für unsere Fähigkeit, uns mit anderen zu verbinden und uns um Kollektive zu kümmern, denen wir angehören.“

Empfohlen: