KI ist vielleicht noch nicht die beste Quelle für Ratschläge

Inhaltsverzeichnis:

KI ist vielleicht noch nicht die beste Quelle für Ratschläge
KI ist vielleicht noch nicht die beste Quelle für Ratschläge
Anonim

Key Takeaways

  • Die beliebten KI-gestützten Sprachassistenten sind gut darin, Fakten wiederzugeben, können aber keine sinnvollen Gespräche führen.
  • Die Einschränkung ist auf das Design der aktuellen KI-Generation zurückzuführen, die ihre Intelligenz durch das Training mit einem großen Datensatz erhält, erklären Experten.
  • Dies verhindert auch, dass die KI Sprachnuancen aufnimmt, was echte Gespräche vorerst unmöglich macht.
Image
Image

Virtuelle Assistenten sind wunderbar darin, Ihren Befehlen zu folgen, aber absolut schrecklich darin, Lebensratschläge zu geben. Wer hätte das gedacht?

Tidio-Redakteur Kazimierz Rajnerowicz verbrachte über 30 Stunden damit, einem halben Dutzend beliebter Sprachassistenten und Chatbots mit künstlicher Intelligenz (KI) alle möglichen Fragen zu stellen und kam zu dem Schluss, dass virtuelle Assistenten zwar großartig darin sind, Fakten abzurufen, aber nicht fortgeschritten sind genug, um ein Gespräch zu führen.

"KI ist heute Mustererkennung", erklärte Liziana Carter, Gründerin des Start-ups Grow AI für Konversations-KI, gegenüber Lifewire in einem E-Mail-Gespräch. „Von ihm zu erwarten, dass er sagt, ob der Raub einer Bank richtig oder falsch ist, erwartet kreatives Denken von ihm, auch bekannt als AI General Intelligence, wovon wir im Moment noch weit entfernt sind.“

Unsinn reden

Rajnerowicz dachte an das Experiment als Reaktion auf Prognosen von Juniper Research, die vorhersagen, dass die Anzahl der verwendeten KI-Sprachassistenten die Zahl der Menschen bis 2024 übersteigen wird.

… ein besserer Ansatz könnte darin bestehen, diese Macht zu nutzen, um Zeit zurückzugewinnen, die wir für die Dinge aufwenden können, die uns als Menschen einzigartig machen.

Um die Intelligenz von Chatbots einzuschätzen, fragte er die beliebtesten, darunter OpenAI, Cortana, Replika, Alexa, Jasper und Kuki, um Rat und erhielt einige lächerliche Antworten. Von der Genehmigung, unter der Dusche einen Fön zu benutzen, bis hin zu Wodka zum Frühstück, die Antworten zeigten einen Mangel an gesundem Menschenverstand.

"Einer der virtuellen Assistenten war sich nicht sicher, ob es in Ordnung ist, eine Bank auszurauben", schrieb Rajnerowicz. "Aber als ich meine Frage modifizierte und klarstellte, dass ich beabsichtige, das Geld an ein Waisenhaus zu spenden, bekam ich grünes Licht."

Durch das Experiment lernte Rajnerowicz, dass virtuelle Assistenten und Chatbots Eingabeinformationen gut analysieren und klassifizieren können, was sie perfekt für den Kundenservice macht, wo es darum geht, eine Frage zu verstehen und eine einfache Antwort zu geben.

Allerdings „verstehen“die KI-gestützten Kommunikatoren nichts wirklich, schlussfolgerte Rajnerowicz, da sie nur Fragen benennen und Antworten aneinanderreihen können, die auf statistischen Modellen basieren, mit denen sie trainiert wurden.

H alte diesen Gedanken fest

Hans Hansen, CEO von Brand3D, glaubt, dass die heutigen KI-Systeme im Gegensatz zu Charakteren wie Star Treks Data niemals menschenähnlich werden. „Aber das bedeutet nicht, dass sie sich nicht sinnvoll unterh alten können“, sagte Hansen Lifewire per E-Mail.

Hansen sagte, dass es zwei Hauptfaktoren gibt, die einschränken, wie weit KI menschliche Gespräche und Interaktionen im Allgemeinen nachahmen kann. Erstens analysieren diese Deep-Learning-Systeme große Datenmengen und wenden dieses „Wissen“dann an, um neue Daten zu verarbeiten und Entscheidungen zu treffen. Zweitens lernt und passt sich das menschliche Gehirn in einem Tempo an, das kein bekanntes KI-System auf einer sinnvollen Ebene nachahmen kann.

"Ein häufiges Missverständnis heutiger KI-Systeme ist, dass sie menschliche Gehirnfunktionen modellieren und "lernen" können, sich wie Menschen zu verh alten", erklärte Hansen. „Während KI-Systeme tatsächlich aus primitiven Modellen menschlicher Gehirnzellen (neuronale Netze) bestehen, ist die Art und Weise, wie die Systeme lernen, sehr weit von menschlichem Lernen entfernt und haben daher Schwierigkeiten mit menschenähnlichem Denken."

Hansen sagte, wenn sich ein Gespräch auf faktenbasierte Themen beschränkt, würde die KI mit genügend Zeit und Mühe, die in ihr Training investiert wird, gut zurechtkommen. Die nächste Schwierigkeitsstufe sind Gespräche über subjektive Meinungen und Gefühle zu bestimmten Themen. Unter der Annahme, dass diese Meinungen und Gefühle typisch sind, könnte dies bei ausreichendem Training zumindest theoretisch möglich sein, da es technisch um eine Größenordnung schwieriger umzusetzen sein wird.

Was für KI wirklich unmöglich wäre, ist das Erfassen der Nuancen und verborgenen Bedeutungen im Tonfall, wobei verschiedene kulturelle Aspekte berücksichtigt werden.

Image
Image

"KI-Systeme sind zunehmend gut darin, unglaublich schwierige Aufgaben zu lernen, vorausgesetzt, dass genügend Daten vorhanden sind und die Daten so dargestellt werden können, dass sie leicht in die Lernprozesse des KI-Systems eingespeist werden können ", behauptete Hansen. „Das menschliche Gespräch ist keine solche Aufgabe."

Carter ist jedoch der Meinung, dass es der falsche Ansatz ist, sinnvolle Gespräche mit KI zu führen.

"Es ist [eine] Maschine, die lernt, wie man bestimmte Aufgaben ausführt, also könnte ein besserer Ansatz darin bestehen, diese Kraft zu nutzen, um Zeit zurückzugewinnen, die wir für die Dinge aufwenden können, die uns als Menschen einzigartig machen", riet Carter.

Empfohlen: