AI holt möglicherweise mit menschlichem Denken auf

Inhaltsverzeichnis:

AI holt möglicherweise mit menschlichem Denken auf
AI holt möglicherweise mit menschlichem Denken auf
Anonim

Key Takeaways

  • Forscher haben Techniken entwickelt, mit denen Benutzer die Ergebnisse des Verh altens eines maschinellen Lernmodells in eine Rangfolge bringen können.
  • Experten sagen, die Methode zeige, dass Maschinen die Denkfähigkeiten der Menschen einholen.
  • Fortschritte in der KI könnten die Entwicklung der Fähigkeit von Computern, Sprache zu verstehen, beschleunigen und die Art und Weise revolutionieren, wie KI und Menschen interagieren.
Image
Image

Eine neue Technik, die das Denkvermögen künstlicher Intelligenz (KI) misst, zeigt, dass Maschinen die Denkfähigkeit des Menschen einholen, sagen Experten.

Forscher am MIT und IBM Research haben eine Methode entwickelt, die es einem Benutzer ermöglicht, die Ergebnisse des Verh altens eines maschinellen Lernmodells zu ordnen. Ihre Technik namens Shared Interest beinh altet Metriken, die vergleichen, wie gut das Denken eines Modells mit dem der Menschen übereinstimmt.

"KI ist heute in der Lage, die menschliche Leistung bei bestimmten Aufgaben, einschließlich Bilderkennung und Sprachverständnis, zu erreichen (und in einigen Fällen zu übertreffen), " Pieter Buteneers, Director of Engineering in Machine Learning and AI bei the Communications Unternehmen Sinch, sagte Lifewire in einem E-Mail-Interview. „Mit der Verarbeitung natürlicher Sprache (NLP) können KI-Systeme Sprachen ebenso interpretieren, schreiben und sprechen wie Menschen, und die KI kann sogar ihren Dialekt und Tonfall an ihre menschlichen Kollegen anpassen.“

Künstliche Smarts

KI liefert oft Ergebnisse, ohne zu erklären, warum diese Entscheidungen richtig sind. Und Tools, die Experten helfen, die Argumentation eines Modells zu verstehen, liefern oft nur Einblicke, jeweils nur ein Beispiel. KI wird normalerweise mit Millionen von Dateneingaben trainiert, was es für einen Menschen schwierig macht, genügend Entscheidungen zu bewerten, um Muster zu erkennen.

In einem kürzlich veröffentlichten Artikel sagten die Forscher, dass Shared Interest einem Benutzer helfen könnte, Trends in der Entscheidungsfindung eines Modells aufzudecken. Und diese Einblicke könnten es dem Benutzer ermöglichen zu entscheiden, ob ein Modell einsatzbereit ist.

"Bei der Entwicklung von Shared Interest ist es unser Ziel, diesen Analyseprozess zu erweitern, damit Sie auf globalerer Ebene verstehen können, wie sich Ihr Modell verhält", Angie Boggust, eine Co-Autorin des Artikels, sagte in der Pressemitteilung.

Shared Interest verwendet eine Technik, die zeigt, wie ein maschinelles Lernmodell eine bestimmte Entscheidung getroffen hat, bekannt als Salienzmethoden. Wenn das Modell Bilder klassifiziert, heben Salienzverfahren Bereiche eines Bildes hervor, die für das Modell wichtig sind, wenn es seine Entscheidung trifft. Shared Interest funktioniert, indem es Hervorhebungsmethoden mit von Menschen erstellten Anmerkungen vergleicht.

Forscher nutzten Shared Interest, um einem Dermatologen bei der Entscheidung zu helfen, ob er einem maschinellen Lernmodell vertrauen sollte, das entwickelt wurde, um Krebs anhand von Fotos von Hautläsionen zu diagnostizieren. Gemeinsames Interesse ermöglichte es dem Dermatologen, schnell Beispiele für die richtigen und falschen Vorhersagen des Modells zu sehen. Der Dermatologe entschied, dass er dem Modell nicht trauen konnte, da es zu viele Vorhersagen auf der Grundlage von Bildartefakten statt tatsächlicher Läsionen machte.

“Der Wert hier ist, dass wir mit Shared Interest sehen können, wie diese Muster im Verh alten unseres Modells auftauchen. In etwa einer halben Stunde war der Dermatologe in der Lage zu entscheiden, ob er dem Modell vertraut oder nicht und ob er es einsetzen sollte oder nicht“, sagte Boggust.

Die Begründung für die Entscheidung eines Modells ist sowohl für den Forscher im Bereich des maschinellen Lernens als auch für den Entscheidungsträger wichtig.

Messung des Fortschritts

Die Arbeit von MIT-Forschern könnte ein bedeutender Fortschritt für den Fortschritt der KI in Richtung menschlicher Intelligenz sein, sagte Ben Hagag, Forschungsleiter bei Darrow, einem Unternehmen, das maschinelle Lernalgorithmen verwendet, gegenüber Lifewire in einem E-Mail-Interview.

"Die Begründung für die Entscheidung eines Modells ist sowohl für den Forscher im Bereich des maschinellen Lernens als auch für den Entscheidungsträger wichtig", sagte Hagag. „Erstere möchte verstehen, wie gut das Modell ist und wie es verbessert werden kann, während letztere ein Gefühl des Vertrauens in das Modell entwickeln möchte, also müssen sie verstehen, warum dieses Ergebnis vorhergesagt wurde.“

Aber Hagag warnte davor, dass die MIT-Forschung auf der Annahme basiert, dass wir menschliches Verständnis oder menschliches Denken verstehen oder kommentieren können.

"Es besteht jedoch die Möglichkeit, dass dies nicht korrekt ist, daher ist mehr Arbeit zum Verständnis der menschlichen Entscheidungsfindung erforderlich", fügte Hagag hinzu.

Image
Image

Fortschritte in der KI könnten die Entwicklung der Fähigkeit von Computern, Sprache zu verstehen, beschleunigen und die Art und Weise revolutionieren, wie KI und Menschen interagieren, sagte Buteneers. Chatbots können Hunderte von Sprachen gleichzeitig verstehen, und KI-Assistenten können Textkörper nach Antworten auf Fragen oder Unregelmäßigkeiten durchsuchen.

"Einige Algorithmen können sogar betrügerische Nachrichten erkennen, was Unternehmen und Verbrauchern gleichermaßen helfen kann, Spam-Nachrichten auszusortieren", fügte Buteneers hinzu.

Aber, sagte Buteneers, KI macht immer noch einige Fehler, die Menschen niemals machen würden. „Während einige befürchten, dass KI menschliche Jobs ersetzen wird, werden wir in Wirklichkeit immer Menschen brauchen, die mit KI-Bots zusammenarbeiten, um sie in Schach zu h alten und diese Fehler in Schach zu h alten, während wir gleichzeitig eine menschliche Note im Geschäft bewahren“, fügte er hinzu.

Empfohlen: