Warum wir KI brauchen, die sich selbst erklärt

Inhaltsverzeichnis:

Warum wir KI brauchen, die sich selbst erklärt
Warum wir KI brauchen, die sich selbst erklärt
Anonim

Key Takeaways

  • Unternehmen verwenden zunehmend KI, die erklärt, wie sie Ergebnisse erzielt.
  • LinkedIn hat vor Kurzem seine Abonnementeinnahmen gesteigert, nachdem KI eingesetzt wurde, die Kunden mit Kündigungsrisiko vorhersagte und beschrieb, wie es zu seinen Schlussfolgerungen kam.
  • Die Federal Trade Commission hat erklärt, dass KI, die nicht erklärbar ist, untersucht werden könnte.
Image
Image

Einer der heißesten neuen Softwaretrends könnte die künstliche Intelligenz (KI) sein, die erklärt, wie sie ihre Ergebnisse erzielt.

Erklärbare KI zahlt sich aus, da Softwareunternehmen versuchen, KI verständlicher zu machen. LinkedIn hat kürzlich seine Abonnementeinnahmen gesteigert, nachdem KI eingesetzt wurde, die Kunden mit Kündigungsrisiko vorhersagte und beschrieb, wie es zu seinen Schlussfolgerungen kam.

"Bei erklärbarer KI geht es darum, der Ausgabe zu vertrauen und zu verstehen, wie die Maschine dorthin gelangt ist", sagte Travis Nixon, CEO von SynerAI und Chief Data Science, Financial Services bei Microsoft, Lifewire in einem E-Mail-Interview.

"'Wie?' ist eine Frage, die sich viele KI-Systeme stellen, insbesondere wenn Entscheidungen getroffen oder Ergebnisse produziert werden, die nicht ideal sind ", fügte Nixon hinzu. „Von der unfairen Behandlung verschiedener Rassen bis hin zur Verwechslung einer Glatze mit einem Fußball müssen wir wissen, warum KI-Systeme ihre Ergebnisse produzieren. Sobald wir das ‚Wie‘verstanden haben, positioniert es Unternehmen und Einzelpersonen, um zu antworten ‚Was kommt als nächstes?‘.“

KI kennenlernen

AI hat sich als genau erwiesen und macht viele Arten von Vorhersagen. Aber KI ist oft in der Lage zu erklären, wie sie zu ihren Schlussfolgerungen gekommen ist.

Und die Regulierungsbehörden nehmen das KI-Erklärbarkeitsproblem zur Kenntnis. Die Federal Trade Commission hat erklärt, dass KI, die nicht erklärbar ist, untersucht werden könnte. Die EU erwägt die Verabschiedung des Gesetzes über künstliche Intelligenz, das Anforderungen enthält, dass Benutzer in der Lage sein müssen, KI-Vorhersagen zu interpretieren.

Linkedin gehört zu den Unternehmen, die glauben, dass erklärbare KI zur Gewinnsteigerung beitragen kann. Früher verließen sich LinkedIn-Vertriebsmitarbeiter auf ihr Wissen und verbrachten viel Zeit damit, Offline-Daten zu sichten, um herauszufinden, welche Konten wahrscheinlich weiterhin Geschäfte tätigen und an welchen Produkten sie bei der nächsten Vertragsverlängerung interessiert sein könnten. Um das Problem zu lösen, startete LinkedIn ein Programm namens CrystalCandle, das Trends erkennt und Verkäufern hilft.

In einem anderen Beispiel sagte Nixon, dass sein Unternehmen während der Erstellung eines Quotenfestlegungsmodells für die Vertriebsmitarbeiter eines Unternehmens in der Lage war, erklärbare KI zu integrieren, um zu identifizieren, welche Merkmale auf eine erfolgreiche Neueinstellung im Vertrieb hindeuten.

"Mit diesem Ergebnis war das Management dieses Unternehmens in der Lage zu erkennen, welche Verkäufer auf die 'Überholspur' gesetzt werden sollten und welche Coaching brauchten, bevor größere Probleme auftraten", fügte er hinzu.

Viele Anwendungen für erklärbare KI

Erklärbare KI wird derzeit von den meisten Datenwissenschaftlern als Bauchtest verwendet, sagte Nixon. Die Forscher lassen ihr Modell mit einfachen Methoden laufen, stellen sicher, dass nichts völlig außer Betrieb ist, und versenden dann das Modell.

"Dies liegt zum Teil daran, dass viele Data-Science-Organisationen ihre Systeme um 'Zeit über Wert' als KPI herum optimiert haben, was zu überstürzten Prozessen und unvollständigen Modellen geführt hat", fügte Nixon hinzu.

Ich mache mir Sorgen, dass der Rückschlag unverantwortlicher Modelle die KI-Industrie ernsthaft zurückwerfen könnte.

Menschen sind oft nicht überzeugt von Ergebnissen, die KI nicht erklären kann. Raj Gupta, Chief Engineering Officer bei Cogito, sagte in einer E-Mail, dass sein Unternehmen Kunden befragt und festgestellt habe, dass fast die Hälfte der Verbraucher (43 %) ein Unternehmen und KI positiver wahrnehmen würden, wenn Unternehmen expliziter über deren Verwendung sprechen würden der Technik.

Und es sind nicht nur Finanzdaten, die von erklärbarer KI unterstützt werden. Ein Bereich, der von dem neuen Ansatz profitiert, sind Bilddaten, bei denen es einfach ist anzugeben, welche Teile eines Bildes der Algorithmus für wesentlich hält, und wo es für einen Menschen einfach ist zu wissen, ob diese Informationen sinnvoll sind, Samantha Kleinberg, außerordentliche Professorin bei Stevens Institute of Technology und Experte für erklärbare KI, teilte Lifewire per E-Mail mit.

"Es ist viel schwieriger, das mit einem EKG oder kontinuierlichen Glukoseüberwachungsdaten zu tun", fügte Kleinberg hinzu.

Nixon sagte voraus, dass erklärbare KI die Basis jedes KI-Systems in der Zukunft sein würde. Und ohne erklärbare KI könnten die Ergebnisse schlimm sein, sagte er.

"Ich hoffe, dass wir an dieser Front weit genug vorankommen, um erklärbare KI in den kommenden Jahren als selbstverständlich zu betrachten, und dass wir heute überrascht auf diese Zeit zurückblicken, dass irgendjemand verrückt genug wäre, Modelle einzusetzen, die er nicht verstand, " er fügte hinzu.„Wenn wir der Zukunft nicht auf diese Weise begegnen, fürchte ich, dass der Rückschlag unverantwortlicher Modelle die KI-Industrie ernsthaft zurückwerfen könnte.“

Empfohlen: