Wie KI ihre gefährlichen Nachkommen überwachen könnte

Inhaltsverzeichnis:

Wie KI ihre gefährlichen Nachkommen überwachen könnte
Wie KI ihre gefährlichen Nachkommen überwachen könnte
Anonim

Key Takeaways

  • Ein neues Papier behauptet, dass künstliche Intelligenz bestimmen kann, welche Forschungsprojekte möglicherweise stärker reguliert werden müssen als andere.
  • Es ist Teil einer wachsenden Anstrengung herauszufinden, welche Art von KI gefährlich sein kann.
  • Ein Experte sagt, die wahre Gefahr der KI sei, dass sie Menschen dumm machen könnte.

Image
Image

Künstliche Intelligenz (KI) bietet viele Vorteile, aber auch einige potenzielle Gefahren. Und jetzt haben Forscher eine Methode vorgeschlagen, um ihre computergestützten Kreationen im Auge zu beh alten.

Ein internationales Team sagt in einem neuen Papier, dass KI feststellen kann, welche Arten von Forschungsprojekten möglicherweise stärker reguliert werden müssen als andere. Die Wissenschaftler verwendeten ein Modell, das Konzepte aus Biologie und Mathematik verbindet und Teil einer wachsenden Anstrengung ist, herauszufinden, welche Art von KI gefährlich sein kann.

"Natürlich, obwohl der gefährliche Einsatz von KI im Science-Fiction-Stil entstehen kann, wenn wir uns dafür entscheiden […], ist das, was KI gefährlich macht, nicht die KI selbst, sondern [wie wir sie verwenden]", Thierry Rayna, der Lehrstuhl für Technologie für den Wandel an der École Polytechnique in Frankreich, sagte Lifewire in einem E-Mail-Interview. „Die Implementierung von KI kann entweder kompetenzsteigernd sein (z. B. verstärkt sie die Relevanz der Fähigkeiten und des Wissens von Menschen/Arbeitnehmern) oder kompetenzzerstörend sein, d. h. KI macht vorhandene Fähigkeiten und Kenntnisse weniger nützlich oder obsolet.“

Im Auge beh alten

Die Autoren der jüngsten Abhandlung schrieben in einem Beitrag, dass sie ein Modell gebaut haben, um hypothetische KI-Wettkämpfe zu simulieren. Sie ließen die Simulation Hunderte Male laufen, um vorherzusagen, wie reale KI-Rennen ablaufen könnten.

"Die Variable, die wir als besonders wichtig fanden, war die "Länge" des Rennens – die Zeit, die unsere simulierten Rennen brauchten, um ihr Ziel (ein funktionsfähiges KI-Produkt) zu erreichen", schrieben die Wissenschaftler. „Als KI-Rennen ihr Ziel schnell erreichten, stellten wir fest, dass Konkurrenten, die wir so programmiert hatten, dass sie Sicherheitsvorkehrungen immer übersehen, immer gewonnen haben.“

Im Gegensatz dazu stellten die Forscher fest, dass langfristige KI-Projekte nicht so gefährlich waren, weil die Gewinner nicht immer diejenigen waren, die die Sicherheit vernachlässigten. „Angesichts dieser Ergebnisse wird es für die Regulierungsbehörden wichtig sein, festzustellen, wie lange verschiedene KI-Rennen voraussichtlich dauern werden, und unterschiedliche Vorschriften auf der Grundlage ihrer erwarteten Zeitskalen anzuwenden“, schrieben sie. „Unsere Ergebnisse deuten darauf hin, dass eine Regel für alle KI-Rennen – von Sprints bis hin zu Marathons – zu Ergebnissen führen wird, die alles andere als ideal sind.“

David Zhao, der Geschäftsführer von Coda Strategy, einem Beratungsunternehmen für KI, sagte in einem E-Mail-Interview mit Lifewire, dass es schwierig sein kann, gefährliche KI zu identifizieren. Die Herausforderungen liegen darin, dass moderne KI-Ansätze einen Deep-Learning-Ansatz verfolgen.

"Wir wissen, dass Deep Learning in zahlreichen Anwendungsfällen wie der Bilderkennung oder der Spracherkennung bessere Ergebnisse liefert", sagte Zhao. „Für Menschen ist es jedoch unmöglich zu verstehen, wie ein Deep-Learning-Algorithmus funktioniert und wie er seine Ausgabe erzeugt. Daher ist es schwierig zu sagen, ob eine KI, die gute Ergebnisse liefert, gefährlich ist, weil es für Menschen unmöglich ist zu verstehen, was vor sich geht."

Software kann "gefährlich" sein, wenn sie in kritischen Systemen verwendet wird, die Schwachstellen aufweisen, die von Angreifern ausgenutzt werden können oder falsche Ergebnisse liefern, sagte Matt Shea, Director of Strategy bei der KI-Firma MixMode, per E-Mail. Er fügte hinzu, dass unsichere KI auch zu einer falschen Klassifizierung von Ergebnissen, Datenverlust, wirtschaftlichen Auswirkungen oder physischen Schäden führen könnte.

"Bei traditioneller Software programmieren Entwickler Algorithmen, die von einer Person untersucht werden können, um herauszufinden, wie man eine Schwachstelle schließt oder einen Fehler behebt, indem man sich den Quellcode ansieht", sagte Shea.„Bei KI wird jedoch ein Großteil der Logik aus Daten selbst erstellt, die in Datenstrukturen wie neuronale Netze und dergleichen codiert sind. Dies führt zu Systemen, die „Black Boxes“sind, die nicht untersucht werden können, um Schwachstellen zu finden und zu beheben wie normale Software."

Dangers Ahead?

Während KI in Filmen wie „The Terminator“als eine böse Macht dargestellt wurde, die beabsichtigt, die Menschheit zu zerstören, könnten die wirklichen Gefahren prosaischer sein, sagen Experten. Rayna zum Beispiel schlägt vor, dass KI uns dümmer machen könnte.

"Es kann Menschen davon abh alten, ihr Gehirn zu trainieren und Fachwissen zu entwickeln", sagte er. „Wie kann man ein Experte für Risikokapital werden, wenn man die meiste Zeit nicht damit verbringt, Startup-Bewerbungen zu lesen? Schlimmer noch, KI ist notorisch eine „Black Box“und wenig erklärbar. Nicht zu wissen, warum eine bestimmte KI-Entscheidung getroffen wurde, bedeutet, dass man daraus nur sehr wenig lernen kann, genauso wie man kein erfahrener Läufer werden kann, indem man mit einem Segway durch das Stadion fährt.”

Es ist schwer zu sagen, ob eine KI, die gute Ergebnisse liefert, gefährlich ist, weil es für Menschen unmöglich ist, zu verstehen, was vor sich geht.

Die vielleicht unmittelbarste Bedrohung durch KI ist die Möglichkeit, dass sie voreingenommene Ergebnisse liefern könnte, sagte Lyle Solomon, ein Anw alt, der über die rechtlichen Auswirkungen von KI schreibt, in einem E-Mail-Interview.

"KI kann dazu beitragen, gesellschaftliche Sp altungen zu vertiefen. KI basiert im Wesentlichen auf Daten, die von Menschen gesammelt wurden", fügte Solomon hinzu. „[Aber] trotz der riesigen Datenmenge enthält es nur minimale Teilmengen und würde nicht das beinh alten, was jeder denkt. Daher werden Daten, die aus Kommentaren, öffentlichen Nachrichten, Rezensionen usw. gesammelt werden, mit inhärenten Vorurteilen dazu führen, dass KI Diskriminierung und Hass verstärkt.“

Empfohlen: