Key Takeaways
- Neue Forschungsergebnisse deuten darauf hin, dass es möglicherweise keine Möglichkeit gibt, superintelligente künstliche Intelligenz zu kontrollieren.
- Ein Fachartikel argumentiert, dass die Steuerung von KI viel fortschrittlichere Technologie erfordern würde, als wir derzeit besitzen.
- Einige Experten sagen, dass wirklich intelligente KI schneller hier sein könnte, als wir denken.
Wenn Menschen jemals eine superintelligente künstliche Intelligenz entwickeln, gibt es möglicherweise keine Möglichkeit, sie zu kontrollieren, sagen Wissenschaftler.
KI wird seit langem entweder als Heilmittel für alle Probleme der Menschheit oder als Apokalypse im Terminator-Stil angepriesen. Bisher ist die KI jedoch nicht einmal annähernd an die menschliche Intelligenz herangekommen. Aber fortschrittliche KI an der Leine zu h alten, könnte ein zu komplexes Problem für Menschen sein, wenn sie jemals entwickelt wird, laut einem kürzlich im Journal of Artificial Intelligence Research veröffentlichten Artikel.
"Eine superintelligente Maschine, die die Welt kontrolliert, klingt wie Science-Fiction", sagte Manuel Cebrian, einer der Co-Autoren der Zeitung, in einer Pressemitteilung.
"Aber es gibt bereits Maschinen, die bestimmte wichtige Aufgaben selbstständig ausführen, ohne dass Programmierer vollständig verstehen, wie sie es gelernt haben. Daher stellt sich die Frage, ob dies irgendwann unkontrollierbar und gefährlich für die Menschheit werden könnte."
Demnächst auf einem Supercomputer in Ihrer Nähe
Der Zeitschriftenartikel argumentiert, dass die Steuerung der KI viel fortschrittlichere Technologie erfordern würde, als wir derzeit besitzen.
In ihrer Studie konzipierte das Team einen theoretischen Eindämmungsalgorithmus, der sicherstellt, dass eine superintelligente KI Menschen unter keinen Umständen schaden kann, indem sie zuerst das Verh alten der KI simuliert und es stoppt, wenn es als schädlich angesehen wird. Aber die Autoren fanden heraus, dass ein solcher Algorithmus nicht gebaut werden kann.
"Wenn Sie das Problem auf grundlegende Regeln der theoretischen Informatik herunterbrechen, stellt sich heraus, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, versehentlich seine eigenen Operationen stoppen könnte." Iyad Rahwan, Direktor des Zentrums für Mensch und Maschine am Max-Planck-Institut für Bildungsforschung in Deutschland, sagte in der Pressemitteilung.
"In diesem Fall wüssten Sie nicht, ob der Eindämmungsalgorithmus die Bedrohung immer noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Dies macht den Eindämmungsalgorithmus praktisch unbrauchbar."
Wirklich intelligente KI könnte früher hier sein, als wir denken, argumentiert Michalis Vazirgiannis, Informatikprofessor an der École Polytechnique in Frankreich. „KI ist ein menschliches Artefakt, aber es entwickelt sich schnell zu einer autonomen Einheit“, sagte er in einer E-Mail an Lifewire.
"Der kritische Punkt wird sein, ob/wenn Singularität auftritt (d.h. wenn KI-Agenten ein Bewusstsein als Einheit haben) und sie daher Unabhängigkeit, Selbstkontrolle und eventuelle Dominanz beanspruchen."
Die Singularität kommt
Vazirgiannis ist nicht der Einzige, der die bevorstehende Ankunft der Super-KI vorhersagt. Wahre Gläubige der KI-Bedrohung sprechen gerne von der „Singularität“, die laut Vazirgiannis der Punkt ist, an dem die KI die menschliche Intelligenz ersetzen wird und „dass KI-Algorithmen möglicherweise ihre Existenz erkennen und anfangen werden, sich egoistisch und kooperativ zu verh alten.“
Laut Ray Kurzweil, dem technischen Leiter von Google, wird die Singularität vor Mitte des 21. Jahrhunderts eintreffen. „2029 ist das beständige Datum, das ich vorhergesagt habe, an dem eine KI einen gültigen Turing-Test bestehen und daher ein menschliches Intelligenzniveau erreichen wird“, sagte Kurzweil gegenüber Futurism.
Wenn wir unser eigenes Haus nicht putzen können, welchen Code sollen wir dann von der KI verlangen?
"Ich habe das Datum 2045 für die 'Singularität' festgelegt, an dem wir unsere effektive Intelligenz milliardenfach vervielfachen werden, indem wir mit der von uns geschaffenen Intelligenz verschmelzen."
Aber nicht alle KI-Experten glauben, dass intelligente Maschinen eine Bedrohung darstellen. Die in der Entwicklung befindliche KI ist eher für die Arzneimittelentwicklung nützlich und zeigt keine wirkliche Intelligenz, sagte KI-Berater Emmanuel Maggiori in einem E-Mail-Interview. „Es gibt einen großen Hype um KI, was den Eindruck erweckt, dass es wirklich revolutionär ist“, fügte er hinzu. "Aktuelle KI-Systeme sind nicht so genau wie publiziert und machen Fehler, die ein Mensch niemals machen würde."
Übernimm jetzt die Kontrolle über die KI
KI so zu regulieren, dass sie unserer Kontrolle nicht entgeht, kann schwierig sein, sagt Vazirgiannis. Unternehmen und nicht Regierungen kontrollieren die Ressourcen, die KI antreiben. „Sogar die Algorithmen selbst werden normalerweise in den Forschungslabors dieser großen und mächtigen, normalerweise multinationalen Einheiten produziert und eingesetzt“, sagte er.
"Es ist daher offensichtlich, dass die Regierungen der Bundesstaaten immer weniger Kontrolle über die Ressourcen haben, die zur Kontrolle der KI erforderlich sind."
Einige Experten sagen, dass Menschen Rechenressourcen und elektrische Energie verw alten müssen, um superintelligente KI zu kontrollieren. „Science-Fiction-Filme wie The Matrix machen Prophezeiungen über eine dystopische Zukunft, in der Menschen von KI als Bioenergiequellen genutzt werden“, sagte Vazirgiannis.
"Auch wenn entfernte Unmöglichkeiten bestehen, sollte die Menschheit sicherstellen, dass eine ausreichende Kontrolle über die Rechenressourcen (d. h. Computercluster, GPUs, Supercomputer, Netzwerke/Kommunikation) und natürlich über die Kraftwerke, die absolut Strom liefern, besteht schädlich für die Funktion der KI."
Das Problem bei der Steuerung von KI besteht darin, dass Forscher nicht immer verstehen, wie solche Systeme ihre Entscheidungen treffen, sagte Michael Berthold, Mitbegründer und CEO des Data-Science-Softwareunternehmens KNIME, in einem E-Mail-Interview. „Wenn wir das nicht tun, wie können wir es ‚kontrollieren‘?“
Er fügte hinzu: „Wir verstehen nicht, wenn eine völlig andere Entscheidung auf der Grundlage von für uns irrelevanten Eingaben getroffen wird.“
Die einzige Möglichkeit, das Risiko der Verwendung von KI zu kontrollieren, besteht darin, sicherzustellen, dass sie nur verwendet wird, wenn dieses Risiko überschaubar ist, sagte Berthold. „Anders gesagt, zwei extreme Beispiele: Beauftragen Sie KI nicht mit der Leitung Ihres Kernkraftwerks, wo ein kleiner Fehler katastrophale Nebenwirkungen haben kann“, fügte er hinzu.
"Andererseits sagt die KI vorher, ob Ihre Raumtemperatur ein wenig erhöht oder gesenkt werden sollte, kann das winzige Risiko zugunsten des Wohnkomforts durchaus wert sein."
Wenn wir KI nicht kontrollieren können, sollten wir ihr besser Manieren beibringen, sagte der ehemalige NASA-Computeringenieur Peter Scott in einem E-Mail-Interview. „Letztendlich können wir die Kontrollierbarkeit der KI genauso wenig gewährleisten wie die unserer Kinder“, sagte er.
"Wir erziehen sie richtig und hoffen das Beste; bisher haben sie die Welt nicht zerstört. Um sie gut zu erziehen, brauchen wir ein besseres Verständnis von Ethik; wenn wir unser eigenes Haus nicht putzen können, was Code sollen wir AI bitten, ihm zu folgen?"
Aber alle Hoffnung für die menschliche Rasse ist noch nicht verloren, sagt KI-Forscher Yonatan Wexler, Executive Vice President of R&D bei OrCam. „Während die Fortschritte in der Tat beeindruckend sind, bin ich persönlich davon überzeugt, dass die menschliche Intelligenz nicht unterschätzt werden sollte“, sagte er in einem E-Mail-Interview. „Wir als Spezies haben ziemlich erstaunliche Dinge geschaffen, einschließlich der KI selbst.“
Die Suche nach immer intelligenterer KI geht weiter. Aber es könnte besser sein, darüber nachzudenken, wie wir unsere Kreationen kontrollieren, bevor es zu spät ist.