Menschenähnlichere Roboter könnten zu besseren Interaktionen führen

Inhaltsverzeichnis:

Menschenähnlichere Roboter könnten zu besseren Interaktionen führen
Menschenähnlichere Roboter könnten zu besseren Interaktionen führen
Anonim

Key Takeaways

  • Neue Forschungsergebnisse könnten Robotern beibringen, menschlicher zu wirken.
  • MIT-Forscher haben ein KI-Modell entwickelt, das die zugrunde liegenden Beziehungen zwischen Objekten in einer Szene versteht und Robotern hilft, komplexe Aufgaben auszuführen.
  • Eine wachsende Zahl von Robotern ist darauf ausgelegt, sich wie Menschen zu verh alten.

Image
Image

Die Roboter kommen und Forscher haben einen Plan, sie menschlicher erscheinen zu lassen.

MIT-Forscher haben ein Modell der künstlichen Intelligenz (KI) entwickelt, das die zugrunde liegenden Beziehungen zwischen Objekten in einer Szene versteht. Diese Arbeit könnte in Situationen angewendet werden, in denen Roboter komplexe Aufgaben wie das Zusammenbauen von Geräten ausführen müssen. Es bringt das Feld auch einen Schritt näher an die Entwicklung von Maschinen, die wie Menschen aus ihrer Umgebung lernen und mit ihr interagieren können.

"Humanoide Roboter, die mit KI-Technologie entwickelt wurden, führen eine Reihe von menschlichen Aufgaben aus und übernehmen die Rolle von Rezeptionisten, persönlichen Assistenten, Rezeptionisten und mehr in zahlreichen Bereichen", sagte der KI-Experte Sameer Maskey, Professor für Informatik und CEO bei Fusemachines, sagte Lifewire in einem E-Mail-Interview. „Im Kern dieser fast menschlichen Interaktionen liegen KI-Algorithmen, die es diesen Systemen ermöglichen, die so gebaut sind, dass sie mit jeder neuen menschlichen Interaktion mehr lernen.“

Roboter, die mehr verstehen

Menschen können sich eine Szene ansehen und die Beziehungen zwischen Objekten erkennen, aber KI-Modelle haben Probleme, Befehlen zu folgen. Das liegt daran, dass sie zum Beispiel nicht verstehen, wenn ein Pfannenwender auf der linken Seite eines Herdes liegt.

Um ihre Bemühungen zur Lösung dieses Problems detailliert darzustellen, haben MIT-Forscher kürzlich eine Studie veröffentlicht, die ein Modell beschreibt, das die zugrunde liegenden Beziehungen zwischen Objekten in einer Szene versteht. Ihr Modell stellt einzelne Beziehungen einzeln dar und kombiniert diese Darstellungen dann, um die Gesamtszene zu beschreiben.

"Wenn ich mir einen Tisch anschaue, kann ich nicht sagen, dass sich am Standort XYZ ein Objekt befindet", sagte Yilun Du, einer der Hauptautoren der Zeitung, in einer Pressemitteilung. „Unser Verstand funktioniert nicht so. Wenn wir eine Szene verstehen, verstehen wir sie wirklich basierend auf den Beziehungen zwischen den Objekten dieses System, um unsere Umgebung effektiver zu manipulieren und zu verändern."

Move Over Roombas

Eine wachsende Zahl von Robotern ist darauf ausgelegt, sich wie Menschen zu verh alten. Zum Beispiel ist Kime, entwickelt von Macco Robotics, ein Getränke- und Essensausgaberoboter mit intelligenten Sensoren, der Aufgaben mithilfe von Selbstlernprozessen und adaptiver menschlicher Interaktion durch KI-Technologie verw altet.

Es gibt auch den von Toyota eingeführten T-HR3, einen humanoiden Roboter der dritten Generation, der die Bewegungen menschlicher Bediener nachahmt und Menschen zu Hause, in Krankenhäusern und sogar in Katastrophengebieten unterstützen kann.

Amelia, eine Konversations-KI-Lösung, ist ein digitaler humanoider Roboter, der entwickelt wurde, um ein menschenähnliches Kundenservice-Erlebnis zu bieten. Amelia wechselt ohne Verzögerung flexibel zwischen verschiedenen informellen Kontexten und erkennt dabei menschliche Absichten und emotionale Zustände.

Image
Image

Neue Materialien und Sensoren geben Robotern sogar ein „Gesicht“, das sie realistischer erscheinen lässt, sagte Karen Panetta, Professorin für Elektro- und Computertechnik an der Tufts University und IEEE-Stipendiatin, Lifewire in einem E-Mail-Interview. Fortschritte in der Nanotechnologie ermöglichen es, mehr Sensoren in das Gesicht eines Roboters einzubetten, um Gesichtsausdrücke viel genauer als je zuvor zu emulieren.

"Die Gehirne hinter den Robotergesichtern nutzen die Leistungsfähigkeit von Computermodellen, die künstliche Intelligenz verwenden, um alle Informationen zu verarbeiten, die sie erfassen", fügte Panetta hinzu.„Zum Beispiel Bilder, Geräusche und Umgebungsbedingungen, um den Roboter zu trainieren, sowohl mit Worten als auch mit körperlichen Handlungen angemessen zu reagieren.“

Im Kern dieser fast menschlichen Interaktionen liegen KI-Algorithmen, die diese Systeme ermöglichen…

Ein großer Markt für humanoide Roboter sind Helfer für ältere Menschen. Panetta erklärte, dass diese Hilfsroboter die Gesundheit von Patienten überwachen, Vitalwerte messen oder Patienten Anweisungen geben könnten, um bei Medikamenten oder medizinischen Routinen zu helfen. Sie könnten auch die Sicherheit des Patienten überwachen und um Hilfe rufen, wenn sie feststellen, dass der Patient gestürzt ist, sich nicht bewegt hat oder unter Stress leidet.

"Die Roboter als Menschen erscheinen zu lassen, soll die Interaktion mit Menschen mitfühlender, weniger einschüchternd und hoffentlich kognitiv ansprechender für den Patienten machen", fügte Panetta hinzu. „Sie können Patienten mit Demenz auch dabei helfen, mit ihnen ins Gespräch zu kommen und ihre Sicherheit zu überwachen.“

Robotik entwickelt sich weiter, und in Zukunft könnten Roboter mit größeren KI-Fortschritten in der Lage sein, mehr menschliche Eigenschaften zu zeigen, sagte Maskey. Als Menschen fällt es uns jedoch oft schwer, Emotionen zu verstehen und Reaktionen einzuschätzen.

"Die Fähigkeit, diese subtilen Nuancen und emotionalen Hinweise wahrzunehmen, ist also etwas, an dem die Roboterindustrie noch lange arbeiten wird", fügte er hinzu.

Empfohlen: