Live-Übersetzung könnte auf die Zukunft der Apple-Brille hinweisen

Inhaltsverzeichnis:

Live-Übersetzung könnte auf die Zukunft der Apple-Brille hinweisen
Live-Übersetzung könnte auf die Zukunft der Apple-Brille hinweisen
Anonim

Key Takeaways

  • Zu den neuen Zugänglichkeitsfunktionen gehören in Echtzeit generierte Live-Untertitel für jedes Video oder jede Konversation.
  • Wenn diese Funktion nicht für Apples angebliche AR-Brille gemacht ist, werden wir unseren virtuellen Emoji-Hut essen.
  • Apple testet seit langem zukünftige Produktfunktionen in aktuellen Geräten.
Image
Image

Die neuen Live-Untertitel von Apple fügen Echtzeit-Untertitel zu allem hinzu, einschließlich der Person, die vor Ihnen steht.

Genau wie Googles Konzept der AR-Brille, das diese Woche angekündigt wurde. Apples Live Captions können eingehendes Audio aufnehmen und sofort transkribieren. Der Unterschied besteht darin, dass Apples Version „später in diesem Jahr“ausgeliefert wird, was wahrscheinlich bedeutet, dass sie in der iOS 16-Version dieses Herbstes enth alten sein wird. Aber die eigentliche Neuigkeit hier ist, dass dies Apples bisher offensichtlichster Versuch ist, zukünftige Apple Glasses-Funktionen vor aller Augen zu testen.

"Für jemanden, der zwei Elternteile hat, die beide schlecht hören, ist das eine große Hilfe", schreibt der Apple-zentrierte Journalist Dan Moren in seinem persönlichen Six Colors-Blog. "Ich bin gespannt, wie gut die Funktion tatsächlich funktioniert und wie sie einen großen FaceTime-Anruf mit vielen Teilnehmern handhabt; Apple sagt, dass es den Dialog bestimmten Sprechern zuordnen wird."

Handgriff

Live Captions, auf die wir gleich noch zu sprechen kommen, ist weit entfernt von der ersten AR-Brillenfunktion, die Apple getestet hat. Am offensichtlichsten ist die Integration von LIDAR-Kameras in iPhones und iPads. Diese Scanner helfen bei der Erstellung einer genauen 3D-Karte der Außenwelt und ermöglichen es dem iPhone, 3D-Modelle auf die reale Welt zu legen, die durch die Kamera angezeigt wird.

Ich bin mir nicht sicher, ob wir der Live-Übersetzung von Apple mehr vertrauen können als der neuen AR-Brille von Google, aber ich denke, wir können darauf vertrauen, dass die Konkurrenz dabei hilft, die besten Ergebnisse zu erzielen.

Bisher wurde diese Technologie verwendet, um Ihnen neue Apple-Computer auf Ihrem eigenen Schreibtisch vorab anzusehen, AR-Lego-Spiele zu spielen, IKEA-Möbel in Ihrem Wohnzimmer zu testen und so weiter. LIDAR-Hardware ist in iPhones so absurd überflüssig, dass sie nur dort sein muss, damit Apple die Hardware und Software für eine echte AR-Anwendung verfeinern kann: Apple Glasses.

Es ist auch nicht nur visuelles AR. AirPods fügen seit Jahren nette AR-Funktionen hinzu. Das neueste, Spatial Audio, täuscht unser Gehirn vor, dass Geräusche von überall um uns herum kommen, und ist eine großartige Möglichkeit, Filme anzusehen oder entspannende Klanglandschaften zu hören. Es ist ein großartiges Feature, aber es wird noch besser, wenn es mit dem erwarteten zukünftigen Brillenprodukt von Apple funktioniert. In der Lage zu sein, Klänge in einem 3D-Raum passend zu den AR-Objekten zu platzieren, wird die Illusion wirklich verkaufen.

Oder wie wäre es mit Live Text, der iOS 15-Technologie, die Text in Fotos erkennt und liest, und zwar live über die Kamera des iPhones? Dies ist eine weitere Funktion, die sich ideal zum Lesen von Schildern, Menüs und anderem Text durch eine AR-Brille eignet.

Live-Untertitel

Live Captions nimmt Sprache aus einem FaceTime-Anruf, Videokonferenz-Apps, Streaming-Videos und so weiter auf. Ihr Telefon nimmt den Ton auf und transkribiert ihn spontan und liefert Untertitel, wie in diesem Video zu sehen.

Das ist großartig, aber was noch besser ist, ist, dass nichts jemals Ihr iPhone verlässt. Die Untertitel werden laut Apple auf dem Gerät generiert, anstatt an einen Server gesendet zu werden. Das ist nicht nur privater, sondern auch viel schneller.

"Ich bin mir nicht sicher, ob wir der Live-Übersetzung von Apple mehr vertrauen können als der neuen AR-Brille von Google, aber ich denke, wir können darauf vertrauen, dass die Konkurrenz dabei hilft, die besten Ergebnisse zu erzielen", sagte Kristen Bolig, Gründerin von SecurityNerd, gegenüber Lifewire per Email.„Jetzt, da der Wettbewerb öffentlich ist und die Probleme mit dieser Art von Technologie (Datenschutz, Genauigkeit usw.) bekannt sind, werden beide Unternehmen nicht nur in einem Wettlauf darum sein, zuerst das beste Produkt zu entwickeln, sondern auch das beste Produkt zu entwickeln löst diese Probleme."

Wir würden auch eine Art eingebaute automatische Übersetzung erwarten, wie Sie sie jetzt mit der Drittanbieter-App Navi erh alten können, um Ihre FaceTime-Gespräche automatisch zu übersetzen, oder vielleicht eine Möglichkeit, diese Transkriptionen während Interviews zu speichern einfacherer Zugriff später.

Wir erfreuen uns seit langem an den hervorragenden Barrierefreiheitsfunktionen von Apple, mit denen wir unsere iOS-Geräte in einem fast absurden Ausmaß anpassen können. Von der Optimierung des Displays, um Farben und Text besser lesbar zu machen, über die Steuerung der gesamten Benutzeroberfläche mit externen Geräten bis hin zur Benachrichtigung des Telefons, wenn jemand an der Tür klingelt oder ein Lieferwagen draußen ankommt.

Nun profitieren wir alle von Apples verstärkter Forschung im Bereich Augmented-Reality-Technologie. Wir interessieren uns vielleicht nicht für IKEA oder LEGO, noch wollen wir jemals ein Paar von Apples sagenumwobenem AR-Brillengerät kaufen, aber das bedeutet nicht, dass wir nicht alle die Früchte dieser Forschung genießen können.

Empfohlen: