banner
Nachrichtenzentrum
Erstklassige Komponenten, präzises Qualitätsmanagement.

Apple bringt Vision Pro auf den Markt, ein VR-Headset, von dem es hofft, dass es das wichtigste Produkt seit dem iPhone sein wird

Dec 16, 2023

Apple hat das „Vision Pro“ angekündigt, ein Headset, von dem es hofft, dass es sein wichtigstes Produkt seit dem iPhone sein wird.

Das neue Virtual-Reality-Tool wird es Menschen ermöglichen, Apps zu sehen, die auf den Raum um sie herum projiziert werden, wodurch Apps „von den Beschränkungen eines Displays befreit“ werden können, sagte Apple.

Das Headset wird 3.499 US-Dollar kosten und ab Anfang nächsten Jahres in den USA erhältlich sein. Dieser Preis liegt über den 3.000 US-Dollar, um die es Gerüchte gab – was bereits zu Kommentaren darüber geführt hatte, wie teuer es sei.

Apple sagte, das Headset sei das „ehrgeizigste“ Produkt, das es je entwickelt habe. Es kombiniert Glas auf der Vorder- und Innenseite sowie einen Aluminiumrahmen und ein weiches Band, das sich um den Kopf legt.

:: Verfolgen Sie hier die Live-Berichterstattung von The Independent über die Apple-Veranstaltung

Es ist mit einem modularen System konzipiert, das es ermöglicht, verschiedene Teile auseinanderzunehmen und individuell an den Besitzer anzupassen. Das Kopfband und die Frontplatte können geändert werden, um sicherzustellen, dass sie dem Benutzer passen, sagte Apple, und können gegen ein Band einer anderen Größe oder Art ausgetauscht werden; Brillenträger kaufen magnetische Brillengläser, die für besseres Sehen sorgen.

Das Design beinhaltet einen separaten Akku, der in die Tasche passt und an der Seite des Headsets befestigt wird und zwei Stunden halten kann. Das Headset kann für den ganztägigen Gebrauch auch an die Wand angeschlossen werden.

Das Herzstück der Hardware ist ein Display, das laut Apple hell und detailliert genug ist, um 4K-Videos nativ anzuzeigen. Es enthält auch „Audio-Pods“, die an der Seite des Headsets sitzen und räumliches Audio erzeugen, was laut Apple das Gehirn davon überzeugt, dass Audio aus dem ganzen Raum kommt.

Im Inneren befindet sich Apples M2-Chip, der derzeit seine Laptops und iPads mit Strom versorgt, sowie ein spezieller Chip namens R1, der Daten von 12 Kameras, fünf Sensoren und sechs Mikrofonen verarbeiten kann. Die Geschwindigkeit dieser Chips bedeutet, dass es keine Latenz gibt, sagte Apple, was wiederum häufige Probleme der Reisekrankheit in der virtuellen Realität vermeiden könnte.

Herr Cook sagte, dass Benutzer in der Lage sein werden, „mit digitalen Inhalten zu interagieren, genau wie in Ihrem physischen Raum“ und nicht länger „durch die Anzeige eingeschränkt“ sein werden. Das Headset werde es den Menschen ermöglichen, Apps mit den „natürlichsten, intuitiven Werkzeugen“ zu steuern, sagte er, mit Sensoren, die die Augen, die Stimme und die Hände der Menschen verstehen.

Benutzer können in ihrem Wohnzimmer sitzen und ihre Apps – Nachrichten, Telefonanrufe, Surfen im Internet und mehr – beispielsweise auf ihren Couchtisch projiziert sehen. Daher ist es das erste Apple-Produkt, „das man durchschaut, nicht ansieht“, sagte Tim Cook, als er es während der Worldwide Developers Conference von Apple vorstellte.

Andere Apps, etwa Spiele, würden die Vollansicht übernehmen, sagte Apple. Aber schon damals war die Schutzbrille so konzipiert, dass der Benutzer niemals von der Welt um ihn herum abgeschnitten war.

Dazu gehört eine Funktion, die bedeutet, dass das Headset jemanden erkennt und überlagert, wenn jemand den Raum betritt. Das Headset verfügt aber auch über eine Funktion namens „EyeSight“ – ein Display an der Außenseite der Brille, das die Augen der Menschen zeigt und einen Hinweis darauf gibt, was sie im Inneren des Headsets tun.

Die Software des Headsets basiert hauptsächlich auf vorhandenen Apps, die für die Augmented-Reality-Funktionen umgebaut wurden. Apple konzentrierte sich beispielsweise auf die Fotos-App – sie zeigte, wie Benutzer beispielsweise ein Panoramafoto aufnehmen und die Kamera im Headset verwenden können, um 3D-Bilder aufzunehmen.

Alle diese Apps erscheinen als virtuelle Bildschirme in der realen Umgebung. Bei fast allen Demonstrationen von Apple wurden die Apps neben realen Umgebungen gezeigt, anstatt die Menschen von der realen Welt abzuschneiden.

Benutzer des Headsets können jedoch das Erscheinungsbild dieser realen Umgebung ändern. Mit einem Drehknopf am Headset können sie beispielsweise entscheiden, wie viel von der realen Welt gezeigt wird, und es wird auch leicht an die Aktivitäten der Menschen angepasst, beispielsweise indem der Farbton des Raums geändert wird, um ihn an eine Fernsehsendung anzupassen .

Das Headset kann auch neben bestehenden Apple-Produkten verwendet werden. Wenn man beispielsweise einen Mac betrachtet, erscheint dessen Bildschirm als virtuelles Objekt, und Benutzer können auch auf einer Bluetooth-Tastatur tippen und diese Tasten auf dem Bildschirm erscheinen lassen.

Alle diese Erlebnisse werden von einem neuen Betriebssystem namens VisionOS unterstützt, sagte Apple, das auf Innovationen seiner bestehenden Software aufbaut. Dazu gehören Tools, die räumliches Audio ermöglichen und bestehende Apps verfügbar machen, hieß es.

Entwickler können beispielsweise vorhandene Frameworks vom iPhone, iPad und anderen Orten innerhalb des Headsets verwenden. Viele dieser Apps werden verfügbar sein, sobald das Headset auf den Markt kommt.

„Es ist der Beginn einer völlig neuen Plattform“, sagte Mike Rockwell von Apple, der die Entwicklung des Headsets leitete und einen neuen App Store vorstellte, der sich auf räumliche Apps konzentrieren wird. Einige Entwickler haben bereits damit begonnen, solche Apps zu entwickeln: darunter beispielsweise eine, die für Studenten biologische Modelle über die reale Welt legt.

Die Software basiert auf einer „digitalen Persona“, die erstellt wird, indem das Headset selbst zum Scannen des Gesichts eines Benutzers verwendet wird. Dadurch wird dann ein detailliertes 3D-Modell des Trägers erstellt, das dann in FaceTime-Gesprächen und anderswo angezeigt wird.

Apple hat außerdem Datenschutz- und Sicherheitsfunktionen in das Headset integriert. Dazu gehört ein neues Tool namens „OpticID“, das die Augen der Benutzer scannt, um zu erkennen, wer sie sind, und das Headset zu entsperren, sowie ein System, das bedeutet, dass Apps und Websites nicht sehen können, wohin jemand schaut, wenn er herumscrollt.

:: Verfolgen Sie hier die Live-Berichterstattung von The Independent über die Apple-Veranstaltung