Apple gibt visionOS SDK für Entwickler frei, um Apps für Vision Pro zu erstellen

Der erste räumliche Computer des Technologieriesen aus Cupertino, Apple Vision Pro, wird auf VisionOS laufen. Das weltweit erste räumliche Betriebssystem ermöglicht Benutzern die Interaktion mit digitalen Inhalten mithilfe der neuen revolutionären Eingaben über Augen, Hände und Stimme.

Monate vor der Einführung Anfang 2023 hat Apple Entwicklern das visionOS Software Development Kit (SDK) zur Verfügung gestellt, damit sie „bahnbrechende App-Erlebnisse“ erstellen können.

Apple Vision Pro wird von zwei M2- und R1-Prozessoren angetrieben und verfügt über ein ultrahochauflösendes Anzeigesystem, um ein immersives 3D-Erlebnis zu bieten, das digitale Inhalte nahtlos mit dem physischen Raum der Benutzer verbindet und sie gleichzeitig über die unglaubliche Passthrough-Technologie verbunden hält.

Entwickler können ihre visionOS-Apps auch in Apple-Laboren in ausgewählten Städten auf dem Vision Pro testen

Ab heute haben Entwickler auf der ganzen Welt Zugriff auf das visionOS SDK, um AR/VR-Apps und -Inhalte zu erstellen.

Entwickler können außerdem dieselben grundlegenden Frameworks verwenden, mit denen sie für iOS, iPadOS und andere Apple-Plattformen wie Xocde, SwiftUI, RealityKit, ARKit und TestFlight vertraut sind, um 3D-App-Erlebnisse für Vision Pro zu erstellen.

In Xcode wurde ein völlig neues Tool namens Reality Composer Pro hinzugefügt, mit dem Entwickler ihre 3D-Inhalte für ihre visionOS-Apps und -Spiele optimieren können. Mit der neuen Funktion können sie 3D-Modelle, Bilder, Töne und Animationen in der Vorschau anzeigen und vorbereiten. Entwickler können den neuen visionOS-Simulator auch nutzen, um ihre Apps in verschiedenen Raumaufteilungen und Lichtverhältnissen zu testen.

Susan Prescott, Apples Vizepräsidentin für weltweite Entwicklerbeziehungensagte:

„Apple Vision Pro definiert neu, was auf einer Computerplattform möglich ist. Entwickler können mit der Entwicklung von visionOS-Apps mithilfe der leistungsstarken Frameworks beginnen, die sie bereits kennen, und ihre Entwicklung mit neuen innovativen Tools und Technologien wie Reality Composer Pro noch weiter vorantreiben, um völlig neue Erfahrungen für ihre Benutzer zu entwerfen.“

Durch die Nutzung des Raums um den Benutzer herum eröffnet Spatial Computing unseren Entwicklern neue Möglichkeiten und ermöglicht es ihnen, sich neue Wege auszudenken, um ihren Benutzern dabei zu helfen, Kontakte zu knüpfen, produktiv zu sein und neue Arten der Unterhaltung zu genießen. Wir können es kaum erwarten zu sehen, was sich unsere Entwickler-Community ausdenkt.“

Darüber hinaus wird Apple nächsten Monat Labore für Entwickler in Cupertino, London, München, Tokio, Singapur und Shanghai eröffnen, um ihre Apps auf der Vision Pro-Hardware zu testen und Unterstützung von den Ingenieuren des Unternehmens zu suchen. Teams können außerdem Entwicklerkits beantragen, um Apps auf Apple Vision Pro zu erstellen, zu iterieren und zu testen.

Siehe auch:OpenAI stellt Responses API und Agents SDK für erweiterte KI-Entwicklung vor

Mehr lesen:

  • Für das 3.500 US-Dollar teure Apple Vision Pro sind Produktionskürzungen aufgrund des Designs und nicht der Nachfrage zu verzeichnen
  • Apple Vision Pro bietet Barrierefreiheit wie VoiceOver, Zeigersteuerung und mehr
  • Apple Vision Pro-Leckerbissen: Startzeit, Rezept, Zubehör und mehr