Apple détaille les nouvelles expériences de réalité augmentée avec les ancres de localisation dans ARKit 4

[ad_1]

Apple a détaillé ses modifications apportées à ARKit 4 dans un nouveau communiqué de presse destiné aux développeurs, y compris une nouvelle fonction de localisation des ancres.

Apple a annoncé ARKit comme l’un de ses nouveaux cadres de développement lors de la WWDC 2020 cette semaine. Depuis la sortie:

ARKit 4 sur iPadOS présente une toute nouvelle API de profondeur, créant une nouvelle façon d’accéder aux informations détaillées sur la profondeur recueillies par le scanner LiDAR sur iPad Pro. L’ancrage de position tire parti des données à plus haute résolution d’Apple Maps pour placer les expériences AR à un point spécifique du monde dans vos applications iPhone et iPad. Et la prise en charge du suivi du visage s’étend à tous les appareils avec Apple Neural Engine et une caméra frontale, afin que davantage d’utilisateurs puissent découvrir la joie de la RA sur les photos et les vidéos.

L’API de profondeur permettra au scanner LiDAR de générer des informations rapides et réalistes sur votre environnement pour de nouvelles fonctionnalités telles que la prise de mesures.

La nouvelle fonctionnalité la plus cool est sans doute les ancres de localisation:

Placer des expériences AR à des endroits spécifiques, comme dans les villes et le long de sites célèbres. L’ancrage de position vous permet d’ancrer vos créations AR à des coordonnées de latitude, longitude et altitude spécifiques. Les utilisateurs peuvent se déplacer autour d’objets virtuels et les voir sous différentes perspectives, exactement comme les objets réels sont vus à travers un objectif d’appareil photo.

Apple Maps utilisera une carte de localisation (donc aucune donnée de localisation ne va à Apple) qui pourrait donner aux utilisateurs un accès aux expériences AR en fonction de leur expérience géographique, par exemple, les développeurs pourraient appliquer des étiquettes AR aux bâtiments pour faciliter la navigation ou les visites touristiques.

Obtenez un iPhone SE avec le service Mint Mobile pour 30 $ / mois

La dernière fonctionnalité détaillée est la prise en charge étendue du suivi du visage, qui a été étendue à toute caméra frontale sur un appareil doté de la puce A12 Bionic ou ultérieure, y compris l’iPhone SE. Les développeurs peuvent suivre jusqu’à trois visages à la fois avec la caméra TrueDepth. Vous pouvez lire la version complète, y compris une liste de toutes les nouvelles fonctionnalités d’ARKit 4 ici.

Nous sommes reconnaissants à Setapp d’avoir sponsorisé notre couverture de la WWDC 2020. Le contenu de cet article reflète uniquement notre propre opinion éditoriale.

Nous pouvons gagner une commission pour les achats en utilisant nos liens. Apprendre encore plus.



[ad_2]

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*