Les capteurs Apple Vision Pro : leurs fonctions et leur emplacement sur le casque détachable Les capteurs Apple Vision Pro : leurs fonctions et leur emplacement sur le casque



Le monde est actuellement séduit par le nouveau casque révolutionnaire Vision Pro AR/VR d’Apple, qui parvient à ressembler simultanément à un peu de technologie datant de 10 ans dans le futur, et à une paire de lunettes de ski banales du ‘ années 90. Mais avec le Vision Pro, ce n’est pas l’extérieur qui compte – c’est l’intérieur où se déroule toute l’action, et ce sont les capteurs qu’il contient qui lui permettent d’inaugurer l’ère de l’informatique spatiale et de changer la donne. Apple espère que ce sera le cas.Ici, nous allons approfondir la façon dont le Vision Pro opère sa magie en utilisant des capteurs pour vous suivre et ce qu’ils sont tous capables de faire.Caméras de suivi(Crédit image : Apple)Jetons d’abord un coup d’œil aux caméras situées à l’extérieur de l’appareil. Voici les deux caméras principales haute résolution et six caméras de suivi orientées vers le monde qui détectent votre environnement en 3D stéréoscopique. Si vous connaissez Vision Pro, vous saurez qu’il peut prendre des photos et des vidéos de ce que vous regardez, et c’est à cela que servent les caméras principales. L’interface principale Home View de Vision Pro (que vous utilisez pour accéder à toutes vos applications et expériences) est parcourue par une combinaison de mouvements oculaires et de gestes de la main. Il vous suffit de regarder une icône et de taper vos doigts ensemble pour sélectionner. C’est pourquoi il existe tant de caméras de suivi orientées vers le monde extérieur afin que Vision Pro puisse détecter même les plus petits mouvements de vos doigts. Pour agrandir une photo que vous regardez, par exemple, il vous suffit de regarder le coin de la photo et de pincer et de faire glisser avec vos doigts – ce mouvement de la main et du bras est assez faible, mais Vision Pro le détectera grâce à les six caméras de suivi.Jetons maintenant un coup d’œil à l’intérieur de l’appareil. Le suivi oculaire (et non EyeSight — c’est quelque chose de différent) est évidemment très important pour Vision Pro. Il doit être capable de discerner les mouvements oculaires à l’intérieur du casque, et cela se fait par quatre caméras de suivi internes infrarouges qui suivent chaque mouvement de vos yeux. Ainsi, grâce à ces quatre caméras, si vous choisissez simplement de regarder directement une icône dans l’interface Home View, elle est sélectionnée. Mais le Vision Pro contient également une autre caméra interne, un Caméra TrueDepth, afin qu’il puisse authentifier l’utilisateur. Les caméras TrueDepth ont été introduites pour la première fois sur l’iPhone pour FaceID et contiennent certains des matériels et logiciels les plus avancés jamais créés par Apple pour capturer des données faciales précises. Des milliers de points invisibles sont projetés sur votre visage pour créer une carte de profondeur, et une image infrarouge est également capturée. Maintenant, que Vision Pro fasse cela sur tout votre visage ou uniquement sur vos yeux, nous n’en sommes pas sûrs car il utilise l’authentification biométrique basée sur l’iris, mais il utilise certainement la technologie TrueDepth pour l’aider à le faire.(Crédit image : Apple)Scanner LiDAR(Crédit image : Apple)LiDAR est une autre technologie qu’Apple a déjà utilisée dans le passé sur les meilleurs iPhones et iPads. LiDAR signifie Light Detection and Ranging, et il émet un laser pour mesurer avec précision à quelle distance se trouvent les objets entourés. Apple affirme que le scanner LiDAR de l’iPhone lui permet de prendre de meilleures photos dans l’obscurité en aidant l’appareil photo à effectuer une mise au point automatique six fois plus rapide, afin que vous ne manquiez pas une superbe photo.Vous n’avez rien à faire pour que cela se produise : il vous suffit de pointer votre appareil photo dans l’obscurité et de prendre une photo. Apple propose également son application gratuite Measure qui peut utiliser le scanner LiDAR pour mesurer les distances pour vous. Alors, que fait-il dans le Vision Pro ? Eh bien, Vision Pro utilise votre environnement pour faire flotter l’écran d’accueil. Il doit donc savoir à quelle distance vous vous trouvez des murs et des meubles. Tout cela est réalisé grâce à son scanner LiDAR.Quatre unités de mesure internes Les unités de mesure internes (IMU) sont généralement utilisées dans les drones. Ce sont des appareils qui fournissent des capteurs internes tels que des gyroscopes et des accéléromètres pour fournir des données d’accélération et d’orientation afin que vous puissiez mesurer le tangage, le roulis et le lacet. Ils peuvent également être utilisés pour calculer la position et la vitesse. Vision Pro les utilise pour conserver sa perception de sa situation dans le monde. Après tout, vous ne pouvez pas vous attendre à ce que les gens restent au même endroit lorsqu’ils utilisent la réalité mixte.Capteur de scintillementUn capteur de scintillement a été introduit pour la première fois par Apple dans l’iPhone 7. Il lit le scintillement de la lumière artificielle et peut le compenser dans les photos et vidéos que vous prenez. Étant donné que le Vision Pro est principalement utilisé à l’intérieur dans des environnements dotés de lumière artificielle, vous pouvez comprendre pourquoi Apple en aurait besoin ici afin que lorsque vous voyez le monde qui vous entoure à travers le casque Vision Pro, aucun scintillement ne se produise à cause de la lumière artificielle.Détecteur de lumière ambiante(Crédit image : Future / Britta O’Boyle)Le dernier capteur de l’Apple Vision Pro est le capteur de lumière ambiante. Un capteur de lumière ambiante ajuste simplement la luminosité de l’écran en fonction de la zone environnante, et vous le trouvez dans toutes sortes de produits Apple, comme l’Apple Watch et les appareils iOS, mais l’utilisation la plus connue est d’éclairer le clavier de votre MacBook une fois qu’il fait sombre. Vision Pro en aura clairement besoin, car il doit connaître la luminosité de l’écran, selon qu’il est utilisé à la lumière du jour ou dans des environnements sombres.Des micros ?Enfin, nous devons penser aux microphones, car même si Apple reste discret sur ce que contiennent les six microphones de Vision Pro, ils sont probablement utilisés pour plus que de simples commandes vocales, d’une manière qui en fait presque des capteurs. Ils effectuent très probablement une analyse acoustique de la pièce pour faciliter l’illusion de réalité augmentée et maintenir les sons au même endroit lorsque vous tournez la tête.Nous mettrons à jour cette section et le reste de l’article avec plus d’informations sur les capteurs Vision Pro une fois que nous en saurons plus. window.reliableConsentGiven.then(function(){ !function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function() {n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)} ;if(!f._fbq)f._fbq=n; n.push=n;n.loaded=!0;n.version=’2.0′;n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window, document,’script’,’https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘1765793593738454’); fbq(‘track’, ‘PageView’); })

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*