Un capteur Lidar sur l’iPhone

À la vitesse de la lumière

Par
Publié le 17/11/2020
Article réservé aux abonnés
Introduit par Apple sur l'iPad Pro au printemps dernier, le scanner Lidar, dédié à la télédétection par laser, est présenté comme une avancée notable sur les iPhone 12 Pro et Pro Max. Quelles sont les promesses de cette technologie qui n’est pas surgie de nulle part ?

Après le son (sonar) et les ondes radio (radar), c’est au tour de la lumière de servir à mesurer les distances et à détecter les obstacles, afin, dans le cas des smartphones, d’améliorer la qualité des photographies ainsi que l’usage de la réalité augmentée.

Apple présente l’introduction d’un capteur Lidar (Light Detection And Ranging) comme une plus-value inédite, puisque « la NASA utilise la technologie Lidar pour sa prochaine expédition sur Mars ». C’est oublier que celle-ci existe depuis près de 60 ans et qu’elle a déjà permis aux astronautes de la mission Apollo 15 de cartographier la surface de la Lune en 1971.

De fait, le Lidar, qui a déjà fait les beaux jours du Kinect 2 de Microsoft, est utilisé dans de nombreux métiers de l’architecture, de l’ingénierie, de la construction ou de l’industrie Tech : casques VR, drones, écrans, robots et bien sûr voitures autonomes, puisqu’il a remplacé le classique radar pour cartographier leur environnement en trois dimensions afin d’éviter les obstacles.

Sur les smartphones, la télédétection par la lumière a d’abord été employée pour la reconnaissance faciale en 3D, avant de migrer vers l’arrière de l’appareil à côté des autres capteurs photo. Apple (iPhone 11 Pro) mais aussi Samsung (Galaxy S20 et S20 Ultra) ou Huawei (P30 Pro) utilisaient alors des capteurs Time of Flight (ToF), moins performants puisqu’ils n’envoient qu’un seul large rayon infrarouge, tandis que le capteur Lidar balaye la zone en envoyant de nombreux faisceaux lumineux plus petits.

Apple mène une nouvelle fois la danse avec le capteur Lidar implanté dans l’iPhone 12, et revendique une vitesse multipliée par 6 par rapport à celle du capteur Tof de l’iPhone 11 Pro et donc un autofocus beaucoup plus réactif pour les sujets situés à plus de 5 mètres. On constate aisément le jour, et surtout dans les faibles éclairages, que la mise au point est plus rapide. En outre, le fait d’analyser l’environnement en 3D permet aux algorithmes de photo de mieux détacher l’arrière-plan du premier plan et de bonifier les effets du mode portrait nocturne.

Les applications qui misent sur la réalité augmentée bénéficient par ailleurs pleinement du scanner Lidar. Qu’elles soient pratiques, comme celles destinées à mesurer une personne ou à choisir un meuble à distance en simulant sa représentation dans une pièce, ou bien ludiques, comme Pokémon Go ou Snapchat, dont un nouveau filtre est réservé à l’iPhone 12 Pro. Les pistes reposant sur une cartographie du monde réel en 3D pour y superposer des objets virtuels sont nombreuses.

À noter enfin que la dernière mise à jour de l’iPhone iOS 14.2 a introduit, grâce au Lidar, une fonction de détection des personnes jusqu’à 5 mètres, pour aider les malvoyants à se situer par rapport aux autres, savoir si un siège est disponible, maintenir une distance physique adéquate dans une file d’attente, etc.

Mostefa Brahim

Source : Le Quotidien du médecin