Google aura donc grillé la priorité à Apple pour la mise à disposition des cartes en 3D sur iOS (iPhone 4S, iPad 2 & 3) dont nous parlions ici, via une mise à jour de Google Earth pour iOS.
Mise à jour Google Earth 7.0
Pas mal d’infos dans la description de la mise à jour, mais peu de villes sont pour l’instant couvertes. Pour rappel, Google a fait le choix de la photogrammétrie pour construire ses modèles 3D et des prises de vues à 45° pour éviter les occlusions.
Pour la solution 3D d’Apple, il faudra attendre iOS 6 dans quelques mois. On pourra alors comparer les deux solutions.
Suite à l’article présenté sur ce blog, regardons si mes pronostics se sont avérés justes …
Ce mercredi soir, Google a présenté les nouvelles caractéristiques de Google Maps / Google Earth. Outre les fonctionalités de mode hors ligne et leur nouvel appareil de prises de vues embarqué dans un sac à dos (Street View Trekker, près de 20 kg), la nouveauté est effectivement l’avènement de la 3D généralisée sur des villes entières.
Street View Trekker en action – Source : Google
La 3D dans Google Maps
La technique retenue est celle de la photogrammétrie. Cette technique est éprouvée depuis de nombreuses décénies, avant même l’arrivée du numérique. Elle nécessitait tout le savoir faire d’un photogrammètre sur cet appareil de torture permettant de voir en 3D à partir de deux clichés argentiques :
Restituteur analogique à l’Ecole Supérieure des Géomètres et Topographes.
Aujourd’hui, le photogrammètre travaille sur un ordinateur muni d’un écran 3D et des clichés numériques.
Concrètement, la technique repose sur la prise de vues aériennes d’une même scène sur deux angles de vue (stéréoscopie). La caméra embarquée sur l’avion prend un cliché, il avance et prend un second cliché, ce second cliché couvrant au minimum 60% du cliché précédant. On parle de recouvrement logitudinal. Sur les 60% en commun aux deux clichés, l’angle de prise de vue a changé et la restitution stéréoscopique (la 3D) est possible. Lorsque l’avion a terminé une bande (un axe de vol), il fait demi-tour et recommence et couvrant 30% de la bande précédante. On parle de recouvrement latéral.
Le recouvrement de 60%/30% – Source : ENSG
Les deux angles de vue permettent, via une calibration, de voir en 3D. Seules deux images suffisent pour produire un modèle 3D (on parle aussi de modèle numérique de surface). Avec plus de deux images, on parle d’aérotrianglulation. On obtient un produit encore plus précis. Plus de détails sur la technique ici (avec des maths !)
Alors pourquoi Google prend aussi des clichés à 45° ?
Prises de vues aériennes selon Google (Source : CNET)
En raison du phénomène d’occlusion : une fois le modèle construit, certains pans des bâtiments ne pouront pas être « drapés » de la photo aérienne. Un dessin permet de bien comprendre :
Phénomène d’occlusion – Illustration (brouillonne – je le reconnais) de l’auteur.
Pour éliminer ce problème (il faut texturer tous les pans d’un immeuble), Google a choisi de réaliser des prises de vue obliques en plus des simples clichés destinés à faire le modèle 3D. Ainsi, l’avion faisant plusieurs passages pour quadriller la ville, un bâtiment est vu sous toutes les coutures. Il s’agit donc de « quadri-stéréoscopie ».
Notez que le satellite français Pléiades 1A (lancé fin 2011, Pléiades 1B à suivre) permet – via un dépointage – de photographier un scène sous deux voire trois angles et de faire un modèle 3D texturé. Cependant, la résolution des images est de 70 cm au nadir, et atteint rapidement 2m en dépointant. Ce qui ne permet pas d’obtenir le même résultat qu’avec un avion.
La technologie de photorestitution 3D automatique
Là où Google innove, c’est avec un système qui (et ils insistent là dessus) permet de faire la photorestitution de façon totalement automatique.
Modèle numérique de surface avec texturage
Mon expérience récente sur les logiciels spécifiques tels que Photomodler ou DVP montrait que ce traitement automatique foirait lamentablement à chaque tentative. (Bâtiments qui ressemblent à des patates plutôt qu’autre chose). Et quand ça marchait sur quelques morceaux à modéliser, il fallait des configurations surpuissantes (4 Go DDR3 minimum, un processeur de gamer, etc.) Pour obtenir un bon résultat, chaque élément devait donc être dessiné à l’écran en ayant pris soin de chausser ses lunettes 3D. C’est long et coûteux.
Le point clé dans le processus est la reconnaissance automatique d’un maximum de points homologues sur deux prises de vue d’une même scène. Plus il y a de points homologues, plus le modèle 3D est fin. Il faut donc disposer d’algorithmes de reconnaissance de forme très pointus. Reste à voir si Google a développé son système ou s’il a fait appel à une boite spécialisée, comme Apple l’a fait avec le suédois C3 Technologies. (Présentation de leur système carto dans une semaine.)
Conclusion
Mes pronostics n’étaient pas si faux. Les données 3D des scanners laser des voitures street view n’ont visiblement pas (encore ?) été utilisées. La photogrammétrie a été préférée au lidar (laser aéroporté.) Et les premiers résultats sont bluffants. La finesse des détails sur les bâtiments est à peine croyable.
Rendu 3D dans Google Maps (ancienne version ?)
On remarque toutefois que le phénomène d’occlusion ne peut pas toujours être éliminé, surtout lorsque les immeubles hauts sont proches les uns des autres. Même en réduisant la focale de l’appareil imageur et en augmentant l’altitude de l’avion, l’opération est impossible.
Pour visualiser ceci : maps.google.com, activez MapsGL et rendez-vous sur une ville couverte, telle que San Francisco en mode earth. #EDIT (7/06/12) : il semble pour l’instant que le rendu visible n’est pas celui évoqué dans l’annonce mais provient du dessin des bâtiments avec Sketchup.
Apple abandonne la solution Google Maps pour son application Plans sur iOS. Voyons ce qu’Apple nous réserve de son côté !