Rendu 3D dans Google Maps

Google fait le choix de la photogrammétrie

Suite à l’article présenté sur ce blog, regardons si mes pronostics se sont avérés justes …

Ce mercredi soir, Google a présenté les nouvelles caractéristiques de Google Maps / Google Earth. Outre les fonctionalités de mode hors ligne et leur nouvel appareil de prises de vues embarqué dans un sac à dos (Street View Trekker, près de 20 kg), la nouveauté est effectivement l’avènement de la 3D généralisée sur des villes entières.

Street View Trekker en action
Street View Trekker en action – Source : Google

La 3D dans Google Maps

La technique retenue est celle de la photogrammétrie. Cette technique est éprouvée depuis de nombreuses décénies, avant même l’arrivée du numérique. Elle nécessitait tout le savoir faire d’un photogrammètre sur cet appareil de torture permettant de voir en 3D à partir de deux clichés argentiques :

Restituteur analogique
Restituteur analogique à l’Ecole Supérieure des Géomètres et Topographes.

Aujourd’hui, le photogrammètre travaille sur un ordinateur muni d’un écran 3D et des clichés numériques.

Concrètement, la technique repose sur la prise de vues aériennes d’une même scène sur deux angles de vue (stéréoscopie). La caméra embarquée sur l’avion prend un cliché, il avance et prend un second cliché, ce second cliché couvrant au minimum 60% du cliché précédant. On parle de recouvrement logitudinal. Sur les 60% en commun aux deux clichés, l’angle de prise de vue a changé et la restitution stéréoscopique (la 3D) est possible. Lorsque l’avion a terminé une bande (un axe de vol), il fait demi-tour et recommence et couvrant 30% de la bande précédante. On parle de recouvrement latéral.

Le recouvrement de 60%/30%
Le recouvrement de 60%/30% – Source : ENSG

Les deux angles de vue permettent, via une calibration, de voir en 3D. Seules deux images suffisent pour produire un modèle 3D (on parle aussi de modèle numérique de surface). Avec plus de deux images, on parle d’aérotrianglulation. On obtient un produit encore plus précis. Plus de détails sur la technique ici (avec des maths !)

Alors pourquoi Google prend aussi des clichés à 45° ?

Prises de vues aériennes selon Google
Prises de vues aériennes selon Google (Source : CNET)

En raison du phénomène d’occlusion : une fois le modèle construit, certains pans des bâtiments ne pouront pas être « drapés » de la photo aérienne. Un dessin permet de bien comprendre :

Phénomène d'occusion
Phénomène d’occlusion – Illustration (brouillonne – je le reconnais) de l’auteur.

Pour éliminer ce problème (il faut texturer tous les pans d’un immeuble), Google a choisi de réaliser des prises de vue obliques en plus des simples clichés destinés à faire le modèle 3D. Ainsi, l’avion faisant plusieurs passages pour quadriller la ville, un bâtiment est vu sous toutes les coutures. Il s’agit donc de « quadri-stéréoscopie ».

Notez que le satellite français Pléiades 1A (lancé fin 2011, Pléiades 1B à suivre) permet – via un dépointage – de photographier un scène sous deux voire trois angles et de faire un modèle 3D texturé. Cependant, la résolution des images est de 70 cm au nadir, et atteint rapidement 2m en dépointant. Ce qui ne permet pas d’obtenir le même résultat qu’avec un avion.

La technologie de photorestitution 3D automatique

Là où Google innove, c’est avec un système qui (et ils insistent là dessus) permet de faire la photorestitution de façon totalement automatique.

Modèle numérique de surface avec texturage
Modèle numérique de surface avec texturage

Mon expérience récente sur les logiciels spécifiques tels que Photomodler ou DVP montrait que ce traitement automatique foirait lamentablement à chaque tentative. (Bâtiments qui ressemblent à des patates plutôt qu’autre chose). Et quand ça marchait sur quelques morceaux à modéliser, il fallait des configurations surpuissantes (4 Go DDR3 minimum, un processeur de gamer, etc.) Pour obtenir un bon résultat, chaque élément devait donc être dessiné à l’écran en ayant pris soin de chausser ses lunettes 3D. C’est long et coûteux.

Le point clé dans le processus est la reconnaissance automatique d’un maximum de points homologues sur deux prises de vue d’une même scène. Plus il y a de points homologues, plus le modèle 3D est fin. Il faut donc disposer d’algorithmes de reconnaissance de forme très pointus. Reste à voir si Google a développé son système ou s’il a fait appel à une boite spécialisée, comme Apple l’a fait avec le suédois C3 Technologies. (Présentation de leur système carto dans une semaine.)

Conclusion

Mes pronostics n’étaient pas si faux. Les données 3D des scanners laser des voitures street view n’ont visiblement pas (encore ?) été utilisées. La photogrammétrie a été préférée au lidar (laser aéroporté.) Et les premiers résultats sont bluffants. La finesse des détails sur les bâtiments est à peine croyable.

Rendu 3D dans Google Maps
Rendu 3D dans Google Maps (ancienne version ?)

On remarque toutefois que le phénomène d’occlusion ne peut pas toujours être éliminé, surtout lorsque les immeubles hauts sont proches les uns des autres. Même en réduisant la focale de l’appareil imageur et en augmentant l’altitude de l’avion, l’opération est impossible.

Pour visualiser ceci : maps.google.com, activez MapsGL et rendez-vous sur une ville couverte, telle que San Francisco en mode earth. #EDIT (7/06/12) : il semble pour l’instant que le rendu visible n’est pas celui évoqué dans l’annonce mais provient du dessin des bâtiments avec Sketchup.

Apple abandonne la solution Google Maps pour son application Plans sur iOS. Voyons ce qu’Apple nous réserve de son côté !

4 réflexions sur “ Google fait le choix de la photogrammétrie ”

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *