Archives pour l'étiquette Photogrammétrie

Carto 3D : zoom sur la start-up Earthmine

Présentation

Basée dans la Silicon Valley, à Berkeley, en Californie, la société Earthmine a été fondée en 2006 par John Ristevski et Anthony Fassero. Elle a pour ambition, à l’instar de Google Street View, de faire des relevés de corps de rues, d’indexer la réalité si on traduit littéralement son slogan. J’avais présenté comment étaient réalisées les prises de vues de Google dans cet article. Nous allons voir que la technologie utilisée par Earthmine permet d’en faire plus en comparaison de Street View, ce dernier permettant seulement de visualiser des vues immersives. Attention cependant, Earthmine se contente de vendre une technologie clefs en main et non pas de sillonner les rues pour son compte comme le fait Google.

earthminelogo

Technologie de collecte des données

Earthmine utilise une technologie assez différente de celle du Google Street View. Cette technologie a été développée par un laboratoire de la NASA (le Jet Propulsion Laboratory) et se nomme MARS. On devine bien pourquoi ce système a été développé ! La technologie a donc été rachetée et adaptée par Earthmine pour l’utilisation en milieu urbain.

Le principe de collecte des données est la photogrammétrie terrestre. Nous avons déjà évoqué le principe de la photogrammétrie pour des prises de vues aériennes. Ici, la prise de vues se fait depuis la terre ferme (en voiture, en tricycle, sur un train, etc.) Rappelons simplement que la photogrammétrie implique une prise de vues stéréoscopique, c’est à dire de prendre une photo d’un lieu depuis deux angles différents. (On peut ajouter un angle de vue supplémentaire pour faire de la tri-stéréoscopie.)

earthmine_Mars_web

Le système est composé :

  • de 4 caméras grand angle en haut du mât (8 mégapixels chacune)
  • de 4 caméras grand angle en bas du mât (8 mégapixels chacune)
  • d’une antenne et d’un récepteur GNSS (GPS + Glonass pour assurer une précision centimétrique dans les corridors urbains)
  • d’une centrale inertielle

mars3(1)

Un moteur permet de plier le mât, c’est utile pour passer sous un pont trop bas … Dans le véhicule, un ordinateur muni du logiciel « earthmine Capture Control » épaulé d’une armée de disques durs permet le pilotage du système et la sauvegarde.

Au final, ce sont deux images couvrant chacune un tour d’horizon complet (360°) qui sont acquises à chaque prise de vue. L’image résultante couvre tout l’environnement (360°x180°) et a une définition de 32 mégapixels. La qualité des images (résolution, colorimétrie, distorsion …) est sans comparaison avec les images de Google. Mais la technologie Earthmine est plus récente.

Et la grande valeur ajoutée, c’est le traitement photogrammétrique (automatisé) qui permet d’obtenir un nuage de points 3D sur une partie un peu plus réduite que la photo (360°x165°). 8 millions de points sont calculés par image et 24 millions par seconde d’acquisition. Et ce, sans scanner laser 3D (aussi connu sous le nom de lidar). D’ailleurs, cette technologie permet de créer des nuages de points beaucoup pus denses qu’avec un scanner laser, surtout à grande vitesse.

À chaque acquisition, le système enregistre la position du mât via le récepteur GNSS et son attitude via la centrale inertielle (inclinaison du mât selon les trois angles de tangage, de roulis et de lacet.) Ainsi, à chaque pixel de la photo est associé un point 3D qui lui même possède des coordonnées (avec une certaine précision, nous y reviendrons.) Nous allons voir quelles applications sont possibles.

Technologie de traitement des données / Applications

La technologie Earthmine est utilisée un peu partout dans le monde. Earthmine a développé des outils logiciels qui permettent d’exploiter le nuage de points construit au fur et à mesure de la collecte de données.

  • Un premier logiciel (Earthmine Viewer) permet de se promener dans les rues au travers des vues immersives, comme on le ferait dans Google Street View. Il permet de prendre des mesures sur la photo : hauteur d’un lampadaire, surface d’un panneau, largeur de la chaussée, etc.
  • Un applicatif pour ArcGIS a été développé en collaboration avec ESRI. L’utilisateur se promène dans les vues immersives acquises et peut cliquer sur les objets qu’il souhaite répertorier. Ces objets sont tout de suite visibles sur la partie cartographique ou dans une table. La ville de Greater Geelong, en Australie, a choisi cette méthode pour répertorier tous les arbres et toute la signalisation routière dans son SIG. À San Diego en Californie, le système est utilisé pour inspecter l’état des chaussées, localiser les endroits dégradés, tracer les zones à réparer et donc calculer la surface totale à rénover. Ceci permet d’estimer la durée et le coût des travaux.
  • Un applicatif pour AutoCAD Map 3D a été développé (puis approuvé par Autodesk) et permet de la même façon de tracer directement sur la vue immersive. Le dessin se construit en même temps dans l’espace objet d’AutoCAD. Ainsi, il est possible de réaliser tout le levé topographique d’un corps de rue bien au chaud (ou au frais en été) dans sa voiture puis au bureau. Bouches à clé, bordures de trottoirs, avaloirs, regards, plaques d’égoût, marquage au sol, signalisation, facades de bâtiments … Autant d’éléments rapidement traçables et immédiatement géoréférencés. La rapidité d’intervention sur le terrain est sans comparaison avec celle d’un levé topographique classique.


Certes, la précision n’est pas celle d’un véritable levé topographique mais la qualité du nuage de points annoncée dans les videos de démonstration est de 3 à 4 cm. On peut lire sur différents sites web que la précision est d’environ 10 cm. C’est plus que suffisant pour une application SIG. Un inconvénient subiste : c’est celui des masques. Si une voiture est garée devant un avaloir ou sur une plaque d’égout, il est impossible d’être exhaustif dans le levé.

Une évolution majeure serait la reconnaissance et l’extraction automatique des objets (bordures de trottoirs, marquage au sol, etc.) Certains concurrents proposent déjà cette fonctionnalité (par exemple Trimble pour son système MX).

En France, le groupe PagesJaunes a utilisé la technologie Earthmine pour intégrer dans Mappy sa propre solution de vues immersives. Cette solution s’appelle UrbanDive. Elle vient directement concurrencer ce fameux Google Street View sur le territoire français (dans quelques villes pour l’instant.) Le nuage de points 3D est sous utilisé, mais il permet par exemple de placer des repères aux pas de portes de bâtiments pour indiquer les commerces, les administrations, etc. C’est à ce jour et à ma connaissance la seule entreprise française qui utilise la technologie proposée par Earthmine.

Reportage sur UrbanDive à Tours from UrbanDive on Vimeo.

Retrouvez toutes les videos de démonstration de ces applicatifs sur cette page, c’est impressionnant.

Autres applications

Inventaire du mobilier urbain, sécurité publique (vérification des gabarits routiers pour les véhicules d’urgence) gestion des espaces publicitaires (vérification des surfaces d’affichage pour contrôle fiscal) architecture, ingénierie, surveillance d’un réseau ferré … Mais aussi de la création de décors pour les jeux videos, de la réalité augmentée (exposition Monumenta à Paris), etc.

Services annexes

Earthmine propose également :

  • une solution de stockage en ligne des données (earthmine Cloud, via les webservices d’Amazon) C’est un point important : la quantité de données est très importante et doit être disponible immédiatement en cas d’utilisation par des tiers,
  • des SDK en Flash ou pour iOS (un exemple d’application ici)

L’utilisation de la technologie Earthmine se fait soit par l’achat du matériel, soit en louant leurs services.

Concurrents

Le coût de cette technologie n’est pas public. Mais il serait très intéressant de le comparer avec le prix de la solution proposée par Trimble : le modèle MX8 (technologie scanner laser, plus précis.) La suite logicielle nécessaire au traitement est un point crucial, d’autant que c’est cette partie du travail qui est la plus conséquente.

Un futur qui se construira avec Nokia

Earthmine a été rachetée fin novembre 2012 par le géant finlandais des télécoms. Nokia a déjà une belle solution cartographique avec Nokia Maps (anciennement Ovi) mais on se doute bien de ses intentions avec ce rachat.

Pour en savoir plus, visitez le site d’Earthmine.

Google fait le choix de la photogrammétrie

Suite à l’article présenté sur ce blog, regardons si mes pronostics se sont avérés justes …

Ce mercredi soir, Google a présenté les nouvelles caractéristiques de Google Maps / Google Earth. Outre les fonctionalités de mode hors ligne et leur nouvel appareil de prises de vues embarqué dans un sac à dos (Street View Trekker, près de 20 kg), la nouveauté est effectivement l’avènement de la 3D généralisée sur des villes entières.

Street View Trekker en action
Street View Trekker en action – Source : Google

La 3D dans Google Maps

La technique retenue est celle de la photogrammétrie. Cette technique est éprouvée depuis de nombreuses décénies, avant même l’arrivée du numérique. Elle nécessitait tout le savoir faire d’un photogrammètre sur cet appareil de torture permettant de voir en 3D à partir de deux clichés argentiques :

Restituteur analogique
Restituteur analogique à l’Ecole Supérieure des Géomètres et Topographes.

Aujourd’hui, le photogrammètre travaille sur un ordinateur muni d’un écran 3D et des clichés numériques.

Concrètement, la technique repose sur la prise de vues aériennes d’une même scène sur deux angles de vue (stéréoscopie). La caméra embarquée sur l’avion prend un cliché, il avance et prend un second cliché, ce second cliché couvrant au minimum 60% du cliché précédant. On parle de recouvrement logitudinal. Sur les 60% en commun aux deux clichés, l’angle de prise de vue a changé et la restitution stéréoscopique (la 3D) est possible. Lorsque l’avion a terminé une bande (un axe de vol), il fait demi-tour et recommence et couvrant 30% de la bande précédante. On parle de recouvrement latéral.

Le recouvrement de 60%/30%
Le recouvrement de 60%/30% – Source : ENSG

Les deux angles de vue permettent, via une calibration, de voir en 3D. Seules deux images suffisent pour produire un modèle 3D (on parle aussi de modèle numérique de surface). Avec plus de deux images, on parle d’aérotrianglulation. On obtient un produit encore plus précis. Plus de détails sur la technique ici (avec des maths !)

Alors pourquoi Google prend aussi des clichés à 45° ?

Prises de vues aériennes selon Google
Prises de vues aériennes selon Google (Source : CNET)

En raison du phénomène d’occlusion : une fois le modèle construit, certains pans des bâtiments ne pouront pas être « drapés » de la photo aérienne. Un dessin permet de bien comprendre :

Phénomène d'occusion
Phénomène d’occlusion – Illustration (brouillonne – je le reconnais) de l’auteur.

Pour éliminer ce problème (il faut texturer tous les pans d’un immeuble), Google a choisi de réaliser des prises de vue obliques en plus des simples clichés destinés à faire le modèle 3D. Ainsi, l’avion faisant plusieurs passages pour quadriller la ville, un bâtiment est vu sous toutes les coutures. Il s’agit donc de « quadri-stéréoscopie ».

Notez que le satellite français Pléiades 1A (lancé fin 2011, Pléiades 1B à suivre) permet – via un dépointage – de photographier un scène sous deux voire trois angles et de faire un modèle 3D texturé. Cependant, la résolution des images est de 70 cm au nadir, et atteint rapidement 2m en dépointant. Ce qui ne permet pas d’obtenir le même résultat qu’avec un avion.

La technologie de photorestitution 3D automatique

Là où Google innove, c’est avec un système qui (et ils insistent là dessus) permet de faire la photorestitution de façon totalement automatique.

Modèle numérique de surface avec texturage
Modèle numérique de surface avec texturage

Mon expérience récente sur les logiciels spécifiques tels que Photomodler ou DVP montrait que ce traitement automatique foirait lamentablement à chaque tentative. (Bâtiments qui ressemblent à des patates plutôt qu’autre chose). Et quand ça marchait sur quelques morceaux à modéliser, il fallait des configurations surpuissantes (4 Go DDR3 minimum, un processeur de gamer, etc.) Pour obtenir un bon résultat, chaque élément devait donc être dessiné à l’écran en ayant pris soin de chausser ses lunettes 3D. C’est long et coûteux.

Le point clé dans le processus est la reconnaissance automatique d’un maximum de points homologues sur deux prises de vue d’une même scène. Plus il y a de points homologues, plus le modèle 3D est fin. Il faut donc disposer d’algorithmes de reconnaissance de forme très pointus. Reste à voir si Google a développé son système ou s’il a fait appel à une boite spécialisée, comme Apple l’a fait avec le suédois C3 Technologies. (Présentation de leur système carto dans une semaine.)

Conclusion

Mes pronostics n’étaient pas si faux. Les données 3D des scanners laser des voitures street view n’ont visiblement pas (encore ?) été utilisées. La photogrammétrie a été préférée au lidar (laser aéroporté.) Et les premiers résultats sont bluffants. La finesse des détails sur les bâtiments est à peine croyable.

Rendu 3D dans Google Maps
Rendu 3D dans Google Maps (ancienne version ?)

On remarque toutefois que le phénomène d’occlusion ne peut pas toujours être éliminé, surtout lorsque les immeubles hauts sont proches les uns des autres. Même en réduisant la focale de l’appareil imageur et en augmentant l’altitude de l’avion, l’opération est impossible.

Pour visualiser ceci : maps.google.com, activez MapsGL et rendez-vous sur une ville couverte, telle que San Francisco en mode earth. #EDIT (7/06/12) : il semble pour l’instant que le rendu visible n’est pas celui évoqué dans l’annonce mais provient du dessin des bâtiments avec Sketchup.

Apple abandonne la solution Google Maps pour son application Plans sur iOS. Voyons ce qu’Apple nous réserve de son côté !