« Non, ça n’est pas la vraie taille du Groenland. »
Introduction
Une projection consiste à représenter sur deux dimensions (un feuille de papier ou un écran) une réalité qui a trois dimensions. Sur internet, les services de cartographie ne jurent principalement que par la projection de Mercator. Cette projection conserve les angles mais pas les surfaces. On parle de projection conforme.
Google Maps utilise une projection de Mercator
On voit sur l’exemple ci-dessus que le Groenland est très déformé. Plus on s’éloigne de l’équateur, plus les déformations sont importantes.
Il existe des alternatives, qui permettent de concilier au mieux « surface » et « angles » pour représenter un pays. Par exemple, en France, c’est la projection conique conforme de Lambert qui est la mieux adaptée. Elle consiste à projeter la sphère terrestre sur un cône, puis à aplatir le cône.
Une projection qui conserve les surfaces est dite équivalente.
La projection de Peters est équivalente
Ci-dessus un exemple de projection dite équivalente. Les surfaces sont conservées, mais le contour des continents est très déformé.
Il n’existe pas de projection qui permette de conserver à la fois angles et surfaces. Par contre, il existe des projections qui ne conservent ni angles ni surfaces. Elles sont dites aphylactiques. Elles peuvent parfois conserver les distances sur les méridiens.
Manipuler la Terre dans différentes projections
Gregor Aisch développe une bibliothèque de web-mapping nommée Kartograph. Elle est basée sur du 100% vecteur. Exit le concept de tuiles. Il en profite pour nous proposer une interface graphique permettant de choisir la projection souhaitée dans l’utilisation de son module de web-mapping. On peut même en extraire le script.
Exemple du module de projection de Kartograph
Je trouve le concept très pratique et a le mérite de nous montrer concrètement l’utilité des différents paramètres d’une projection. En jouant sur les curseurs bleus, la carte se déforme. En faisant un cliqué-glissé sur la carte, on peut déplacer la vue.
Au final, 27 projections différentes peuvent être affichées.
La bibliothèque Kartograph est en cours de développement, mais on aura probablement l’occasion de la passer en revue dans la pratique prochainement.
Le time-lapse est une technique cinématographique consistant à diffuser une série d’images plus vite que son rythme d’acquisition.
Exemple : je prends des photos toutes les 10 secondes puis je les monte en video pour les faire défiler à un rythme de 25 images/seconde. On visualise donc un phénomène 250 fois plus vite que son rythme réel.
C’est une technique idéale pour visualiser un phénomène trop lent, imperceptible à l’oeil nu. Par exemple, l’évolution de la marée, la construction d’un bâtiment, ou même … la rotation de la Terre ! Ou des étoiles plutôt. Enfin, ça revient au même finalement 😉
Il faut un minimum de matériel et de connaissances en photo :
un appareil photo numérique (réflex de préférence)
un intervalomètre (s’il n’est pas intégré dans l’appareil)
un trépied ou un dispositif pour que l’appareil ne bouge pas
un objectif grand champ de préférence
une carte mémoire avec une bonne capacité
On va choisir un réglage manuel : il faut que l’exposition, le temps d’obturation, l’ouverture et la balance des blancs restent constants. (Nous verrons pourquoi.) Typiquement pour la nuit, 1000 ISO, 10 secondes, F5. On prend du jpeg plutôt que du RAW pour gagner de la place et une résolution moyenne, sachant que la video produite n’a pas besoin de dépasser le full HD (1080×1920).
On prend une image toutes les 15 secondes. Ce qui donne 240 images par heure. Donc en une heure d’acquisitions, on produit environ 10 secondes de film. Ouais, j’ai fait maths sup et maths spé :p
Le problème, c’est que ce réglage fixe est optimal pour la nuit noire, mais ne permet pas de prendre d’images au crépuscule, car avec 10 secondes de pose, les images seront surexposées. Et si l’on modifie les réglages durant l’acquisition, on risque de faire bouger l’appareil et de manquer des clichés.
Ok, j’ai mes photos, j’en fait quoi ?
Il faut les assembler. J’ai utilisé time-lapse assembler sur Mac. Il suffit d’indiquer le répertoire où se trouvent les images
Un second time-lapse a été réalisé en intérieur dans une véranda (on élimine le vent mais on ajoute des reflets) et en choisissant le mode semi-automatique priorité vitesse. L’appareil va donc jouer sur l’ouverture. Cela permet de prendre des clichés dès le coucher du soleil jusqu’à la nuit et de faire autre chose que de poireauter derrière l’appareil. L’inconvénient, c’est les sauts d’exposition qui, même s’ils sont légers, font scintiller la video. Il faut alors traiter les photos par lot avec un programme d’anti-flickering. Ca ne résout pas tout, il faut que je perfectionne les images dès la prise de vue. (Mesure de lumière matricielle VS. spot VS. pondérée ?)
Prometheus est un film de science-fiction réalisé par Ridley Scott, sorti en salles le 30 mai 2012. Pourquoi parler d’un film de science-fiction sur ce blog ? Et bien parce que ce film, dont l’intrigue est en 2093, montre un concept intéressant de scanner laser 3D pour réaliser la topographie souterraine des galeries d’une pyramide. Je vous laisse regarder la bande annonce.
Vous l’aurez sans doute remarqué : on voit la carte souterraine en 3D sous forme d’hologramme puis des sphères volantes qui balaient les parois d’un laser rouge, à environ 1’10 ». Ces sphères sont autonomes, elles explorent automatiquement toutes les galeries.
On voit que les sphères transmettent les données au vaisseau en direct et la carte se construit au fur et à mesure. J’ai vu le film au cinéma, en 3D, et le rendu est superbe 😉
Ci-dessous, on voit la carte des galeries. L’exploration ne fait que débuter et la carte se complète et se dévoile tout au long du film.
Carte des galeries sous forme d'hologramme - Positionnement des membres de l'équipe d'exploration.
Les scanners laser 3D ont cet aspect :
Le scanner laser 3D de la compagnie Weyland ElectronicsLe scanner laser en action
Les puristes se poseront la question de savoir dans quel système le levé est réalisé, comment les scanner-laser 3D sont géoréférencés (surtout en galerie) et pourquoi avoir choisi un laser rouge et non vert …
Tout ceci semble n’être que science fiction. Sauf que …
Tout ceci semble être de la science-fiction. Certes, on sait faire voler de petits objets, tels des petits drones, qui pourraient embarquer un scanner. Les scanners laser que je connaissais jusqu’à présent font au moins 5 kg, charge difficilement supportable par un petit drone. Sauf que le fabricant japonais Hokuyo produit un scanner laser qui fait seulement … 160 g !
Le scanner laser de chez Hokuyo
Vous pouvez retrouver les caractéristiques techniques de cet appareil ici, mais la précison annoncée est de ± 3 cm. Ce qui est suffisant pour lever une galerie souterraine sur une planète située aux confins de l’univers :p
Des chercheurs du GRASP (université de Pennsylvanie) ont adapté ce scanner laser sur un petit drone, ont probablement ajouté un système de localisation radio et ont abouti à ceci. (Ça commence à 12’30 ».) Personnellement, je suis bluffé !
Suite à l’article présenté sur ce blog, regardons si mes pronostics se sont avérés justes …
Ce mercredi soir, Google a présenté les nouvelles caractéristiques de Google Maps / Google Earth. Outre les fonctionalités de mode hors ligne et leur nouvel appareil de prises de vues embarqué dans un sac à dos (Street View Trekker, près de 20 kg), la nouveauté est effectivement l’avènement de la 3D généralisée sur des villes entières.
Street View Trekker en action – Source : Google
La 3D dans Google Maps
La technique retenue est celle de la photogrammétrie. Cette technique est éprouvée depuis de nombreuses décénies, avant même l’arrivée du numérique. Elle nécessitait tout le savoir faire d’un photogrammètre sur cet appareil de torture permettant de voir en 3D à partir de deux clichés argentiques :
Restituteur analogique à l’Ecole Supérieure des Géomètres et Topographes.
Aujourd’hui, le photogrammètre travaille sur un ordinateur muni d’un écran 3D et des clichés numériques.
Concrètement, la technique repose sur la prise de vues aériennes d’une même scène sur deux angles de vue (stéréoscopie). La caméra embarquée sur l’avion prend un cliché, il avance et prend un second cliché, ce second cliché couvrant au minimum 60% du cliché précédant. On parle de recouvrement logitudinal. Sur les 60% en commun aux deux clichés, l’angle de prise de vue a changé et la restitution stéréoscopique (la 3D) est possible. Lorsque l’avion a terminé une bande (un axe de vol), il fait demi-tour et recommence et couvrant 30% de la bande précédante. On parle de recouvrement latéral.
Le recouvrement de 60%/30% – Source : ENSG
Les deux angles de vue permettent, via une calibration, de voir en 3D. Seules deux images suffisent pour produire un modèle 3D (on parle aussi de modèle numérique de surface). Avec plus de deux images, on parle d’aérotrianglulation. On obtient un produit encore plus précis. Plus de détails sur la technique ici (avec des maths !)
Alors pourquoi Google prend aussi des clichés à 45° ?
Prises de vues aériennes selon Google (Source : CNET)
En raison du phénomène d’occlusion : une fois le modèle construit, certains pans des bâtiments ne pouront pas être « drapés » de la photo aérienne. Un dessin permet de bien comprendre :
Phénomène d’occlusion – Illustration (brouillonne – je le reconnais) de l’auteur.
Pour éliminer ce problème (il faut texturer tous les pans d’un immeuble), Google a choisi de réaliser des prises de vue obliques en plus des simples clichés destinés à faire le modèle 3D. Ainsi, l’avion faisant plusieurs passages pour quadriller la ville, un bâtiment est vu sous toutes les coutures. Il s’agit donc de « quadri-stéréoscopie ».
Notez que le satellite français Pléiades 1A (lancé fin 2011, Pléiades 1B à suivre) permet – via un dépointage – de photographier un scène sous deux voire trois angles et de faire un modèle 3D texturé. Cependant, la résolution des images est de 70 cm au nadir, et atteint rapidement 2m en dépointant. Ce qui ne permet pas d’obtenir le même résultat qu’avec un avion.
La technologie de photorestitution 3D automatique
Là où Google innove, c’est avec un système qui (et ils insistent là dessus) permet de faire la photorestitution de façon totalement automatique.
Modèle numérique de surface avec texturage
Mon expérience récente sur les logiciels spécifiques tels que Photomodler ou DVP montrait que ce traitement automatique foirait lamentablement à chaque tentative. (Bâtiments qui ressemblent à des patates plutôt qu’autre chose). Et quand ça marchait sur quelques morceaux à modéliser, il fallait des configurations surpuissantes (4 Go DDR3 minimum, un processeur de gamer, etc.) Pour obtenir un bon résultat, chaque élément devait donc être dessiné à l’écran en ayant pris soin de chausser ses lunettes 3D. C’est long et coûteux.
Le point clé dans le processus est la reconnaissance automatique d’un maximum de points homologues sur deux prises de vue d’une même scène. Plus il y a de points homologues, plus le modèle 3D est fin. Il faut donc disposer d’algorithmes de reconnaissance de forme très pointus. Reste à voir si Google a développé son système ou s’il a fait appel à une boite spécialisée, comme Apple l’a fait avec le suédois C3 Technologies. (Présentation de leur système carto dans une semaine.)
Conclusion
Mes pronostics n’étaient pas si faux. Les données 3D des scanners laser des voitures street view n’ont visiblement pas (encore ?) été utilisées. La photogrammétrie a été préférée au lidar (laser aéroporté.) Et les premiers résultats sont bluffants. La finesse des détails sur les bâtiments est à peine croyable.
Rendu 3D dans Google Maps (ancienne version ?)
On remarque toutefois que le phénomène d’occlusion ne peut pas toujours être éliminé, surtout lorsque les immeubles hauts sont proches les uns des autres. Même en réduisant la focale de l’appareil imageur et en augmentant l’altitude de l’avion, l’opération est impossible.
Pour visualiser ceci : maps.google.com, activez MapsGL et rendez-vous sur une ville couverte, telle que San Francisco en mode earth. #EDIT (7/06/12) : il semble pour l’instant que le rendu visible n’est pas celui évoqué dans l’annonce mais provient du dessin des bâtiments avec Sketchup.
Apple abandonne la solution Google Maps pour son application Plans sur iOS. Voyons ce qu’Apple nous réserve de son côté !
Que nous réserve Google pour le 6 juin ?
« The next dimension of Google Maps » Pour l’instant, on est en 2D. (Une vue polaire dans Street View : angles vertical et horizontal.)
La « prochaine dimension » serait la 3D donc ? J’ai ma petite idée là-dessus …
Depuis plusieurs années déjà, les Google Car sillonnent les rues et routes d’un grand nombre de pays.
Pour l’instant, ce que l’on peut voir sur Street View sont de simples photos panoramiques géoréférencées. Mais cette photo du mat d’une Google Car me dit que d’autres données ont été acquises …
Vue détaillée d'un mat de Google Car (photo : ekstreme.com)
Ces voitures enregistrent donc au moins 3 données :
des images panoramiques (8 caméras grand angle sur le mat)
les coordonnées de chaque prise de vue (au moins métriques, à l’aide d’une antenne GPS bi-fréquence vraissemblablement, positionnée sur le toit de la voiture)
un nuage de points 3D (à l’aide de deux scanners-laser 3D accrochés de part et d’autre du mat de la voiture)
On peut soupçonner la présence d’une centrale inertielle dans le mat, afin de disposer de son attitude et de recaler à la fois les images et le nuage de points 3D à l’horizontale. On sait aussi que des données WiFi étaient enregistrées. Lorsque la voiture passait dans une rue, elle captait les routeurs WiFi. Comme la voiture embarque un GPS, elle pouvait associer une localisation à chaque routeur. Ainsi, lorsqu’un utilisateur de smartphone ne capte pas de signaux GPS mais des signaux WiFi, il peut quand même se géolocaliser. Cette technique fait aussi appel à la localisation des antennes relais captées par le téléphone. Outre Google, SkyHook-wireless travaille dans ce domaine. Désormais, ce ne sont plus les voitures qui enregistrent les points WiFi mais directement vos smartphones.
Mais au fait, c’est quoi ces scanners-laser 3D ?
Pour faire simple, il s’agit d’appareils qui émettent un rayon laser (vert ou infrarouge) et qui mesurent la durée aller-retour de l’implusion laser. On peut donc en déduire la distance du point d’impact du laser (la façade d’une maison par exemple) depuis le mat.
Cette opération de mesure de distance est faite des centaines, voire des milliers de fois par seconde. Un petit miroir dans l’appareil, actionné par un moteur, réfléchit le rayon laser avant qu’il ne soit émis. On créé alors un balayage du laser, de haut en bas. On réalise donc un profil vertical. La voiture avance, donc on modélise une surface en 3D. On rappelle qu’un scanner se trouve de chaque côté de la voiture. Les relevés se font des côtés gauche et droit de la voiture, ce qui permet de lever tout le corps de rue.
On dispose maintenant de notre nuage de points en 3D.
Source : Christian Früh
Comme dans un jeu-video, il faut habiller cette surface 3D. Et pour cela, on va utiliser les photos réalisées et les « plaquer » sur le nuage de points :
Source : Christian Früh
Allons plus loin …
Imaginons maintenant que le même principe soit mis en place sur un avion …
L’avion prend des photos et créé un modèle 3D du sol avec un laser (lidar) ou par photogrammétrie. Tous les ingrédients sont réunis pour faire une maquette 3D. En combinant les données créées au sol plus celles créées en vol, on est capable de composer ceci :
Maquette 3D. Source : Christian Früh
Voilà à peu près ce que Google devrait nous présenter le 6 juin. Du moins j’en fais le pari 😉 On notera que ceci existe déjà peu ou prou dans Google Earth pour le relief et les bâtiments qui ont été dessinés manuellement.
Tu es geek, adepte du rétro-gaming ? Tu aimes la cartographie ? Tu es nostalgique des graphismes 8 bits ? Alors Duncan Barclay a pensé à toi !
Il a adapté le thème du Tower Defense (voir la définition sur Wikipédia) sur la couche Quest de Google Maps et en a fait un jeu avec l’API Google Maps : MapsTD.
Le principe est simple : défendre une position en plaçant des tours de défense.
Tu choisis un lieu à défendre.
Tu places une tour de défense en la faisant glisser à proximité du chemin bleu (disponible dans le menu de droite). La tour ne peut pas être placée SUR le chemin.
Tu cliques sur Start. Des assaillants arrivent par le chemin bleu sur ta position.
Si ta défense est bonne, ils sont tous détruits. Sinon tu perds de la vie.
Au round suivant, soit tu économises l’argent gagné si ta défense est solide, sois tu investis dans une nouvelle tour. Il existe des tours plus ou moins puissantes, plus ou moins onéreuses, avec plus ou moins de portée. On verra plus bas que l’on peut aussi upgrader (améliorer en bon français 😉 ) les tours.
Voici une capture d’écran du jeu en défendant Toulouse :
Le jeu se complique au fur et à mesure, de deux façons :
les assaillants sont plus nombreux et plus durs à vaincre
de nouveaux itinéraires pour les assaillants sont ajoutés
Il faut donc ajouter des tours de défense sur les chemins existants mais aussi sur les chemins ajoutés au fil de la partie.
Il y a aussi possibilité d’améliorer les tours de défense (portée, dommages). Pour cela, on clique sur la tour, un nouveau menu apparaît. On achète les améliorations niveau par niveau (il faut acheter les niveaux 1 puis 2 puis 3 pour acheter le 4).
Si tu manques de place, tu peux dans ce même menu vendre la tour pour la remplacer par une plus puissante.
Le jeu se termine au niveau 50, on y arrive sans trop de difficultés. On peut soit continuer avec le niveau 51, soit changer de lieu en repartant de zéro.
On ne présente plus OpenStreetMap, ce projet de cartographie mondial collaboratif, ouvert et donc gratuit.
Il a été récemment adopté par Foursquare, Wikipedia et Apple pour son application iPhoto. (Sans citer les contributeurs d’ailleurs. Grrrr …) Microsoft avait déjà accordé l’usage de ses images Bing pour faire avancer la production de cartes, tout comme la DGFiP (Direction Générale des Finances Publiques) en proposant les feuilles de cadastre scannées ou carrément les objets vecteurs de la base PCI.
Tout ceci a grandement facilité l’évolution de la carte en France, puisque les contributions ne pouvaient à l’origine que se faire par l’enregistrement de traces GPS.
Dans certains pays (Indonésie, Bosnie …) OpenStreetMap propose des cartes plus riches que celles de Google Maps !
Que ce soit en France ou ailleurs, le rendu standard n’est pas toujours très beau et on peut avoir envie de créer des cartes originales.
MapOSMaticpermet de produire un carte assez standard, avec un carroyage et une annexe comportant la liste des rues visibles sur la carte. Un exemple ici.
FranceTopo propose une cartographie orientée topographie/cartes de randonnées en combinant non seulement les données OSM mais aussi les données de la mission SRTM (Shuttle Radar Topography Mission – NASA). Cette dernière apporte un modèle numérique de terrain constitué par interférométrie radar, ce qui donne un aspect de relief à la carte et ajoute les courbes de niveau. Tous les détails sur ces données sont disponibles ici. Voici le type de rendu que l’on obtient en montagne :
Attention cependant : les données sur OpenStreetMap ne sont pas forcément fiables, notamment dans des endroits qui n’ont été cartographiés qu’une seule fois. Il serait peu prudent d’utiliser ces cartes pour préparer une randonnée en montagne. Orientez-vous plutôt vers les cartes 1/25000 de l’IGN.
Stamen propose quant à lui deux rendus beaucoup plus originaux : un en noir et blanc, dit « toner » car inspiré du rendu des imprimantes laser N&B, et un autre sous forme d’aquarelle, dit « watercolor. » Il en existe un troisième, dit « terrain » qui donne une apparence 3D à la carte. Mais il necessite des données qui ne sont pas disponibles sur la France. Ci-dessous, un exemple sur Bayonne.
Comment intégrer watercolor et toner sur un site web ?
var layer = new OpenLayers.Layer.Stamen("toner");
var map = new OpenLayers.Map("element_id");
map.addLayer(layer);
On remplacera « toner » par « terrain » ou « watercolor » pour changer l’aspect de la carte. (Rappel : à l’heure où j’écris ces lignes, la classe « terrain » n’est pas disponible sur la France.)
En voici un exemple ici. Vous pouvez récupérer le code source.
var layer = "toner";
var map = new google.maps.Map(document.getElementById("element_id"), {
center: new google.maps.LatLng(37.7, -122.4),
zoom: 12,
mapTypeId: layer,
mapTypeControlOptions: {
mapTypeIds: [layer]
}
});
map.mapTypes.set(layer, new google.maps.StamenMapType(layer));
Idem, on remplace la classe « toner » par « watercolor » pour obtenir l’aspect aquarelle.
En voici un exemple ici. Vous pouvez récupérer le code source. Notez qu’il n’y a plus besoin d’avoir de clé d’API pour utiliser l’API Google Maps, sauf si c’est dans un cadre commercial.
Variante : en affichant des tuiles (simples images.)
Pour ce faire, il suffit d’inclure un lien du type :
Le stockage en ligne est à la mode. Le cloud comme on dit. Ils s’appellent iCloud, Dropbox … et bientôt Drive chez Google.
J’ai choisi de te présenter une solution française, proposée par l’hébergeur OVH : hubiC. La version de base « start » est gratuite et te propose 25 Go de stockage. Il se positionne donc comme un sérieux concurrent de Dropbox qui propose seulement 2 Go (50 ou 100 Go si vous alignez l’oseille.) Cool non !?
Le traffic semble être illimité. Le dépôt ou le téléchargement se font au choix :
depuis le site hubiC
depuis une application sur Mac ou PC (hubiC-browser, sur OSX, Windows et Linux)
depuis un iDevice via une application
depuis un terminal Android via une application
Avant tout chose, précisons que le projet est encore en version bêta et que des améliorations viendront.
Contrairement à Dropbox, l’application hubiC-browser ne s’intègre pas à l’explorateur de fichiers de l’OS (le Finder sur MacOS.) C’est dommage. Mais on nous promet une synchronisation automatique. Pour uploader ou télécharger ses données, il faut donc lancer l’application. Gageons que la solution de Dropbox du dossier synchronisé intégré au Finder arrivera !
Point positif : on peut (théoriquement) partager ses fichiers pendant une durée de 15 jours avec un mot de passe. Il est même prévu de pouvoir partager librement ses données avec tout le monde, ou un groupe d’amis, à l’instar du défunt Mégaupload.
Comment profiter de tout ceci ?
Inscris-toi. Personnellement, je n’ai pas trouvé comment faire depuis leur site. Alors j’ai téléchargé l’application sur iPhone et fait l’inscription par l’application.Il a fallu 10 bonnes minutes pour que je puisse accéder au service. La première connexion depuis le portail fut houleuse. Mon espace de stockage était vide et je ne pouvais rien uploader. J’ai du me déconnecter/reconnecter. Là 3 dossiers ont été créés : Video, Images et Documents. Il y a possibilité de les virer.
Installe l’application sur votre Mac ou PC. Sur Mac, c’est simple : un glissé/déposé dans le répertoire des applications et le tour est joué.
Lance l’application. On te demande alors tes identifiants. Chose pratique : on peut entrer les paramètres de proxy, pratique quand on utilise le service depuis un réseau d’entreprise.
Tu peux alors profiter du service. Ça marche aussi par un glissé/déposé.
Tu peux aussi partager tes fichiers/dossiers avec des amis. En théorie seulement. En effet, il faut une clé d’activation du partage, et je n’ai trouvé aucun moyen de l’obtenir.
Conclusion
Au final, le service n’est pas tellement abouti, encore des bugs sur l’interface web. Dropbox est beaucoup plus ergonomique. Mais on nous promet des améliorations.
D’un autre côté, on dispose gratuitement d’un espace confortable de 25 Go. Et puis c’est rassurant de savoir ses données stockées en France !