Archives pour la catégorie Cartographie

Imprimer un bout de montagne en 3D

Vous avez toujours rêvé d’une carte en relief, comme l’IGN en propose dans certaines librairies ou magasins de sports de montagne. Ces cartes coutent assez cher, sont fragiles et détaillent assez peu les sommets mythiques.

Pourquoi ne pas imprimer en 3D sa propre carte en relief ?

Il existe de nombreux tutos sur internet pour imprimer un bout de montagne en 3D, comme celui-ci par exemple. Généralement, les données de base proviennent de l’USGS et ont un pas de 30 secondes d’arc (environ 900 m ramené à la surface de la Terre à l’équateur.) Ces données ont été acquises par interférométrie radar par la navette spatiale Endeavour lors de la mission SRTM en février 2000. Elles couvrent donc le monde entier, mais sont assez peu détaillées.

L’IGN propose en licence ouverte la BD Alti (R) au pas de  250 m et même 75 m. Il est possible d’avoir des données encore plus résolues  (25 m) mais elles sont payantes ou sous licence particulière. La page de téléchargement se trouve ici. Ces données ont été acquises différemment de la mission SRTM, il s’agit de modèles issus de restitutions photogrammétriques des missions aériennes de l’IGN.

Vous pouvez directement télécharger l’ensemble de la France métropolitaine entière au pas de 75 m ici. Les DOM/TOM sont également disponibles, pour ceux qui voudraient imprimer toute l’île de la Réunion en 3D par exemple !

Pour bien faire ressortir le relief, il est judicieux d’imprimer les altimétries à une échelle plus grande que la planimétrie. Sinon votre maquette sera assez plate.

Je vous propose donc un tutoriel pour faire votre propre modèle à imprimer en 3D pour un résultat plus qualitatif que le tutoriel cité ci-dessus par exemple. Mais il faudra faire quelques efforts en plus (pas beaucoup non plus !)

Prérequis

Il faudra installer au préalable le logiciel libre QGis (disponible pour Windows, Mac OS et distributions Linux) et une extension : DemTo3D.
Pour installer cette extension :

  • il suffit d’ouvrir QGis, et d’aller dans le menu Extension puis Installer/Gérer les extensions.
  • dans le champ de recherche, indiquez DemTo3D
  • sélectionnez-le et cliquez sur installer en bas de la fenêtre.
  • Si besoin, redémarrez QGis.

Vous devriez voir apparaitre DemTo3D dans le menu Raster. Sinon, retournez dans Installer/Gérer les extensions, allez dans la section Installées et cochez  DemTo3D.

Importer les données

Si vous ne l’avez pas fait, téléchargez le modèle numérique de terrain qui vous intéresse. Il peut s’agir d’un fichier .asc (grille ASCII), d’une image GeoTIFF, d’un fichier .xyz, etc. Pour rappel, toute la France, y compris les DOM/TOM est disponible librement sous licence ouverte sur cette page de l’IGN au pas de 75 m. La France y est découpées en dalles 75 km de côté, ce qui fait un grand nombre de dalles dans lequel il ne sera pas facile d’identifier la zone souhaitée. Les fichiers qui nous concernent se trouvent dans 1 Données Livraison puis BDALTIV2_MNT_75M_ASC_LAMB93_IGN69_FRANCE

Un fichier se présente de la forme suivante :

BDALTIV2_75M_FXX_0450_6225_MNT_LAMB93_IGN69.asc

  • BDALTIV2 : produit et da version
  • FXX : ?
  • 0450 correspond à la coordonnée X en Lambert 93 (RGF93) – en km
  • 6225 correspond à la coordonnée Y en Lambert 93 (RGF93) – en km
  • MNT : modèle numérique de terrain
  • LAMB93 : système de projection Lambert 93
  • IGN69 : système altimétrique
  • .asc : c’est l’extension du fichier, il s’agit du format Ascii Grid

Le problème, c’est que les coordonnées en Lambert 93, ça ne vous dit probablement rien. Des coordonnées WGS84 (système spécifique au GPS par exemple), c’est déjà plus commun : ce sont celles affichées sur Wikipédia ou dans Google Maps. Elles sont souvent affichées sous la forme de coordonnées sexagésimales (degrés, minutes et secondes) ou décimales (degrés décimaux).

Pour trouver les coordonnées de votre pic favori à imprimer, rendez-vous sur le Géoportail dans la version avancée. Localisez le point d’intéret avec l’outil de recherche. Par exemple, « Pic du Midi d’Ossau » Choisissez alors la proposition qui vous convient. Ensuite, dans le bandeau à droite de la carte, cliquer sur « Réglages »

  1. Cliquer sur le menu déroulant « géographique » et choisir « Lambert 93 »
  2. Sous la barre de zoom, cliquer sur « Coordonnées du curseur »
  3. Positionner la souris sur l’endroit où se situe l’élément inventorié ;
  4. Recopier exactement les nombres mentionnés après le X et le Y.

Dans QGis …

Dans QGis, démarrez d’un projet vide et importez la dalle qui vous intéresse. Parmi les dalles téléchargées, il ne vous reste plus qu’à identifier la dalle correspondante, sachant que les coordonnées du fichier correspondent à l’angle haut gauche (nord ouest) de la dalle.

Pour ce faire :

  • Allez dans le menu Couche
  • Ajouter une couche
  • Ajouter une couche raster
  • Choisissez le fichier
  • Renseignez la projection à utiliser. (Vous pouvez rester en Lambert 93, code 2154)
  • Validez.

QGIS2-png

capture qgis1-png

Dans le panneau de gauche, une couche doit apparaitre, ainsi que sur l’écran central. Sinon, faites un clic droit sur la couche et choisissez Zoomer sur la couche.

Vous aviez noté les coordonnées du sommet qui vous intéressait. Vérifiez les coordonnées à l’aide du curseur et des infos en bas de l’écran.

Utilisation de DemTo3D

DemTo3D se trouve dans le menu Raster de QGis. S’il n’est pas activé, rendez-vous dans les extensions de QGis. Cliquez ensuite sur impression 3D du MDE (mauvaise traduction de DEM digital elevation model pour modèle numérique d’élévation, ou MNE)

Renseignez les informations requises. Attention, sur Mac il y a un petit défaut d’affichage qui empêche de voir le facteur d’exagération de l’altitude. Le seul indicateur reste la hauteur du modèle au final.

demto3D-png

Vous pouvez alors exporter en STL.

Dans votre slicer

Vous pouvez charger le fichier STL et observer les couches à imprimer. Je recommande un remplissage de 20%, contrairement à la capture ci-dessous. De même, ce modèle est au 1/50000°, j’ai finalement appliqué une réduction pour passer à l’échelle 1/100000°.

cura-png

Vous êtes prêts pour l’impression !

 

Voici le résultat.

Pic du Midi d'Ossau imprimé en 3D

Qui se lance pour imprimer toutes les dalles et assembler la France en 3D ? ^^_

Allez, petit bonus, je vous donne le fichier stl du Pic du Midi d’Ossau prêt à être tranché dans Cura ou autre pour l’imprimer directement 🙂

Conclusion

Certes, il est difficile de recréer une carte topographique de qualité en relief et de la taille que propose l’IGN. Mais ce tuto permet de fabriquer de petits bouts de carte très détaillées, à la demande, pour un cout minime, à poser sur son bureau ou à mettre en déco.

Les amateurs de cartes auront remarqué que les couches imprimées correspondent aux courbes de niveau (aussi appelées isoplèthes d’altitude) Pour les plus équipés, ceux ayant une imprimante avec double extrudeuse, pourquoi ne pas tenter d’imprimer les courbes de niveau dites « maitresses » dans une autre couleur ?

N’hésitez pas à poser des questions en commentaires pour plus de détails.

Créez un StreetView alternatif simplement avec votre smartphone et Mapillary !

J’ai parlé à plusieurs reprises de systèmes de prises de vues immersives (Google Street View, earthmine) ou de plateformes pour les consulter (Google StreetView, Mappy, mode chaussée chez Here, etc.) . Ces solutions sont très souvent commerciales et les données ne sont pas libres. En outre, certaines zones du monde ne sont pas couvertes par ces services.

L’idée, à l’instar d’OpenStreetMap, c’est de concevoir un StreetView libre. Quelques tentatives ont été menées, comme OpenStreetView (devenu OpenPathView) mais elles sont restées assez infructueuses.
La problématique venait aussi du matériel : difficile de réaliser des panoramas 360° géoréférencés et correctement orientés à la chaine. Quelques prototypes ont été produits, mais sans être largement diffusés pour du crowdsourcing en raison du coût.

Deux problématiques donc :

  • la plateforme, qui doit être capable de stocker un grand nombre de données, les gérer, les assembler, etc.
  • le matériel, qui doit permettre de prendre instantanément un panorama de 360° par 180° en haute résolution, avec des données de géoréférencement (capteur GNSS) et d’orientation (boussole).

Le matériel

Aujourd’hui, beaucoup de monde dispose d’un appareil photo numérique, qu’il soit une simple DSLR, un reflex, un capteur photo embarqué dans un smartphone, une caméra, etc.
Demain, c’est un nouveau type de caméra qui viendra côtoyer les fameuses caméras d’action. Il s’agit des caméras à plusieurs optiques, permettant de réaliser des photos sphériques (panoramas complets) ou des vidéos à 360*180°
Certaines sont déjà commercialisées :
– la caméra Ricoh Theta M15
– la caméra Kodak sp360

d’autres sont en passe de l’être :
– la Giroptic 360cam
– la Bublcam
– quelque chose en préparation chez GoPro depuis le rachat du français Kolor, spécialiste des assemblages de panoramas … ?

La 360cam de Giroptic
La 360cam de Giroptic

La plus prometteuse pour l’instant reste la caméra française, la 360cam de Giroptic (racheté par la marque Géonaute de Décathlon ?) puisqu’elle intègrera une connexion wifi,  un capteur GNSS (GPS) et un gyroscope. Le tout pour moins de 500€, ce qui reste abordable pour un particulier passionné ou une association voulant promouvoir les données libres par exemple. Embarquée sur un marcheur, sur le casque d’un cycliste ou le toit de votre voiture, elle permet de disposer d’un équivalent low-cost aux systèmes professionnels de mobile mapping.
L’export dans Youtube 360 ou Google StreetView sera immédiat.

Il n’en reste pas moins que produire des données en masse c’est bien beau, mais il faut les trier, les stocker et les rendre accessibles. C’est là que Mapillary vient à notre aide.

La plateforme Mapillary

Mapillary est un service de stockage, de traitement automatique et de diffusion des images géolocalisées créé par une startup du même nom à Malmö en Suède en 2014. Cette startup est notamment financée par le groupe Sequoia, avec un apport de fonds de 1,5 million de dollars en janvier 2015.
Comme il s’agit de crowdsourcing, les données brutes sont sous licence Creative Commons. Le projet est intimement lié à OpenStreetMap.
La startup entend fonctionner en commercialisant l’usage commercial des données traitées.

Acquisition des données

Afin d’être rapidement alimentée en données, une application gratuite a été portée pour les OS de smartphones/tablettes sur les plus grands marketplaces : sur l’App Store pour iOS, sur Google Play, sur Amazon Apps et Windows Store.
En effet, en attendant l’avènement des caméras sphériques, les photos de  simples smartphones sont déjà intéressantes. Elles sont acquises via l’application Mapillary manuellement ou automatiquement (pour une acquisition à vélo ou en voiture) avec les informations de localisation et d’orientation.

J’ai réalisé le test en voiture, en plaçant le smartphone derrière mon pare-brise . Il est assez difficile de produire des images de qualité :
– présence d’éléments du tableau de bord dans le champ
– présence de reflets
– images floues en raison de vibrations sur routes dégradées
– contrejours mal gérés

Mapillary
Ma première séquence sur Brive, avec un mauvais cadrage, la ventouse du support et des reflets dans le pare-brise

Envoi et traitement

Depuis l’application, l’envoi vers les serveurs se fait automatiquement dès qu’une connexion wifi est disponible.
Si l’acquisition des images est effectuée depuis un appareil photo ou autre caméra (comme la caméra Ricoh Theta M15) l’envoi des données se fait sur le site web de Mapillary.

Mapillary s’appuie sur les données d’OpenStreetMap. En retour, elle met ses services à disposition pour par exemple, mettre facilement à jour la signalisation routière dans JOSM.

À réception des données, un floutage des visages et plaques d’immatriculation est automatiquement effectué. Il y a également une reconnaissance automatique des panneaux de signalisation basiques. Il est possible de revenir dessus en floutant d’autres éléments ou en enlevant le flou sur des éléments mal reconnus, ou en corrigeant les éléments erronés.

La seconde étape du traitement est intéressante et pleine de promesses.

En premier lieu, lorsque les images sont de bonne qualité, on remarque un effet de fondu-enchainé lorsque l’on passe d’une image à une autre. Les détails homologues entre images sont appairés pour générer cet effet de fondu.

En second lieu, au fur et à mesure des passages par les contributeurs, notamment dans les zones très fréquentées, les images s’accumulent. Sur les zones où les images sont surabondantes, il devient possible d’effectuer un traitement photogrammétrique. Résultat : on peut commencer à modéliser les rues en 3D ! C’est le projet qui est en cours de développement.

A short view of the new edit capabilities in Mapillary from Mapillary on Vimeo.

Rendu

Voici le rendu de mon premier test sur la plateforme.

Limites

Pour l’instant, il faut bien avouer que ce système ne remplacera pas le fameux Google SteetView pour le grand public, sans commune mesure en termes de qualité et de couverture. Mais à l’instar d’OpenStreetMap dans certains pays, Mapillary pourrait offrir une couverture là où Google est absent, notamment en raison de la législation ou des problèmes politiques.

N’oublions pas que Google StreetView est toujours interdit en Allemagne, ou que des autorisations ou déclarations sont nécessaires dans certains pays …

Oubliez le géocaching, la chasse aux repères géodésiques est la nouvelle mode des géomètres nerds

Un article du Wall Street Journal à propos de cette nouvelle pratique  : la chasse aux repères géodésiques.

Photo : JENNIFER GALAS
DR – JENNIFER GALAS

Vous connaissiez le géocaching : des millions de trésors cachés à travers le monde, tous répertoriés sur geocaching.com
Muni de votre GPS, vous entrez les coordonnées du trésor et il ne reste plus qu’à marcher pour le trouver.

Cette fois ci, il s’agit de retrouver des repères géodésiques. Avant l’avènement des techniques GNSS (GPS) ces repères étaient indispensables aux géomètres pour géoréférencer leurs travaux. Ils permettaient d’établir des plans ou des cartes dans le système légal (projections de Lambert par zones associées au système NTF en France, remplacé depuis par le RGF93 et ses projections associées telles que la projection Lambert93 ou les coniques conformes 9 zones.)

En France, les repères du RBF (réseau de base français) ou du RDF (réseau de détail français) sont nombreux. Avec le RRF (réseau de référence français), cet ensemble de repères constitue le RGF (réseau géodésique français). Plus de 80 000 repères rien que pour le RDF : bornes, clou, repères … Tout ceci permet de belles chasses !

Capture du serveur de fiches géodésiques de l'IGN
Capture du serveur de fiches géodésiques de l’IGN

Tous ces repères sont disponibles ici : http://geodesie.ign.fr/fiches
Sur cet exemple figurent en rouge les points du RDF et en jaune, les repères du RBF.
Attention à ne pas les détériorer, et à y accéder sans passer dans des propriétés privées, ou en demandant l’autorisation.

Si vous vous lancez dans l’aventure, n’hésitez pas à prendre des photos ou des notes sur leur état (absent, présent, détérioré, etc.) Les fiches des points du RDF sont rarement mises à jour, ce qui est logique vu le nombre de repères et leur désuétude !

Bonne chasse 🙂

Trimble a annoncé de nouveaux produits ce 23 avril

Trimble a annoncé ce 23 avril de nouveaux produits :

– 3 nouvelles stations totales robotisées : la S5, la S7 et la S9 (en deux versions). La S5 est adaptée aux travaux topographiques généraux. La S7 est une station complète avec un module de scan 3D et de photogrammétrie (système Trimble VISION).
Enfin, la station S9 est destinée aux travaux de métrologie et d’auscultation. Elle offre des précisions angulaires de 0,5″ à 1″ en fonction de la version.

Les nouvelles stations Trimble
Les nouvelles stations Trimble

– un nouveau récepteur GNSS : le R8s qui semble offrir un compromis entre le Trimble R10 et la version précédente du R8.

– des logiciels mis à jour : TBC, RealWorks, etc.

Plus d’infos ici.

Le BYOD et les géomètres

Le BYOD, c’est quoi ?

Le BYOD (bring your own device – « apportez votre propre appareil » en français) est le fait d’utiliser ses terminaux personnels (smartphone, tablette, ordinateur, etc.) pour ses activités professionnelles. Par extension, il s’agit d’utiliser des appareils grand public pour un usage professionnel.

Le BYOD et les géomètres

Ce phénomène est réel et existe chez les géomètres (géomaticiens SIG, géomètres-experts, topographes, … et leurs collaborateurs).

Le BYOD est surtout une tendance qui a cours sur le terrain. En effet, les moyens mis a disposition par les entreprises sont très souvent des terminaux durcis, très résistants, mais très onéreux et dans la majorité des cas technologiquement déjà dépassés dès leur commercialisation. En raison de leur coût, ces terminaux ne sont remplacés que tous les 5 à 8 ans au mieux, ou lorsqu’ils ne sont plus réparables après un panne. Le parc de terminaux dans les cabinets de géomètres est très rapidement obsolète pour des applications autres que le pur enregistrement de données/pilotage d’un appareil (station, GNSS, etc.)

Comparons aujourd’hui les moyens typiquement mis à disposition dans un cabinet de géomètres et les moyens personnels :

Carnet de terrain Trimble TSC3
Carnet de terrain Trimble TSC3

 

Carnet de terrain Mobile Mapper CX
Carnet de terrain Mobile Mapper CX

 

Leica-CS15-side-open-antenna
Carnet de terrain Leica Viva CS15

 

Les carnets de terrain fonctionnent très souvent sous des versions anciennes de Windows Mobile (version 6 au mieux.) Rares sont les carnets qui, comme le TSC3 de Trimble, offrent une connexion Wifi ou un modem 3,5G pour naviguer sur internet. Mais dans tous les cas, oubliez les applications modernes, la fluidité de navigation et la compatibilité avec les derniers standards du web. Certes, les choses ne sont pas aussi tranchées : il existe aujourd’hui du matériel très performant et durci, comme la tablette Yuma 2 de Trimble qui offre des fonctionnalités modernes (processeur de dernière génération, mémoire digne de ce nom en SSD, bluetooth 4.0…) et une compatibilité accrue (système d’exploitation Windows classique, comme Windows 7) mais à un prix exorbitant comparativement à une tablette grand public aux performances équivalentes.

En revanche, avec votre smartphone ou votre tablette, vous bénéficiez déjà d’une liaison 3G/4G, du Wifi, d’un récepteur GPS, d’un système d’exploitation récent qui offre une compatibilité avec des applications récentes et réellement utiles sur le terrain : GPS et cartographie pour se rendre sur un chantier avec Google Maps ou Waze par exemple, l’accès à des données pertinentes comme le Géoportail de l’IGN ou l’application Géofoncier, la possibilité d’ouvrir et d’éditer un plan avec AutoCAD 360 mais aussi des choses toutes simples, comme prendre des photos de qualité, consulter ses mails et ouvrir des pièces jointes (documents PDF, fichier de points, etc.) Le tout pour quelques centaines d’euros contre plusieurs milliers pour un carnet.

Smartphones
Smartphones de 2014

 

Vous allez me dire que votre smartphone n’est pas étanche, ou pas aussi résistant qu’un carnet de terrain durci. Et bien regardez chez certains constructeurs : Sony produit des smartphones étanches. Ou de manière plus exotique, le japonais Kyocera produit désormais le Torque, un smartphone 4G étanche et durci. Cat vient d’annoncer le S50. Du côté des tablettes durcies, l’hégémonie de quelques constructeurs (Panasonic, Mio, etc.) qui imposaient de prix prohibitifs, est en train de prendre fin. Regardez par exemple du côté de Samsung, et sa Galaxy Tab Active sous Android.

Remplacer le carnet de terrain par un smartphone

Vous allez aussi me dire que votre smartphone/tablette ne peut pas faire ce que fait le carnet de terrain, à savoir faire un levé topographique à la station totale ou avec un récepteur GNSS. Et bien si !
Avec une liaison bluetooth (voire bluetooth longue portée pour une station robotisée) vous pouvez utiliser des applications de levé topo. Par exemple, Systranova Software propose des applications Android compatibles avec Topcon, Leica ou Nikon. Je n’ai pas testé cette application, les possibilités semblent encore limitées et certains modèles d’appareils sont incompatibles. Mais il ne tient qu’aux constructeurs de proposer des applications iOS, Android ou Windows Phone pour utiliser leurs appareils (stations, GNSS) sur des smartphones ou des tablettes. C’est techniquement possible et facile à développer. Peut-être ne le font-ils pas pour continuer à vendre des carnets aux prix prohibitifs … (À noter qu’il existe déjà des solutions métier sous Windows, compatibles avec les grands constructeurs de matériel topo, comme Géopad de Géopixel, ou Land2Map d’Atlog qui fonctionnent sur des tablettes Windows et permettent de s’affranchir du traditionnel carnet de terrain.)

Certains appareils s’ouvrent déjà au BYOD : interfaces web via Wifi direct dans les scanners laser, interface de paramétrage dans le Trimble R10, etc. D’autres y sont pleinement destinés, comme le récepteur Trimble R1 (sub-métrique, réservé aux applications SIG).
C’est justement dans le domaine des SIG que le BYOD est intéressant. Il existe beaucoup d’applications de collecte de données sous iOS ou Android, il suffit de faire une recherche avec le mot clé « GIS ». Je recommande d’ailleurs l’application TerraFlex sous Android qui permet de faire facilement d’une collecte de données SIG (période d’essai gratuite.)

Conclusion

En conclusion, je pense que la convergence entre le matériel professionnel (carnets durcis) et le matériel grand public (smartphones, tablettes)  est amorcée. On voit apparaitre des produits durcis et étanches avec des performances intéressantes à des prix grand public. Les constructeurs semblent s’y intéresser et je pense qu’il est dans leur intérêt de se tourner vers cette tendance.

Une mission professionnelle avec un drone tout public ? C’est possible.

Cet article est ma libre traduction d’un article de Iain Butler (@theuavguy ) à propos de l’utilisation du drone tout public Iris+. Le but est de démontrer que la production photogrammétrique est possible avec ce type de matériel. Dans les cas d’étude qui vont suivre, le flux de travail (établissement du plan de vol, vol, traitement des données) vont être supervisés et automatisées par la plateforme Drone Deploy. L’article original est consultable sur le blog de theUAVguy.

3d-model-1

Introduction

J’ai récemment été contacté à propos d’un de mes précédents articles relatif aux études des vignobles par une start-up spécialisée en drones, basée à San Francisco. Dans mes précédents articles, je me suis prononcé sur la pertinence d’un écosystème global de gestion du flux de travail par drone. Il ne s’agit pas ici de démontrer l’aspect séduisant du drone, mais bien sa pertinence comme outil pour produire des données opérationnelles, qui peuvent être utilisées pour améliorer les rendements des cultures, réduire le temps de relevé ; dans un sens, vous faire travailler plus efficacement avec moins de charge de travail. Ce que Drone Deploy propose,  c’est de s’occuper de la partie traitement du flux de travail et de l’automatiser. De par mon expérience, et de mes discussions avec d’autres opérateurs de drones, voler et acquérir des images exploitables représente 20% du temps de travail, les 80% restants étant du temps de traitement des données, d’analyse des données et de la prise de décisions.
Pourtant, Mike Winn, PDG et fondateurde Drone Deploy (avec Jono Millin et Nicholas Pilkington) m’a expliqué qu’ils ont conçu un produit qui peut rapatrier les données du drone en vol, oui, en plein vol, et commencer le traitement de données avant même l’atterrissage. 15 à 30 minutes après l’atterrissage, vous êtes censé avoir toutes vos données traitées et disponibles. Vraiment ? Ceci semblait trop beau pour être vrai, à tel point que j’ai décidé d’enquêter pour voir si le système Drone Deploy tient ses promesses.

Qu’est ce que Drone Deploy ?

J’ai connu Drone Deploy pour la première fois en mai 2014 à l’expo sUBS à San Francisco, où ils ont présenté leur système « Co-pilot » (partie matérielle) et leur logiciel de post-traitement. Le principe, c’est que Drone Deploy rassemble vos images au fur et à mesure qu’elles sont acquises et les envoie dans le cloud, où elles vont être traitées très rapidement sur des serveurs rapides et conçus pour cet usage. Les résultats sont présentés par le cloud à l’utilisateur par n’importe quel terminal avec un navigateur web. De cette manière,  le traitement par les serveurs  est réalisé dans des temps inatteignables avec un ordinateur standard.
Je vous entends déjà : comment les images sont-elles envoyées de l’aéronef jusqu’au cloud ? Et bien Drone Deploy a résolu ceci en utilisant un modem cellulaire, celui du système « Co-pilot » (d’où le titre de l’article) qui tourne à un débit type LTE (4G) pour permettre aux images d’être envoyées dans le cloud depuis l’appareil photo alors qu’il prend des photos. Vous commencez à comprendre quelle masse de travail Drone Deploy donne à son système « Co-pilot » et au traitement dans le cloud associé. Le « Co-pilot » lui-même intègre un modem LTE (4G) pour le transfert des images dans le cloud, un module Wifi pour communiquer avec l’appareil photo et une liaison pour la télémétrie afin de communiquer avec le contrôleur de vol. « That’s pretty cool. » Pourquoi ? Parce que le « Co-pilot » recueille les coordonnées GPS du contrôleur de vol lorsque le déclencheur de l’appareil photo est actionné, et les joint à l’image produite. […]
Ce qui est encore mieux, c’est que la liaison LTE (4G) est bi-directionnelle. Quel en est l’avantage ? C’est de vous permettre de communiquer avec l’aéronef depuis un terminal via un navigateur web. Mais ce que Drone Deploy a fait, c’est intégrer le logiciel qui établi le plan de vol dans leur propre interface web. Ceci vous permet de planifier une mission, voler, et avoir un oeil sur les données post-traitées sur le même appareil, juste en utilisant un navigateur web, sans liaison de télémétrie ou autre… Ainsi Drone Deploy s’est tourné vers de multiples marchés et plateformes avec son interface web de plan de vol et de visualisation de données. Premièrement, le système de Drone Deploy est compatible non seulement avec les systèmes à voilure fixe mais aussi ceux à voilure tournante (hélicoptères, multirotors). Deuxièmement, Drone Deploy a segmenté les types de missions : la topographie, l’agriculture, la construction et la modélisation 3D. Il ne reste plus qu’à choisir la catégorie qui correspond le mieux à la misson.

Mais alors, que se passe t-il s’il n’y a pas de couverture LTE (4G) sur le chantier ? Et bien Drone Deploy travaille sur le problème. Vous pouvez pré-planifier une mission et voler sans couverture LTE, et donc sans liaison descendante de télémétrie. Une fois que vous êtes de retour dans une zone couverte en LTE (4G), allumez votre drone et il va verser les données sur le cloud de Drone Deploy. Les données vont alors être traitées. Drone Deploy travaille également pour intégrer des liaisons Bluetooth/Wifi pour établir des liaisons avec le drone sur le chantier.

Ok, mais concernant les clients internationaux ? Drone Deploy a une vision d’ensemble de la communauté des opérateurs de drones, et prévoit de se déployer à l’étranger. Soyez prêts !

À quoi ressemble une mission Drone Deploy ?

Voici un cas pratique avec un multirotor :

1. Posez le multirotor à son point de décollage, allumez le transmetteur, allumez l’appareil photo du drone et connectez la batterie du drone. À ce moment là, le drone va se connecter au serveur cloud de Drone Deploy et rapatrier les mises à jour le cas échéant.

2. Sortez votre terminal, que ce soit un Android, un iPhone, un ordinateur portable ou une tablette et identifiez vous sur le site web de Drone Deploy. Vous alors redirigé vers le tableau de bord qui affiche les missions déjà planifiées (il est possible de planifier des missions au bureau ou à la maison, bien au chaud) ou les missions déjà effectuées avec les résultats associés.

3. Vous avez maintenant le choix de planifier une nouvelle mission, d’effectuer une mission pré-planifiée ou réeffectuer une mission déjà faite.

4. Commençons par planifier une nouvelle mission. Choisissez une catégorie, comme « Agriculture ».

5. On vous demande alors quel type de drone et quelle caméra vous allez utiliser, ainsi que votre position actuelle.

6. Dessinez une emprise de chantier et définissez quelle taille de pixel au sol vous souhaitez, ou bien l’altitude de vol.

7. Drone Deploy va alors générer un plan de vol et calculer les bons recouvrements d’images pour permettre un bon recalage interclichés. Ce qui est intéressant, c’est qu’il n’y aura pas d’images surabondantes prises pendant la mission. Trop d’images implique des temps de traitement plus longs. Les paramètres par défaut sont de voler le plus haut possible, aussi vite que possible et prendre juste assez d’images pour assurer l’assemblage des images. Drone Deploy calcule tout ceci pour vous. Ainsi, le système « Co-pilot » déclenche l’appareil photo au moment où les points de déclenchement déterminés sur le plan de vol sont atteints par le drone. Notez également que le générateur de plan de vol prend en compte l’autonomie du drone et la compare à la durée du plan de vol. Si la mission dépasse l’autonomie du drone, un drapeau rouge indique le problème.

8. À ce stade, les statuts du multirotor sont visibles sur la page web, avec affichage de l’état de la connexion, des mises à jour, du verrouillage GPS et un bouton « Voler maintenant ».

9. Vous cliquez sur le bouton « Voler maintenant » et le système « Co-pilot » va passer en revue une check-list. Il va connecter l’appareil photo, vérifier la batterie de l’appareil photo, vérifier la batterie du multirotor, s’assurer que le GPS est verrouillé, prendre une photo de test et l’envoyer dans votre navigateur. Si tous les tests sont validés, la check-list est elle aussi validée et le bouton « Prêt à voler » apparait. Si la vérification d’un des points de la check-list échoue, le drone ne va pas décoller. C’est une disposition de sécurité intrinsèque : il n’est pas possible de décoller avec des batteries déchargées, un GPS non verrouillé, etc.

10. Maintenant mettez votre transmetteur sur AUTO et cliquez sur « Décollage » dans votre navigateur web. Une alerte apparait : « Décollage dans 5 secondes ». Le compte à rebours démarre et à 0 le drone va décoller pour atteindre son altitude de travail. Il commence alors à suivre son plan de vol.

11. Pendant le vol, les images sont versées sur le serveur cloud et traitées durant le vol. Les images sont également affichées dans le navigateur web, avec les paramètres de vol (vitesse, altitude, niveau de charge de la batterie …) Le plan de vol lui aussi est affiché, avec la progression de l’aéronef, sa direction de vol et sa direction de pointage.

12. Ce qui vient est vraiment impressionnant. Pendant le vol – et alors que les images sont traitées sur le serveur – les résultats assemblés sont placés en temps réel, oui en temps réel, sur le plan de vol de votre navigateur web. Pour n’importe qui aurait déjà utilisé un logiciel d’assemblage de photos, tout ceci ressemble à de la magie. L’assemblage se fait en temps réel alors que le drone est toujours vol.

13. À la fin de la mission, le multirotor retourne à son point de décollage (ou sur le point défini par l’opérateur) et atterrit.

14. Après l’atterrissage, de grandes emprises du chantier vont être assemblées, ou même la totalité du chantier. Les résultat peuvent même être déjà disponibles. Dans tous les cas, l’orthomosaïque, les cartes ENDVI et les modèles numériques de terrain vont être visibles en environ 15 minutes, en fonction de la taille du chantier.

15. Vous pouvez alors éteindre le drone et le ranger. Prenez maintenant votre smartphone : vous pouvez visualiser les résultats alors que vous êtes encore sur le terrain. En utilisant la carte géoréférencée de la mission, il est possible de rendre sur un point précis et de vérifier la véracité des données.

16. Vous êtes prêt pour aller sur le chantier suivant.

La sécurité est primordiale : Drone Deploy utilise une barrière virtuelle en trois dimensions, qui permet de détecter les écarts du drone de son couloir de vol. Des écarts excessifs vont entraîner un retour au point de décollage et un atterrissage. Il est également possible de définir des zones interdites de survol avant le calcul du plan de vol.

C’est vraiment aussi simple et rapide que ça. Voici une video de l’intégralité du processus à partir d’un plan de vol pré-établi. Regardez comme c’est rapide :
http://youtu.be/c28uEXJvW6U

Et voici une video qui montre l’assemblage de 8 hectares en temps réel :
http://youtu.be/d4gqTXSollw

Banc d’essai

Pour le premier essai, c’est un drone Iris+ du fabricant 3D Robotics qui a été utilisé. L’idée derrière cette choix est de prouver qu’un petit drone tout public peut effectuer une mission professionnelle. Souvenez-vous de mon postulat : « le drone est simplement un outil. » Je vois un grand nombre de fabricants de drones produisant d’excellents produits, mais les prix sont dans une fourchette de $15k à $30k. Encore une fois, tout ce que le drone fait, c’est d’embarquer un appareil photo. Ce qui est important, ce sont les images produites par l’appareil photo. Si vous voulez des données qualitatives, focalisez vous sur la charge utile, et utilisez simplement le drone comme un vecteur, une plateforme.
Est-ce qu’un drone tout public à $750 peut effectuer une mission professionnelle en utilisant Drone Deploy ? La plupart des agriculteurs et agronomes veulent un retour sur investissement sur les nouvelles technologies. Pourquoi ne pas leur fournir un outil qui leur permette d’apprécier l’agriculture de précision par drone, mais sans vider leur compte en banque ? Il n’y a qu’une seule manière de savoir.

Le drone Iris+ de 3D Robotics
Le drone Iris+ de 3D Robotics

Il fallait ensuite choisir un appareil photo et une nacelle. Evidemment, il faut faire un compromis entre résolution, poids, durée de vol et couverture spectrale. Le drone Iris+ peut embarquer une GoPro Hero 3 ou 4, de manière fixe ou sur une nacelle Tarot. Pour obtenir de bonnes données, une nacelle est utilisée de manière à ce que la caméra soit toujours pointée vers le nadir. Ce pointage et la nacelle stabilisée (par moteur brushless) permettent à la caméra de produire des images nettes avec un bon recouvrement. […]

Pixhawk

Parlons maintenant de la GoPro. Bien sur, nous voulons analyser la santé et le stress hydrique de la végétation, donc nous avons besoin d’une caméra sensible au proche infrarouge (760 – 850 nm) ou en bande rouge limite (690 – 730 nm). Ceci nécessite de récupérer une GoPro, l’ouvrir et retirer le filtre utilisé pour produire des images RVB : http://youtu.be/_tUl-BzZN70

Une GoPro IR-PRO
Une GoPro IR-PRO

(Si vous n’êtes pas sûr de pouvoir/vouloir réaliser ce bricolage, utilisez une camera du commerce de chez RageCams ou IR-Pro.)

Une fois le filtre retiré, utilisez un nouveau filtre proche infrarouge-vert-bleu à visser. Il y a de nombreux filtres/lentilles qui existent sur le marché (voir IR-Pro http://www.ir-pro.com/ et Peau http://www.peauproductions.com/main.html)

La GoPro IR-PRO et ses filtres
La GoPro IR-PRO et ses filtres

Alors, quels résultats attendre d’une GoPro NDVI ? La chose la plus importante à retenir est qu’il ne s’agit pas d’une camera NDVI calibrée. Pour aller sur cette voie, il faut se diriger vers des solutions plus couteuses. Ici nous parlons d’une solution bon marché : un drone de reconnaissance pour un agriculteur qui veut faire ses premiers pas dans le domaine des drones avec un retour sur investissement rapide sans vider son compte en banque, mais qui peut générer des données opérationnelles et puisse identifier des problèmes sur la végétation et les cultures, corrélées aux données terrain. Le Saint-Graal de la télédétection NDVI par drone est tel que, si vous parlez avec n’importe qui avec un tant soit peu d’expérience dans ce domaine, on vous dira que l’indice NDVI est le seul qui vaille. Ce n’est pas vrai, en réalité c’est l’utilisation de plusieurs combinaisons de cameras pour acquérir des images aériennes, avec la corrélation de données terrain, qui va permettre le générer des données opérationnelles. Des cultures mixtes seront mieux restituées avec des cameras différentes, du traitement, des combinaisons de bandes (PIR-V-B et FLIR par exemple). Il n’y a pas de combinaison camera/formule spectrale qui fonctionnera pour tous les cas. Bien sur, la résolution, la taille de l’image, l’effet de l’obturateur… vont jouer également, mais la question ici est de savoir si vous pouvez utiliser une GoPro pour l’indice NDVI qui permet une corrélation utile avec les données terrain.

Faisons quelques comparaisons. Ci-dessous, deux vues : une d’un paysage, l’autre d’une plante, prises avec :

– un Canon SX260HS non modifié,

– une GoPro modifiée (avec une lentille IR-Pro InfraBlue22 NDVI)

– un Canon SX260HS avec un ancien filtre Event 38

– un Canon SX260HS avec un filtre Event 38 récent.

Cela fait 8 photographies en tout. Evidemment, vous ne pouvez pas analyser la santé de la végétation à partir d’une image RVB, mais ce sera notre référence pour comprendre ce sur quoi porte notre étude.

Photos RGB :

rgb_plant rgb_field

Maintenant regardez les images de la GoPro NDVI. Vous pouvez voir que la végétation est rouge/marron/rose alors que les objets artificiels sont visibles comme sur l’image RGB. On voit tout de même des teintes rose sur les objets artificiels.

Photos GoPro NDVI :

DCIM100GOPROGOPR0296. DCIM100GOPROGOPR0283.

Concernant l’ancien filtre Event 38, vous pouvez voir qu’il produit une séparation spectrale équivalente, avec quelques recouvrements entre la végétation et les objets artificiels. Ici les objets artificiels comme les bâtiments et les routes ont une légère teinte rose, mais moins qu’avec la GoPro. Ceci est du à la raie rouge dans la bande passante du filtre.

Photos avec l’ancien filtre Event 38

old_e38_plant old_e38_field

Sur les filtres Event 38 récents, vous pouvez maintenant voir une bonne séparation spectrales des objets, avec des objets artificiels peu ou pas teintés de rose, et une végétation bien représentée dans les teintes rose/marron. Ceci s’explique par la forme de la bande passante du filtre, en créneau, dont le décalage spectral a été décalé vers le haut.

Photos avec le nouveau filtre Event 38

new_e38_plant new_e38_field

Vous pouvez voir comment, avec 3 filtres PIR (proche infrarouge) et de bons imageurs, les résultats obtenus sont significativement différents. Dans cet article les vols seront seulement réalisés avec la GoPro et le filtre/lentille InfraBlue22 NDVI […] Avec une GoPro InfraBlue22, il est possible de réaliser des vidéos en PIR. En voici un exemple. Encore une fois, remarquez les couleurs du sol qui sont nuancées, en raison de la sècheresse en Californie, des accumulations d’eau issues des premières pluies depuis des mois, les couleurs chatoyantes des arbres, et les objets artificiels comme le chemin et les immeubles :

http://youtu.be/hWKzjpjLM4E

On me pose souvent une question : « Puis-je voler avec une GoPro NDVI et visionner les videos pour voir l’état de santé des cultures ? Ainsi, je n’aurais pas à faire ce travail d’assemblage et de traitement ? » J’ai bien peur que non, la GoPro InfraBlue22 n’est pas vraiment une camera NDVI. Ce qu’elle fait, c’est capturer les bandes spectrales du proche infrarouge, du vert et du bleu, qui ont alors besoin d’être traitées pixel par pixel pour générer une image NDVI, en utilisant une formule NDVI, ENDVI ou DVI. Il existe beaucoup de formules : chacune présente ses avantages en termes de résultats en fonction de la nature des cultures, l’ensoleillement, la présence de nuages, le type de filtre, etc. Pour obtenir l’image NDVI d’un grand territoire, vous devez capturer un lot d’images se superposant en PIR-V-B (ou d’autres combinaisons de bandes en fonction des filtres), les assembler et les traiter selon la formule. Si quelqu’un connait un logiciel de traitement de videos NDVI, faites le moi savoir. Sinon, prenez cette idée et faites en un projet Kickstarter ou une startup ! (Note du traducteur : il existe de nombreux logiciels de traitement d’images qui permettent ceci, notamment la bibliothèque libre ORFEO Toolbox.)

Cas pratiques

Trois cas pratiques ont été menés. Les vols ont été pré-planifiés en amont de la phase terrain, donc ils ont simplement été opérés avec un iPad connecté à internet. Deux missions ont permis de couvrir 8 hectares à une altitude de 80 m, ce qui a pris à peu près 9 minutes de vol, alors que la dernière mission couvrait 2 hectares à 50 m d’altitude pour un temps de vol de 5 minutes. Les vols ont été réalisés avec une GoPro 3 Black modifiée en utilisant le filtre/lentille NDVI IR-Pro InfraBlue22, pointée au nadir (c’est à dire vers le bas, contraire du zénith), une nacelle Tarot Gimbal, le tout embarqué sur un multirotor Iris+ de 3D Robotics. Les lieux de test ont été choisis en raison de la présence de milieux végétaux variés, de prairies en herbe ou fauchées, d’objets artificiels, ou de pelouses plantées et entretenues. Afin de travailler de manière irréprochable, les images de chaque mission ont également été traitées avec Pix4D Pro. En raison de la nature des lieux de test, l’assemblage des images n’était pas facile mais ceci était volontaire afin de tester la performance des algorithmes.

Cas pratique n°1

Description

Prairie sauvage en période de sécheresse sur des collines avec une dénivelée négative depuis le point de décollage. Mélange de prairie sauvage, prairie fauchée, broussailles, enclos et bétail. Le vol couvre 8 hectares à une altitude de 80 m et a pris 9 minutes. À l’issue du vol, il reste 37% de batterie.

Plan de vol vu dans Drone Deploy
Plan de vol vu dans Drone Deploy
Orthomosaïque dans Drone Deploy
Orthomosaïque dans Drone Deploy
Carte NDVI dans Drone Deploy
Carte NDVI dans Drone Deploy
Carte d'élévation dans Drone Deploy
Carte d’élévation dans Drone Deploy
Vue oblique du modèle numérique de terrain dans Drone Deploy
Vue oblique du modèle numérique de terrain dans Drone Deploy
Reconstruction avec Ray Cloud dans Pix4D
Reconstruction avec Ray Cloud dans Pix4D
Orthophoto issue de Pix4D
Orthophoto issue de Pix4D
Carte NDVI issue de Pix4D
Carte NDVI issue de Pix4D

Photos au sol

Vue Sud du site étudié
Vue Sud du site étudié
img_0644
Vue du sol et broussailles
Trous dans le sol et bosses
Trous dans le sol et bosses
Sentier à gauche de l'aire d'étude
Sentier à gauche de l’aire d’étude
La route et le talus à droite de l'aire d'étude
La route et le talus à droite de l’aire d’étude

 

Vérification au sol

L’image 1 est une vue d’ensemble de la zone. Vous pouvez voir le terrain ondulant en pairie, constitué d’herbe, de végétation et de broussailles comme montré sur l’image 3. C’est une prairie en herbe banale. Il est intéressant de regarder au centre de la photo, vers la colline suivante, juste à gauche vous pouvez voir une piste qui suit cette colline. Maintenant regardez l’orthomosaïque et la carte NDVI, sur la partie à droite vous remarquez une zone bleue assez courbe. Il s’agit bien de la piste, mais pourquoi est-elle bleue ? Et bien regardez plus à droite vers la route et comparez avec l’image n°5. Vous verrez un talus, mais sur la carte NDVI, à l’endroit du talus, il y a également une zone bleue. Maintenant regardez l’orthomosaïque, la carte NDVI, le MNT et le modèle 3D et au milieu vous verrez encore une zone bleue. En regardant la photo n°3, ceci peut être interprété comme étant causé par un gros trou dans le sol. Alors qu’est-ce qui entraine cette coloration bleue ? Et bien le relevé a été effectué un après-midi de fin décembre, avec un soleil bas sur l’horizon : les zones bleues correspondent aux ombres. Maintenant regardez le côté gauche de la carte NDVI et vous verrez une zone bleue, c’est en réalité l’ombre des broussailles sèches visibles sur la photo n°2.
Le reste de la carte NDVI montre des dégradés de vert qui sont corrélés aux différentes densités d’herbe dans la praire. Sur la photo n°4, vous pouvez voir une forme à gauche du trou, qui l’on repère facilement sur l’orthomosaïque, la carte NDVI, le MNT et le modèle 3D. Et ce qui est intéressant, c’est la quantité de données récupérées, de la densité de végétation, à la détection des dénivelées, les dépressions et les bassins versants, les clôtures, les pistes, etc. Ce sont des données riches d’informations obtenues avec un vol de drone de 9 minutes seulement sur plus de 8 hectares.

Cas pratique n°2

Description

Prairies durant la sécheresse avec des zones sauvages ou tondues, bâtiments et zones bétonnées dans la zone d’étude, voir le modèle 3D. Le décollage a été effectué depuis le haut d’une colline vers le centre de la zone relevée, avec un terrain dénivelant en vallons. La pluie des jours précédents a mis en évidence des zones d’accumulation d’eau dans des bassins de faible profondeur. Vol de 9 minutes 10 secondes à 80 m de hauteur avec 41% de charge de la batterie restant à l’atterrissage.

Plan de vol Drone Deploy
Plan de vol Drone Deploy
Orthomosaïque Drone Deploy
Orthomosaïque Drone Deploy
Carte NDVI Drone Deploy
Carte NDVI Drone Deploy
MNT Drone Deploy
MNT Drone Deploy
Modèle 3D Drone Deploy
Modèle 3D Drone Deploy
Pix4D Ray Cloud
Pix4D Ray Cloud
Orthomosaïque Pix4D
Orthomosaïque Pix4D
Carte NDVI Pix4D
Carte NDVI Pix4D
img_0610-copy
Photo n°1 – Vue Sud du site de décollage
img_0612-copy
Photo n°2 – Vue Nord du site de décollage
Photo n°3 - Gros plan sur une dépression inondée au sud du site de décollage
Photo n°3 – Gros plan sur une dépression inondée au sud du site de décollage
Photo n°4 - Vue ouest depuis le site de décollage
Photo n°4 – Vue ouest depuis le site de décollage

Vérification au sol

[A suivre : suite de la traduction avec un 3ème cas pratique et les conclusions sur l’utilisation de Drone Deploy.]

 

 

Traduction assurée avec autorisation de l’auteur. Merci à lui !

Leica Geosystems dévoile de nouveaux scanners laser

Le 31 mars 2015, Leica Geosystems a présenté les nouveaux venus de la famille ScanStation. 3 modèles (deux en réalité) que sont le P40, le P30 (une version bridée du P40) et le P16. Il s’agit de la 8ème génération de scanners laser présentée par la marque de Heerbrugg en Suisse.

Leica
Le Leica ScanStation P40

 

En prenant pour modèles leurs grands frères (le C10 et le P20) cette nouvelle génération de scanners apporte des innovations sur deux points : le système Lidar lui-même et le système imageur (la camera CCD).

Les scanners P30 et P40 permettent de travailler avec une portée accrue par rapport au P20 (jusqu’à 270 m pour le P40 selon le constructeur, contre 120 m pour le P20). Le P16 est quant à lui un scanner d’entrée de gamme de courte portée (40 m maxi.)

Un nouveau Lidar « sous le capot »

Ces nouveaux scanners intègrent un laser plus puissant qu’auparavant, mais désormais totalement inoffensif pour les yeux, tout en apportant de nouvelles avancées, dont une portée accrue. Ceci permet en théorie de faire moins de stations et d’augmenter la productivité.
Il est désormais possible de scanner certains types de surfaces sombres ou réflectives. Les nouveaux algorithmes de traitement du signal (dont les ondelettes WFD)  permettent d’obtenir des nuages de points moins bruités. 

Une caméra HDR

La nouvelle caméra intégrée au scanner permet désormais de faire des images avec une plage dynamique plus étendue (HDR). Il était temps ! Les images ne présentent plus de zones surexposées ou sous exposées. (De multiples images redondantes sont prises avec des expositions plus ou moins longues. Le logiciel interne fait le tri dans les images faiblement exposées ou saturées et les assemble.)
La seconde avancée concerne le repérage des cibles : le scanner P40 les détecte automatiquement jusqu’à 75 m  et les scanne ensuite avec un pas réduit. (40 m pour le P16). Ceci permet également de réduire le nombre de stations, avec les avantages que l’on connait.

Les caractéristiques détaillées sont disponibles ici.

Ces scanners sont d’ores et déjà disponibles, mais aucun prix public n’est annoncé.

Autres annonces

Leica a également annoncé la nouvelle version de TruView avec TruView Global, qui permet désormais de visualiser et de réaliser quelques opérations basiques sur un nuage de points dans un navigateur web sans installer de plugin (notamment grâce à la technologie HTML5). C’est, en théorie, compatible avec tous les navigateurs récents, sur tous types de supports (de la tablette Android en passant par l’iPhone jusqu’au Mac ou au PC sous Windows ou une distribution Linux.)
Enfin, de nouvelles version de Leica JetStream (serveur de données) et Leica CloudWorx pour Navisworks (traitement de nuages de points avec les logiciels CAD comme AutoCAD ou MicroStation)
seront disponibles au cours du 2ème trimestre 2015.

À lire : OpenStreetMap, la base d’un nouveau plan Michelin

À lire, ce très bon article sur le cas de la cartographie OpenStreetMap à Clermont-Ferrand, réutilisée à titre expérimental pour en faire une carte Michelin.

© les contributeurs d’OpenStreetMap
© les contributeurs d’OpenStreetMap

À travers ce cas particulier, on voit toutes les problématiques qui se posent et les solutions apportées pour atteindre l’exhaustivité, l’actualité et la justesse des informations.

On lira avec intérêt la partie d’acquisition automatique de données avec une mini-caméra et un GPS logger.

Drones : outils du futur pour les géomètres ?

Ils font l’actualité dans de multiples domaines : opérations militaires, prises de vue pour la réalisation de films, loisirs … Ils sont en train de faire une incursion de plus en plus remarquée dans le domaine de la géomatique : ce sont les drones.

Ces appareils sont constitués d’une plate-forme (structure, motorisation, système de guidage, systèmes de contrôle, capteurs, etc.) et d’une charge utile. Cette charge utile, dans le cas d’appareils légers, se limite à un appareil photo. Plus la charge utile est lourde, plus la plate-forme doit être dimensionnée en conséquence, notamment pour garder assez d’agilité dans le pilotage du drone.

Dans cet article, nous nous intéresserons aux drones pour des applications en géomatique.

Inventaire des solutions

Deux types principaux de solutions existent :

  • les quadricoptères : la portance du drone est assurée par les rotors. Ils sont au nombre de quatre, mais certains drones en ont six (hexacoptère) ou plus … On parle de solution à voilure tournante.
  • les ailes volantes : la portance est assurée par les ailes, un ou deux moteurs assurent la propulsion. On parle de solution à voilure fixe.

Les quadricoptères

Le quadricoptère le plus connu du grand public est l’AR Drone (actuellement produit dans sa deuxième version par la société française Parrot, commercialisé 300 €.) Il se pilote avec une application pour smartphone/tablette via une liaison wifi. Cette solution n’est pas vraiment adaptée pour le monde professionnel (faible autonomie, aucune charge de plus de 100 g ne peut être embarquée sans risque.) Cependant, une application en photogrammétrie a déjà été réalisée par Charles Dunk :

Sa solution peut être améliorée avec un boitier supplémentaire qui sera commercialisé par Parrot (GPS et enregistreur) et qui permettra le vol autonome du drone en ayant préalablement défini un plan de vol.

Il existe des solutions professionnelles, beaucoup plus chères mais qui permettent de réaliser des prises de vues sur de plus grandes emprises et ce avec des appareils photos performants. L’entreprise française Delta Drone, basée à Grenoble, commercialise une solution à voilure tournante (Delta-H) mais également fixe (Delta-Y). ERDF (entreprise en charge de la distribution d’électricité en France) a récemment conclu un marché pour surveiller ses lignes et transformateurs avec des quadricoptères. Plus d’informations ici.

Les ailes volantes

En Europe, deux grands fabricants produisent des ailes volantes à destination des professionnels de la géomatique. La première, GateWing, est une société belge récemment rachetée par Trimble. Elle commercialise l’aile volante X100 à 40 k€.

Gatewing X100 official product video (2012) from Fries Porteman on Vimeo.

Son principal concurrent est la société suisse SenseFly. Elle a été récemment rachetée par le groupe français Parrot (qui produit déjà l’AR Drone.) Leur drone vedette est le eBee. C’est une solution qui ne nécessite pas de catapulte contrairement à la solution de GateWing. Le drone est vendu avec un logiciel qui permet de calculer un plan de vol et de piloter l’aile volante à distance via une radio qui porte à 3 km en champ libre. Le drone est également vendu avec une suite logiciel permettant le traitement afin de produire facilement des nuages de points 3D et des orthophotos. Cette solution est commercialisée à moins de 20 k€.

Quelle solution retenir ?

Tout dépendra de l’usage. Il faut comprendre que ce qui est habituellement réalisé par un avion sera réalisé à petite échelle par une aile volante. Et ce qui est réalisé avec un hélicoptère le sera aisément à petite échelle avec un quadricoptère. Un quadricoptère a l’avantage de sa maniabilité et du vol stationnaire mais il utilise une grande partie de son autonomie pour rester en sustentation. Il a aussi l’inconvénient d’être plus lourd et plus fragile qu’une aile volante.

Par exemple, on choisira un quadricoptère pour faire de la surveillance d’ouvrages d’art alors qu’une aile volante sera plus adaptée à la production d’orthophotos ou de restitution photogrammétrique sur de grandes emprises.

Importance du post-traitement

Une fois le vol terminé, il reste à exploiter les photos. Le but est d’obtenir un nuage de points 3D, un modèle numérique de terrain, ou des orthophotos. Une solution gratuite, mais très limitée sera d’utiliser le logiciel 123D Catch d’Autodesk. C’est ce qu’à utilisé Charles Dunk dans l’exemple de la première video de cette page.

Le drone eBee de SenseFly est fourni avec une solution de Pix4D, le drone X100 de GateWing avec une solution développée par Trimble.

Autrement, il faudra se rabattre sur les solutions de photogrammétrie classiques (Agisoft PhotoScan, PhotoModeler, etc.)

La législation française

Il n’est pas possible de faire voler un drone sans ignorer la loi. La législation à ce sujet est en constante évolution. Pour simplifier, la loi a prévu plusieurs scenari de vol (4 principaux , fonction de la hauteur de vol, du peuplement de la zone, du poids du drone, de la visibilité, etc … Certaines sont contraignantes, et hélas, ce sont celles qui vont s’appliquer la plupart du temps pour des travaux photogrammétriques.

Conclusion

Dans le futur, pourquoi ne pas imaginer un drone emportant pour charge utile un scanner laser, une centrale inertielle, ou un récepteur GNSS ? Un premier pas a déjà été franchi, nous en parlions dans cet article où un quadricoptère réalise un levé d’intérieur en temps réél avec un scanner laser. Avec la miniaturisation des composants (prenons l’évolution de la taille du premier récepteur GPS avec un R10 par exemple), les perspectives à l’échéance de quelques années sont très encourageantes !

Carto 3D : zoom sur la start-up Earthmine

Présentation

Basée dans la Silicon Valley, à Berkeley, en Californie, la société Earthmine a été fondée en 2006 par John Ristevski et Anthony Fassero. Elle a pour ambition, à l’instar de Google Street View, de faire des relevés de corps de rues, d’indexer la réalité si on traduit littéralement son slogan. J’avais présenté comment étaient réalisées les prises de vues de Google dans cet article. Nous allons voir que la technologie utilisée par Earthmine permet d’en faire plus en comparaison de Street View, ce dernier permettant seulement de visualiser des vues immersives. Attention cependant, Earthmine se contente de vendre une technologie clefs en main et non pas de sillonner les rues pour son compte comme le fait Google.

earthminelogo

Technologie de collecte des données

Earthmine utilise une technologie assez différente de celle du Google Street View. Cette technologie a été développée par un laboratoire de la NASA (le Jet Propulsion Laboratory) et se nomme MARS. On devine bien pourquoi ce système a été développé ! La technologie a donc été rachetée et adaptée par Earthmine pour l’utilisation en milieu urbain.

Le principe de collecte des données est la photogrammétrie terrestre. Nous avons déjà évoqué le principe de la photogrammétrie pour des prises de vues aériennes. Ici, la prise de vues se fait depuis la terre ferme (en voiture, en tricycle, sur un train, etc.) Rappelons simplement que la photogrammétrie implique une prise de vues stéréoscopique, c’est à dire de prendre une photo d’un lieu depuis deux angles différents. (On peut ajouter un angle de vue supplémentaire pour faire de la tri-stéréoscopie.)

earthmine_Mars_web

Le système est composé :

  • de 4 caméras grand angle en haut du mât (8 mégapixels chacune)
  • de 4 caméras grand angle en bas du mât (8 mégapixels chacune)
  • d’une antenne et d’un récepteur GNSS (GPS + Glonass pour assurer une précision centimétrique dans les corridors urbains)
  • d’une centrale inertielle

mars3(1)

Un moteur permet de plier le mât, c’est utile pour passer sous un pont trop bas … Dans le véhicule, un ordinateur muni du logiciel « earthmine Capture Control » épaulé d’une armée de disques durs permet le pilotage du système et la sauvegarde.

Au final, ce sont deux images couvrant chacune un tour d’horizon complet (360°) qui sont acquises à chaque prise de vue. L’image résultante couvre tout l’environnement (360°x180°) et a une définition de 32 mégapixels. La qualité des images (résolution, colorimétrie, distorsion …) est sans comparaison avec les images de Google. Mais la technologie Earthmine est plus récente.

Et la grande valeur ajoutée, c’est le traitement photogrammétrique (automatisé) qui permet d’obtenir un nuage de points 3D sur une partie un peu plus réduite que la photo (360°x165°). 8 millions de points sont calculés par image et 24 millions par seconde d’acquisition. Et ce, sans scanner laser 3D (aussi connu sous le nom de lidar). D’ailleurs, cette technologie permet de créer des nuages de points beaucoup pus denses qu’avec un scanner laser, surtout à grande vitesse.

À chaque acquisition, le système enregistre la position du mât via le récepteur GNSS et son attitude via la centrale inertielle (inclinaison du mât selon les trois angles de tangage, de roulis et de lacet.) Ainsi, à chaque pixel de la photo est associé un point 3D qui lui même possède des coordonnées (avec une certaine précision, nous y reviendrons.) Nous allons voir quelles applications sont possibles.

Technologie de traitement des données / Applications

La technologie Earthmine est utilisée un peu partout dans le monde. Earthmine a développé des outils logiciels qui permettent d’exploiter le nuage de points construit au fur et à mesure de la collecte de données.

  • Un premier logiciel (Earthmine Viewer) permet de se promener dans les rues au travers des vues immersives, comme on le ferait dans Google Street View. Il permet de prendre des mesures sur la photo : hauteur d’un lampadaire, surface d’un panneau, largeur de la chaussée, etc.
  • Un applicatif pour ArcGIS a été développé en collaboration avec ESRI. L’utilisateur se promène dans les vues immersives acquises et peut cliquer sur les objets qu’il souhaite répertorier. Ces objets sont tout de suite visibles sur la partie cartographique ou dans une table. La ville de Greater Geelong, en Australie, a choisi cette méthode pour répertorier tous les arbres et toute la signalisation routière dans son SIG. À San Diego en Californie, le système est utilisé pour inspecter l’état des chaussées, localiser les endroits dégradés, tracer les zones à réparer et donc calculer la surface totale à rénover. Ceci permet d’estimer la durée et le coût des travaux.
  • Un applicatif pour AutoCAD Map 3D a été développé (puis approuvé par Autodesk) et permet de la même façon de tracer directement sur la vue immersive. Le dessin se construit en même temps dans l’espace objet d’AutoCAD. Ainsi, il est possible de réaliser tout le levé topographique d’un corps de rue bien au chaud (ou au frais en été) dans sa voiture puis au bureau. Bouches à clé, bordures de trottoirs, avaloirs, regards, plaques d’égoût, marquage au sol, signalisation, facades de bâtiments … Autant d’éléments rapidement traçables et immédiatement géoréférencés. La rapidité d’intervention sur le terrain est sans comparaison avec celle d’un levé topographique classique.


Certes, la précision n’est pas celle d’un véritable levé topographique mais la qualité du nuage de points annoncée dans les videos de démonstration est de 3 à 4 cm. On peut lire sur différents sites web que la précision est d’environ 10 cm. C’est plus que suffisant pour une application SIG. Un inconvénient subiste : c’est celui des masques. Si une voiture est garée devant un avaloir ou sur une plaque d’égout, il est impossible d’être exhaustif dans le levé.

Une évolution majeure serait la reconnaissance et l’extraction automatique des objets (bordures de trottoirs, marquage au sol, etc.) Certains concurrents proposent déjà cette fonctionnalité (par exemple Trimble pour son système MX).

En France, le groupe PagesJaunes a utilisé la technologie Earthmine pour intégrer dans Mappy sa propre solution de vues immersives. Cette solution s’appelle UrbanDive. Elle vient directement concurrencer ce fameux Google Street View sur le territoire français (dans quelques villes pour l’instant.) Le nuage de points 3D est sous utilisé, mais il permet par exemple de placer des repères aux pas de portes de bâtiments pour indiquer les commerces, les administrations, etc. C’est à ce jour et à ma connaissance la seule entreprise française qui utilise la technologie proposée par Earthmine.

Reportage sur UrbanDive à Tours from UrbanDive on Vimeo.

Retrouvez toutes les videos de démonstration de ces applicatifs sur cette page, c’est impressionnant.

Autres applications

Inventaire du mobilier urbain, sécurité publique (vérification des gabarits routiers pour les véhicules d’urgence) gestion des espaces publicitaires (vérification des surfaces d’affichage pour contrôle fiscal) architecture, ingénierie, surveillance d’un réseau ferré … Mais aussi de la création de décors pour les jeux videos, de la réalité augmentée (exposition Monumenta à Paris), etc.

Services annexes

Earthmine propose également :

  • une solution de stockage en ligne des données (earthmine Cloud, via les webservices d’Amazon) C’est un point important : la quantité de données est très importante et doit être disponible immédiatement en cas d’utilisation par des tiers,
  • des SDK en Flash ou pour iOS (un exemple d’application ici)

L’utilisation de la technologie Earthmine se fait soit par l’achat du matériel, soit en louant leurs services.

Concurrents

Le coût de cette technologie n’est pas public. Mais il serait très intéressant de le comparer avec le prix de la solution proposée par Trimble : le modèle MX8 (technologie scanner laser, plus précis.) La suite logicielle nécessaire au traitement est un point crucial, d’autant que c’est cette partie du travail qui est la plus conséquente.

Un futur qui se construira avec Nokia

Earthmine a été rachetée fin novembre 2012 par le géant finlandais des télécoms. Nokia a déjà une belle solution cartographique avec Nokia Maps (anciennement Ovi) mais on se doute bien de ses intentions avec ce rachat.

Pour en savoir plus, visitez le site d’Earthmine.