L’impression 3D a le vent en poupe, le thème revient fréquemment dans les médias. Il existe plusieurs technologies d’impression 3D, mais la plus mise en avant est la technologie FDM (fused deposition modeling, c’est dire par dépôt de matière fondue). Ce sont les imprimantes que l’on voit le plus souvent dans les fameux fab labs. La technologie n’est pas nouvelle, mais certains brevets sont tombés dans le domaine public, ce qui a provoqué sa relative démocratisation. Il y a encore quelques mois, les tarifs des imprimantes FDM était encore élevé et réservé aux pros ou aux amateurs passionnés. Les autres imprimantes 3D utilisant les technologies par frittage ou de stéréolithographie restent clairement inaccessibles. Cependant, des projets semblent émerger, comme OLO, une imprimante à $99 utilisant la lumière d’un écran de smartphone pour photopolymériser de la résine.
Des imprimantes 3D désormais abordables
Le prix des imprimantes 3D FDM a vraiment diminué, notamment grace aux passionnés qui créent des imprimantes open-source (les rep-raps) avec des composants courants (Arduino/Geniuno pour l’électronique de commande par exemple.)
Je me suis sérieusement intéressé à l’impression 3D après avoir vu cette émission télé :
Il me semblait impossible d’avoir une imprimante 3D de qualité pour moins de 500€. Tout enthousiasmé par ce reportage, j’avais donc passé commande d’une Dagoma Discovery 200 en kit. Mais après quelques lectures de forums, j’ai découvert des kits à monter soi-même plus intéressants, plus évolutifs, plus stables, ouverts … : les rep-raps.
A mon sens, l’aspect montage, bricolage, et la perpétuelle quête du réglage ultime du système rend la chose aussi interessante que le fait de produire des objets.
J’ai donc annulé ma commande Dagoma pour une imprimante totalement open-source, qu’il sera possible d’améliorer, de mettre à jour, de réparer et même d’auto-dupliquer, et tout cela librement ! L’imprimante ne devient donc jamais obsolète : si un élément casse, il est simple, rapide et peu couteux de le remplacer.
La liste presque complète des rep-raps se trouve ici :
http://www.reprap.org/wiki/RepRap_Machines
J’ai choisi le modèle SmartrapCore XL 300 de Smartfriendz. Les avis sur les forums, les démonstrations videos, le principe de l’imprimante, son prix, sa conception en France … voilà les éléments qui m’ont orienté vers ce modèle et ce constructeur.
La smartrapcore xl300 de Smartfriendz
C’est une imprimante de type core xy. De par sa structure en cube, elle me semble beaucoup plus rigide et stable qu’un système à portique comme la Prusa I3.
La Prusa i3 Rework
Il serait tout à fait possible de commander par soi-même tous les composants de l’imprimante pour la monter à partir des plans libres, mais j’ai préférer commander le kit préassemblé chez Smartfriendz.
Smartfriendz, des imprimantes 3D made in Cantal
Smartfriendz est une petite entreprise basée en France, dans le Cantal, à Maurs. Smartfriendz est l’association de 4 passionnés de l’impression 3D : Serge Vieillescaze, Guillaume Leroux, Robin Searle et Eric Sissac. L’entreprise n’est pas (encore) très connue : en novembre 2015 seuls quelques 500 kits ont été vendus depuis la création (source).
La smartrapcore xl300 de Smartfriendz
Pour cette imprimante XL 300, le principe de leur Smartrap Core Alu a été repris, renforcé sur l’axe Z et agrandi pour offrir un volume d’impression de 30x30x30. Pour son lancement le 22 février 2016, une offre spéciale était proposée : prix de lancement à 449€, puis augmentation de 5€ tous les jours à 12h jusqu’à atteindre le prix normal de 599€. En contrepartie, il fallait attendre jusqu’au 31 mars pour recevoir le kit. J’ai donc sauté sur l’occasion et pris mon mal en patience. Avec un chouya de patience en plus, j’ai reçu le kit le 27 avril, presque un mois après la date. L’équipe de Smartfriendz a été transparente sur le contretemps à la livraison : c’est le fournisseur du plateau chauffant qui avait pris du retard …
Je publierai donc un article sur le montage de cette imprimante prochainement !
Choix du filament
Le plastique reste la matière la plus simple à imprimer, bien qu’il ne soit pas impossible d’imprimer du métal fondu en théorie.
Les deux principaux types de plastiques à imprimer sont l’ABS (acrylonitrile butadiène styrène) un plastique issu du pétrole et le PLA (acide polylactique) issu de l’amidon de maïs. Le PLA est biodégradable et émet moins de COV (les composés organiques volatils) que l’ABS lors de l’impression. Mais attention, les vapeurs émises par l’impression du PLA ne sont pas inoffensives non plus !
Les propriétés physiques des deux plastiques ne sont pas tout à fait identiques et la méthode à mettre en oeuvre pour le imprimer n’est pas la même. Pour imprimer de l’ABS, il est intéressant d’avoir un plateau chauffant.
Mais tous les distributeurs de PLA et d’ABS ne vendent pas le même produit. Pour ma part, j’ai testé l’ABS orange de SOVB3D, une entreprise nantaise. Pour le PLA, j’ai commandé une bobine de 750 g de filament ICE FILAMENTS, vendu sur Amazon.
Un autre type de filament plastique commence à apparaitre dans le monde de l’impression 3D amateur : le PET (polyéthylène téréphtalate) Il s’agit du plastique qui compose les bouteilles d’eau notamment. De jeunes hollandais ont eu l’idée de mettre en place un circuit de collecte des bouteilles à quelques kilomètres à la ronde, de trier les bouteilles par couleur et de les recycler en filament. Il est commercialisé sous la marque Refil. Gros point positif également, la bobine est en carton et est recyclable. La boite est en carton également, avec des étiquettes « recycled » prédécoupées au verso à joindre à ses impressions. Smartfriendz est le seul distributeur en France actuellement. Serge m’a montré des pièces imprimées en PET, elles ont un look unique. Ce plastique est, d’après lui, très facile à imprimer. Il a les avantages du PLA et de l’ABS (résistant, certaine souplesse) sans en avoir les inconvénients (résistant à l’eau, peu de COV, recyclable, en principe). Compter 36€ pour 750g. Refil propose aussi de l’ABS recyclé à partir de tableaux de bord de voitures.
Filament Refil
Et maintenant, quoi imprimer ?
Pour disposer d’un fichier STL à transformer en G-Code pour l’imprimante, plusieurs solutions s’offrent à nous :
dessiner soi-même un objet en 3D avec un logiciel de dessin comme SolidWorks ou un autre logiciel en ligne gratuit comme Onshape
scanner un objet pour le dupliquer
récupérer un objet sur internet (sur Thingiverse par exemple)
Je suis aussi ingénieur géomètre, et il m’arrive de relever des ouvrages ou des bâtiments avec des scanners lasers par exemple. Après traitement, il serait tout à fait possible d’imprimer en 3D ces objets à des échelles réduites. Le géomètre pourrait alors rendre, en plus des classiques et ennuyeux plans en papier de vues en plan et en coupe, une maquette en plastique.
Conclusion
L’impression 3D ne peut être bon marché que si l’on opte pour des kits avec des composants standards, voire des composants copiés de composants originaux (par exemple une copie chinoise d’Arduino Mega 3 fois moins chère qu’une originale.) L’achat, la maintenance, les pièces détachées et les améliorations seront moins onéreux qu’avec des imprimantes « propriétaires ». Il y a certes de kits faciles à assembler, bon marché et donnant des résultats intéressants, mais le résultat n’est pas forcément à la hauteur. (Test de la Discovery 200 de Dagoma, avec une rigidité de structure discutable.)
Le BYOD (bring your own device – « apportez votre propre appareil » en français) est le fait d’utiliser ses terminaux personnels (smartphone, tablette, ordinateur, etc.) pour ses activités professionnelles. Par extension, il s’agit d’utiliser des appareils grand public pour un usage professionnel.
Le BYOD et les géomètres
Ce phénomène est réel et existe chez les géomètres (géomaticiens SIG, géomètres-experts, topographes, … et leurs collaborateurs).
Le BYOD est surtout une tendance qui a cours sur le terrain. En effet, les moyens mis a disposition par les entreprises sont très souvent des terminaux durcis, très résistants, mais très onéreux et dans la majorité des cas technologiquement déjà dépassés dès leur commercialisation. En raison de leur coût, ces terminaux ne sont remplacés que tous les 5 à 8 ans au mieux, ou lorsqu’ils ne sont plus réparables après un panne. Le parc de terminaux dans les cabinets de géomètres est très rapidement obsolète pour des applications autres que le pur enregistrement de données/pilotage d’un appareil (station, GNSS, etc.)
Comparons aujourd’hui les moyens typiquement mis à disposition dans un cabinet de géomètres et les moyens personnels :
Carnet de terrain Trimble TSC3
Carnet de terrain Mobile Mapper CX
Carnet de terrain Leica Viva CS15
Les carnets de terrain fonctionnent très souvent sous des versions anciennes de Windows Mobile (version 6 au mieux.) Rares sont les carnets qui, comme le TSC3 de Trimble, offrent une connexion Wifi ou un modem 3,5G pour naviguer sur internet. Mais dans tous les cas, oubliez les applications modernes, la fluidité de navigation et la compatibilité avec les derniers standards du web. Certes, les choses ne sont pas aussi tranchées : il existe aujourd’hui du matériel très performant et durci, comme la tablette Yuma 2 de Trimble qui offre des fonctionnalités modernes (processeur de dernière génération, mémoire digne de ce nom en SSD, bluetooth 4.0…) et une compatibilité accrue (système d’exploitation Windows classique, comme Windows 7) mais à un prix exorbitant comparativement à une tablette grand public aux performances équivalentes.
En revanche, avec votre smartphone ou votre tablette, vous bénéficiez déjà d’une liaison 3G/4G, du Wifi, d’un récepteur GPS, d’un système d’exploitation récent qui offre une compatibilité avec des applications récentes et réellement utiles sur le terrain : GPS et cartographie pour se rendre sur un chantier avec Google Maps ou Waze par exemple, l’accès à des données pertinentes comme le Géoportail de l’IGN ou l’application Géofoncier, la possibilité d’ouvrir et d’éditer un plan avec AutoCAD 360 mais aussi des choses toutes simples, comme prendre des photos de qualité, consulter ses mails et ouvrir des pièces jointes (documents PDF, fichier de points, etc.) Le tout pour quelques centaines d’euros contre plusieurs milliers pour un carnet.
Smartphones de 2014
Vous allez me dire que votre smartphone n’est pas étanche, ou pas aussi résistant qu’un carnet de terrain durci. Et bien regardez chez certains constructeurs : Sony produit des smartphones étanches. Ou de manière plus exotique, le japonais Kyocera produit désormais le Torque, un smartphone 4G étanche et durci. Cat vient d’annoncer le S50. Du côté des tablettes durcies, l’hégémonie de quelques constructeurs (Panasonic, Mio, etc.) qui imposaient de prix prohibitifs, est en train de prendre fin. Regardez par exemple du côté de Samsung, et sa Galaxy Tab Active sous Android.
Remplacer le carnet de terrain par un smartphone
Vous allez aussi me dire que votre smartphone/tablette ne peut pas faire ce que fait le carnet de terrain, à savoir faire un levé topographique à la station totale ou avec un récepteur GNSS. Et bien si !
Avec une liaison bluetooth (voire bluetooth longue portée pour une station robotisée) vous pouvez utiliser des applications de levé topo. Par exemple, Systranova Software propose des applications Android compatibles avec Topcon, Leica ou Nikon. Je n’ai pas testé cette application, les possibilités semblent encore limitées et certains modèles d’appareils sont incompatibles. Mais il ne tient qu’aux constructeurs de proposer des applications iOS, Android ou Windows Phone pour utiliser leurs appareils (stations, GNSS) sur des smartphones ou des tablettes. C’est techniquement possible et facile à développer. Peut-être ne le font-ils pas pour continuer à vendre des carnets aux prix prohibitifs … (À noter qu’il existe déjà des solutions métier sous Windows, compatibles avec les grands constructeurs de matériel topo, comme Géopad de Géopixel, ou Land2Map d’Atlog qui fonctionnent sur des tablettes Windows et permettent de s’affranchir du traditionnel carnet de terrain.)
Certains appareils s’ouvrent déjà au BYOD : interfaces web via Wifi direct dans les scanners laser, interface de paramétrage dans le Trimble R10, etc. D’autres y sont pleinement destinés, comme le récepteur Trimble R1 (sub-métrique, réservé aux applications SIG).
C’est justement dans le domaine des SIG que le BYOD est intéressant. Il existe beaucoup d’applications de collecte de données sous iOS ou Android, il suffit de faire une recherche avec le mot clé « GIS ». Je recommande d’ailleurs l’application TerraFlex sous Android qui permet de faire facilement d’une collecte de données SIG (période d’essai gratuite.)
Conclusion
En conclusion, je pense que la convergence entre le matériel professionnel (carnets durcis) et le matériel grand public (smartphones, tablettes) est amorcée. On voit apparaitre des produits durcis et étanches avec des performances intéressantes à des prix grand public. Les constructeurs semblent s’y intéresser et je pense qu’il est dans leur intérêt de se tourner vers cette tendance.
Cet article est ma libre traduction d’un article de Iain Butler (@theuavguy ) à propos de l’utilisation du drone tout public Iris+. Le but est de démontrer que la production photogrammétrique est possible avec ce type de matériel. Dans les cas d’étude qui vont suivre, le flux de travail (établissement du plan de vol, vol, traitement des données) vont être supervisés et automatisées par la plateforme Drone Deploy. L’article original est consultable sur le blog de theUAVguy.
Introduction
J’ai récemment été contacté à propos d’un de mes précédents articles relatif aux études des vignobles par une start-up spécialisée en drones, basée à San Francisco. Dans mes précédents articles, je me suis prononcé sur la pertinence d’un écosystème global de gestion du flux de travail par drone. Il ne s’agit pas ici de démontrer l’aspect séduisant du drone, mais bien sa pertinence comme outil pour produire des données opérationnelles, qui peuvent être utilisées pour améliorer les rendements des cultures, réduire le temps de relevé ; dans un sens, vous faire travailler plus efficacement avec moins de charge de travail. Ce que Drone Deploy propose, c’est de s’occuper de la partie traitement du flux de travail et de l’automatiser. De par mon expérience, et de mes discussions avec d’autres opérateurs de drones, voler et acquérir des images exploitables représente 20% du temps de travail, les 80% restants étant du temps de traitement des données, d’analyse des données et de la prise de décisions.
Pourtant, Mike Winn, PDG et fondateurde Drone Deploy (avec Jono Millin et Nicholas Pilkington) m’a expliqué qu’ils ont conçu un produit qui peut rapatrier les données du drone en vol, oui, en plein vol, et commencer le traitement de données avant même l’atterrissage. 15 à 30 minutes après l’atterrissage, vous êtes censé avoir toutes vos données traitées et disponibles. Vraiment ? Ceci semblait trop beau pour être vrai, à tel point que j’ai décidé d’enquêter pour voir si le système Drone Deploy tient ses promesses.
Qu’est ce que Drone Deploy ?
J’ai connu Drone Deploy pour la première fois en mai 2014 à l’expo sUBS à San Francisco, où ils ont présenté leur système « Co-pilot » (partie matérielle) et leur logiciel de post-traitement. Le principe, c’est que Drone Deploy rassemble vos images au fur et à mesure qu’elles sont acquises et les envoie dans le cloud, où elles vont être traitées très rapidement sur des serveurs rapides et conçus pour cet usage. Les résultats sont présentés par le cloud à l’utilisateur par n’importe quel terminal avec un navigateur web. De cette manière, le traitement par les serveurs est réalisé dans des temps inatteignables avec un ordinateur standard.
Je vous entends déjà : comment les images sont-elles envoyées de l’aéronef jusqu’au cloud ? Et bien Drone Deploy a résolu ceci en utilisant un modem cellulaire, celui du système « Co-pilot » (d’où le titre de l’article) qui tourne à un débit type LTE (4G) pour permettre aux images d’être envoyées dans le cloud depuis l’appareil photo alors qu’il prend des photos. Vous commencez à comprendre quelle masse de travail Drone Deploy donne à son système « Co-pilot » et au traitement dans le cloud associé. Le « Co-pilot » lui-même intègre un modem LTE (4G) pour le transfert des images dans le cloud, un module Wifi pour communiquer avec l’appareil photo et une liaison pour la télémétrie afin de communiquer avec le contrôleur de vol. « That’s pretty cool. » Pourquoi ? Parce que le « Co-pilot » recueille les coordonnées GPS du contrôleur de vol lorsque le déclencheur de l’appareil photo est actionné, et les joint à l’image produite. […]
Ce qui est encore mieux, c’est que la liaison LTE (4G) est bi-directionnelle. Quel en est l’avantage ? C’est de vous permettre de communiquer avec l’aéronef depuis un terminal via un navigateur web. Mais ce que Drone Deploy a fait, c’est intégrer le logiciel qui établi le plan de vol dans leur propre interface web. Ceci vous permet de planifier une mission, voler, et avoir un oeil sur les données post-traitées sur le même appareil, juste en utilisant un navigateur web, sans liaison de télémétrie ou autre… Ainsi Drone Deploy s’est tourné vers de multiples marchés et plateformes avec son interface web de plan de vol et de visualisation de données. Premièrement, le système de Drone Deploy est compatible non seulement avec les systèmes à voilure fixe mais aussi ceux à voilure tournante (hélicoptères, multirotors). Deuxièmement, Drone Deploy a segmenté les types de missions : la topographie, l’agriculture, la construction et la modélisation 3D. Il ne reste plus qu’à choisir la catégorie qui correspond le mieux à la misson.
Mais alors, que se passe t-il s’il n’y a pas de couverture LTE (4G) sur le chantier ? Et bien Drone Deploy travaille sur le problème. Vous pouvez pré-planifier une mission et voler sans couverture LTE, et donc sans liaison descendante de télémétrie. Une fois que vous êtes de retour dans une zone couverte en LTE (4G), allumez votre drone et il va verser les données sur le cloud de Drone Deploy. Les données vont alors être traitées. Drone Deploy travaille également pour intégrer des liaisons Bluetooth/Wifi pour établir des liaisons avec le drone sur le chantier.
Ok, mais concernant les clients internationaux ? Drone Deploy a une vision d’ensemble de la communauté des opérateurs de drones, et prévoit de se déployer à l’étranger. Soyez prêts !
À quoi ressemble une mission Drone Deploy ?
Voici un cas pratique avec un multirotor :
1. Posez le multirotor à son point de décollage, allumez le transmetteur, allumez l’appareil photo du drone et connectez la batterie du drone. À ce moment là, le drone va se connecter au serveur cloud de Drone Deploy et rapatrier les mises à jour le cas échéant.
2. Sortez votre terminal, que ce soit un Android, un iPhone, un ordinateur portable ou une tablette et identifiez vous sur le site web de Drone Deploy. Vous alors redirigé vers le tableau de bord qui affiche les missions déjà planifiées (il est possible de planifier des missions au bureau ou à la maison, bien au chaud) ou les missions déjà effectuées avec les résultats associés.
3. Vous avez maintenant le choix de planifier une nouvelle mission, d’effectuer une mission pré-planifiée ou réeffectuer une mission déjà faite.
4. Commençons par planifier une nouvelle mission. Choisissez une catégorie, comme « Agriculture ».
5. On vous demande alors quel type de drone et quelle caméra vous allez utiliser, ainsi que votre position actuelle.
6. Dessinez une emprise de chantier et définissez quelle taille de pixel au sol vous souhaitez, ou bien l’altitude de vol.
7. Drone Deploy va alors générer un plan de vol et calculer les bons recouvrements d’images pour permettre un bon recalage interclichés. Ce qui est intéressant, c’est qu’il n’y aura pas d’images surabondantes prises pendant la mission. Trop d’images implique des temps de traitement plus longs. Les paramètres par défaut sont de voler le plus haut possible, aussi vite que possible et prendre juste assez d’images pour assurer l’assemblage des images. Drone Deploy calcule tout ceci pour vous. Ainsi, le système « Co-pilot » déclenche l’appareil photo au moment où les points de déclenchement déterminés sur le plan de vol sont atteints par le drone. Notez également que le générateur de plan de vol prend en compte l’autonomie du drone et la compare à la durée du plan de vol. Si la mission dépasse l’autonomie du drone, un drapeau rouge indique le problème.
8. À ce stade, les statuts du multirotor sont visibles sur la page web, avec affichage de l’état de la connexion, des mises à jour, du verrouillage GPS et un bouton « Voler maintenant ».
9. Vous cliquez sur le bouton « Voler maintenant » et le système « Co-pilot » va passer en revue une check-list. Il va connecter l’appareil photo, vérifier la batterie de l’appareil photo, vérifier la batterie du multirotor, s’assurer que le GPS est verrouillé, prendre une photo de test et l’envoyer dans votre navigateur. Si tous les tests sont validés, la check-list est elle aussi validée et le bouton « Prêt à voler » apparait. Si la vérification d’un des points de la check-list échoue, le drone ne va pas décoller. C’est une disposition de sécurité intrinsèque : il n’est pas possible de décoller avec des batteries déchargées, un GPS non verrouillé, etc.
10. Maintenant mettez votre transmetteur sur AUTO et cliquez sur « Décollage » dans votre navigateur web. Une alerte apparait : « Décollage dans 5 secondes ». Le compte à rebours démarre et à 0 le drone va décoller pour atteindre son altitude de travail. Il commence alors à suivre son plan de vol.
11. Pendant le vol, les images sont versées sur le serveur cloud et traitées durant le vol. Les images sont également affichées dans le navigateur web, avec les paramètres de vol (vitesse, altitude, niveau de charge de la batterie …) Le plan de vol lui aussi est affiché, avec la progression de l’aéronef, sa direction de vol et sa direction de pointage.
12. Ce qui vient est vraiment impressionnant. Pendant le vol – et alors que les images sont traitées sur le serveur – les résultats assemblés sont placés en temps réel, oui en temps réel, sur le plan de vol de votre navigateur web. Pour n’importe qui aurait déjà utilisé un logiciel d’assemblage de photos, tout ceci ressemble à de la magie. L’assemblage se fait en temps réel alors que le drone est toujours vol.
13. À la fin de la mission, le multirotor retourne à son point de décollage (ou sur le point défini par l’opérateur) et atterrit.
14. Après l’atterrissage, de grandes emprises du chantier vont être assemblées, ou même la totalité du chantier. Les résultat peuvent même être déjà disponibles. Dans tous les cas, l’orthomosaïque, les cartes ENDVI et les modèles numériques de terrain vont être visibles en environ 15 minutes, en fonction de la taille du chantier.
15. Vous pouvez alors éteindre le drone et le ranger. Prenez maintenant votre smartphone : vous pouvez visualiser les résultats alors que vous êtes encore sur le terrain. En utilisant la carte géoréférencée de la mission, il est possible de rendre sur un point précis et de vérifier la véracité des données.
16. Vous êtes prêt pour aller sur le chantier suivant.
La sécurité est primordiale : Drone Deploy utilise une barrière virtuelle en trois dimensions, qui permet de détecter les écarts du drone de son couloir de vol. Des écarts excessifs vont entraîner un retour au point de décollage et un atterrissage. Il est également possible de définir des zones interdites de survol avant le calcul du plan de vol.
C’est vraiment aussi simple et rapide que ça. Voici une video de l’intégralité du processus à partir d’un plan de vol pré-établi. Regardez comme c’est rapide : http://youtu.be/c28uEXJvW6U
Pour le premier essai, c’est un drone Iris+ du fabricant 3D Robotics qui a été utilisé. L’idée derrière cette choix est de prouver qu’un petit drone tout public peut effectuer une mission professionnelle. Souvenez-vous de mon postulat : « le drone est simplement un outil. » Je vois un grand nombre de fabricants de drones produisant d’excellents produits, mais les prix sont dans une fourchette de $15k à $30k. Encore une fois, tout ce que le drone fait, c’est d’embarquer un appareil photo. Ce qui est important, ce sont les images produites par l’appareil photo. Si vous voulez des données qualitatives, focalisez vous sur la charge utile, et utilisez simplement le drone comme un vecteur, une plateforme.
Est-ce qu’un drone tout public à $750 peut effectuer une mission professionnelle en utilisant Drone Deploy ? La plupart des agriculteurs et agronomes veulent un retour sur investissement sur les nouvelles technologies. Pourquoi ne pas leur fournir un outil qui leur permette d’apprécier l’agriculture de précision par drone, mais sans vider leur compte en banque ? Il n’y a qu’une seule manière de savoir.
Le drone Iris+ de 3D Robotics
Il fallait ensuite choisir un appareil photo et une nacelle. Evidemment, il faut faire un compromis entre résolution, poids, durée de vol et couverture spectrale. Le drone Iris+ peut embarquer une GoPro Hero 3 ou 4, de manière fixe ou sur une nacelle Tarot. Pour obtenir de bonnes données, une nacelle est utilisée de manière à ce que la caméra soit toujours pointée vers le nadir. Ce pointage et la nacelle stabilisée (par moteur brushless) permettent à la caméra de produire des images nettes avec un bon recouvrement. […]
Parlons maintenant de la GoPro. Bien sur, nous voulons analyser la santé et le stress hydrique de la végétation, donc nous avons besoin d’une caméra sensible au proche infrarouge (760 – 850 nm) ou en bande rouge limite (690 – 730 nm). Ceci nécessite de récupérer une GoPro, l’ouvrir et retirer le filtre utilisé pour produire des images RVB : http://youtu.be/_tUl-BzZN70
Une GoPro IR-PRO
(Si vous n’êtes pas sûr de pouvoir/vouloir réaliser ce bricolage, utilisez une camera du commerce de chez RageCams ou IR-Pro.)
Alors, quels résultats attendre d’une GoPro NDVI ? La chose la plus importante à retenir est qu’il ne s’agit pas d’une camera NDVI calibrée. Pour aller sur cette voie, il faut se diriger vers des solutions plus couteuses. Ici nous parlons d’une solution bon marché : un drone de reconnaissance pour un agriculteur qui veut faire ses premiers pas dans le domaine des drones avec un retour sur investissement rapide sans vider son compte en banque, mais qui peut générer des données opérationnelles et puisse identifier des problèmes sur la végétation et les cultures, corrélées aux données terrain. Le Saint-Graal de la télédétection NDVI par drone est tel que, si vous parlez avec n’importe qui avec un tant soit peu d’expérience dans ce domaine, on vous dira que l’indice NDVI est le seul qui vaille. Ce n’est pas vrai, en réalité c’est l’utilisation de plusieurs combinaisons de cameras pour acquérir des images aériennes, avec la corrélation de données terrain, qui va permettre le générer des données opérationnelles. Des cultures mixtes seront mieux restituées avec des cameras différentes, du traitement, des combinaisons de bandes (PIR-V-B et FLIR par exemple). Il n’y a pas de combinaison camera/formule spectrale qui fonctionnera pour tous les cas. Bien sur, la résolution, la taille de l’image, l’effet de l’obturateur… vont jouer également, mais la question ici est de savoir si vous pouvez utiliser une GoPro pour l’indice NDVI qui permet une corrélation utile avec les données terrain.
Faisons quelques comparaisons. Ci-dessous, deux vues : une d’un paysage, l’autre d’une plante, prises avec :
– un Canon SX260HS non modifié,
– une GoPro modifiée (avec une lentille IR-Pro InfraBlue22 NDVI)
– un Canon SX260HS avec un ancien filtre Event 38
– un Canon SX260HS avec un filtre Event 38 récent.
Cela fait 8 photographies en tout. Evidemment, vous ne pouvez pas analyser la santé de la végétation à partir d’une image RVB, mais ce sera notre référence pour comprendre ce sur quoi porte notre étude.
Photos RGB :
Maintenant regardez les images de la GoPro NDVI. Vous pouvez voir que la végétation est rouge/marron/rose alors que les objets artificiels sont visibles comme sur l’image RGB. On voit tout de même des teintes rose sur les objets artificiels.
Photos GoPro NDVI :
Concernant l’ancien filtre Event 38, vous pouvez voir qu’il produit une séparation spectrale équivalente, avec quelques recouvrements entre la végétation et les objets artificiels. Ici les objets artificiels comme les bâtiments et les routes ont une légère teinte rose, mais moins qu’avec la GoPro. Ceci est du à la raie rouge dans la bande passante du filtre.
Photos avec l’ancien filtre Event 38
Sur les filtres Event 38 récents, vous pouvez maintenant voir une bonne séparation spectrales des objets, avec des objets artificiels peu ou pas teintés de rose, et une végétation bien représentée dans les teintes rose/marron. Ceci s’explique par la forme de la bande passante du filtre, en créneau, dont le décalage spectral a été décalé vers le haut.
Photos avec le nouveau filtre Event 38
Vous pouvez voir comment, avec 3 filtres PIR (proche infrarouge) et de bons imageurs, les résultats obtenus sont significativement différents. Dans cet article les vols seront seulement réalisés avec la GoPro et le filtre/lentille InfraBlue22 NDVI […] Avec une GoPro InfraBlue22, il est possible de réaliser des vidéos en PIR. En voici un exemple. Encore une fois, remarquez les couleurs du sol qui sont nuancées, en raison de la sècheresse en Californie, des accumulations d’eau issues des premières pluies depuis des mois, les couleurs chatoyantes des arbres, et les objets artificiels comme le chemin et les immeubles :
On me pose souvent une question : « Puis-je voler avec une GoPro NDVI et visionner les videos pour voir l’état de santé des cultures ? Ainsi, je n’aurais pas à faire ce travail d’assemblage et de traitement ? » J’ai bien peur que non, la GoPro InfraBlue22 n’est pas vraiment une camera NDVI. Ce qu’elle fait, c’est capturer les bandes spectrales du proche infrarouge, du vert et du bleu, qui ont alors besoin d’être traitées pixel par pixel pour générer une image NDVI, en utilisant une formule NDVI, ENDVI ou DVI. Il existe beaucoup de formules : chacune présente ses avantages en termes de résultats en fonction de la nature des cultures, l’ensoleillement, la présence de nuages, le type de filtre, etc. Pour obtenir l’image NDVI d’un grand territoire, vous devez capturer un lot d’images se superposant en PIR-V-B (ou d’autres combinaisons de bandes en fonction des filtres), les assembler et les traiter selon la formule. Si quelqu’un connait un logiciel de traitement de videos NDVI, faites le moi savoir. Sinon, prenez cette idée et faites en un projet Kickstarter ou une startup ! (Note du traducteur : il existe de nombreux logiciels de traitement d’images qui permettent ceci, notamment la bibliothèque libre ORFEO Toolbox.)
Cas pratiques
Trois cas pratiques ont été menés. Les vols ont été pré-planifiés en amont de la phase terrain, donc ils ont simplement été opérés avec un iPad connecté à internet. Deux missions ont permis de couvrir 8 hectares à une altitude de 80 m, ce qui a pris à peu près 9 minutes de vol, alors que la dernière mission couvrait 2 hectares à 50 m d’altitude pour un temps de vol de 5 minutes. Les vols ont été réalisés avec une GoPro 3 Black modifiée en utilisant le filtre/lentille NDVI IR-Pro InfraBlue22, pointée au nadir (c’est à dire vers le bas, contraire du zénith), une nacelle Tarot Gimbal, le tout embarqué sur un multirotor Iris+ de 3D Robotics. Les lieux de test ont été choisis en raison de la présence de milieux végétaux variés, de prairies en herbe ou fauchées, d’objets artificiels, ou de pelouses plantées et entretenues. Afin de travailler de manière irréprochable, les images de chaque mission ont également été traitées avec Pix4D Pro. En raison de la nature des lieux de test, l’assemblage des images n’était pas facile mais ceci était volontaire afin de tester la performance des algorithmes.
Cas pratique n°1
Description
Prairie sauvage en période de sécheresse sur des collines avec une dénivelée négative depuis le point de décollage. Mélange de prairie sauvage, prairie fauchée, broussailles, enclos et bétail. Le vol couvre 8 hectares à une altitude de 80 m et a pris 9 minutes. À l’issue du vol, il reste 37% de batterie.
Plan de vol vu dans Drone DeployOrthomosaïque dans Drone DeployCarte NDVI dans Drone DeployCarte d’élévation dans Drone DeployVue oblique du modèle numérique de terrain dans Drone DeployReconstruction avec Ray Cloud dans Pix4DOrthophoto issue de Pix4DCarte NDVI issue de Pix4D
Photos au sol
Vue Sud du site étudiéVue du sol et broussaillesTrous dans le sol et bossesSentier à gauche de l’aire d’étudeLa route et le talus à droite de l’aire d’étude
Vérification au sol
L’image 1 est une vue d’ensemble de la zone. Vous pouvez voir le terrain ondulant en pairie, constitué d’herbe, de végétation et de broussailles comme montré sur l’image 3. C’est une prairie en herbe banale. Il est intéressant de regarder au centre de la photo, vers la colline suivante, juste à gauche vous pouvez voir une piste qui suit cette colline. Maintenant regardez l’orthomosaïque et la carte NDVI, sur la partie à droite vous remarquez une zone bleue assez courbe. Il s’agit bien de la piste, mais pourquoi est-elle bleue ? Et bien regardez plus à droite vers la route et comparez avec l’image n°5. Vous verrez un talus, mais sur la carte NDVI, à l’endroit du talus, il y a également une zone bleue. Maintenant regardez l’orthomosaïque, la carte NDVI, le MNT et le modèle 3D et au milieu vous verrez encore une zone bleue. En regardant la photo n°3, ceci peut être interprété comme étant causé par un gros trou dans le sol. Alors qu’est-ce qui entraine cette coloration bleue ? Et bien le relevé a été effectué un après-midi de fin décembre, avec un soleil bas sur l’horizon : les zones bleues correspondent aux ombres. Maintenant regardez le côté gauche de la carte NDVI et vous verrez une zone bleue, c’est en réalité l’ombre des broussailles sèches visibles sur la photo n°2.
Le reste de la carte NDVI montre des dégradés de vert qui sont corrélés aux différentes densités d’herbe dans la praire. Sur la photo n°4, vous pouvez voir une forme à gauche du trou, qui l’on repère facilement sur l’orthomosaïque, la carte NDVI, le MNT et le modèle 3D. Et ce qui est intéressant, c’est la quantité de données récupérées, de la densité de végétation, à la détection des dénivelées, les dépressions et les bassins versants, les clôtures, les pistes, etc. Ce sont des données riches d’informations obtenues avec un vol de drone de 9 minutes seulement sur plus de 8 hectares.
Cas pratique n°2
Description
Prairies durant la sécheresse avec des zones sauvages ou tondues, bâtiments et zones bétonnées dans la zone d’étude, voir le modèle 3D. Le décollage a été effectué depuis le haut d’une colline vers le centre de la zone relevée, avec un terrain dénivelant en vallons. La pluie des jours précédents a mis en évidence des zones d’accumulation d’eau dans des bassins de faible profondeur. Vol de 9 minutes 10 secondes à 80 m de hauteur avec 41% de charge de la batterie restant à l’atterrissage.
Plan de vol Drone DeployOrthomosaïque Drone DeployCarte NDVI Drone DeployMNT Drone DeployModèle 3D Drone DeployPix4D Ray CloudOrthomosaïque Pix4DCarte NDVI Pix4DPhoto n°1 – Vue Sud du site de décollagePhoto n°2 – Vue Nord du site de décollagePhoto n°3 – Gros plan sur une dépression inondée au sud du site de décollagePhoto n°4 – Vue ouest depuis le site de décollage
Vérification au sol
[A suivre : suite de la traduction avec un 3ème cas pratique et les conclusions sur l’utilisation de Drone Deploy.]
Traduction assurée avec autorisation de l’auteur. Merci à lui !
Pratiquer l’astronomie et l’astro-photographie n’est pas toujours facile : il faut s’éloigner des sources de pollution lumineuse, installer son matériel, tomber sur un bon créneau météo et donc, avoir du temps et pas mal de motivation. Mon ami Philippe Deverchère a trouvé la solution : construire un observatoire robotisé et contrôlable à distance. Il a également eu la bonne idée de partager son expérience sur ce blog.
Du contrôle électrique du toit roulant à la commande de focus en fonction de la température, tout y est !
Le groupe de travail GNSS-SDR a pour but de produire un logiciel GNSS open source multi-constellation (GPS/GLONASS/Galileo/COMPASS/etc.) et donc multi-fréquence, qui ne soit pas une « boite noire ».
Pourquoi se lancer dans une telle entreprise ?
Les récepteurs GNSS dans les téléphones ne sont pas utilisables directement : sur Apple iOS, on ne peut récupérer la position, la vitesse, l’altitude et la précision du positionnement que par les fonctions du » core location framework « . Sur Android, même chose : la bibliothèque de fonctions ne permet pas de rentrer dans les rouages du système. Exit les informations de GDOP (global dilution of precision), le numéro des satellites, leur position, etc.
Exit aussi la possibilité d’utiliser des systèmes d’augmentation de son choix : WAAS aux Etats-Unis, EGNOS en Europe. On rappelle que ces dispositifs corrigent certaines erreurs dans le processus de géolocalisation (gratuitement) par l’envoi de corrections par le biais de satellites géostationnaires.
Philosopihe du groupe
Le groupe de travail s’attaque à la base du principe de géolocalisation : l’étude de forme des signaux reçus des satellites.
Obtenir de telles données est impossible avec les puces des smartphones, on vient de le voir, mais aussi avec les récepteurs professionnels (Leica, Trimble, etc.) qui restent des systèmes fermés.
Les graphes ci-dessus proviennent d’un montage réalisé avec une clé USB TNT avec le même principe de base qu’évoqué dans un article précédemment traité ici. En gros, ils utilisent une antenne GPS Garmin (simple antenne déportée qui sert dans les voitures) un amplificateur (LNA) et cette fameuse clé USB TNT dotée d’un circuit RTL2832U et d’un tuner E4000.
Premières conclusions de leur expérience
A partir du montage décrit ci-dessus, de lignes de code (Matlab, C++) et de beaucoup de patience et d’acharnement, ils ont réussi à obtenir les signaux de 4 satellites, ce qui est suffisant pour obtenir une position. Certes, la précision obtenue est de 200 m, mais n’est-ce pas un bon début ? L’image ci-dessous illustre 10 secondes d’acquisition.
Perspectives
La prochaine étape est de parvenir à capter plus de satellites et d’augmenter la précision du positionnement. L’utilisation de cette clé USB TNT présente l’avantage d’offrir une solution très peu chère pour acquérir les signaux. Mais la contrepartie pour l’instant, c’est d’avoir « un tuyau » au débit trop réduit pour capter tous les satellites.
En tout cas, on hâte de voir la suite de leurs recherches !
Pour obtenir les détails de leurs premières expériences, visitez la page du groupe GNSS-SDR.
Une radio logicielle, en anglais Software Radio ou Software Defined Radio (SDR), est un récepteur et éventuellement émetteur radio réalisé principalement par logiciel et dans une moindre mesure par matériel.
Vous l’avez compris, nous allons réaliser un récepteur radio à partir d’une clé TNT. Celle ci-dessous vaut moins de 25 €. Et garantie 5 ans 😛 (Un peu moins peut être avec les radiateurs que je lui ai ajouté.)
Il devient alors possible d’écouter tout ce qui se passe sur la bande 50 MHz – 1700 MHz. Ce « hack » ne date pas d’hier, il y a déjà eu des articles dessus. Cependant, la plupart de ces articles est en anglais. De plus, en ayant suivi les méthodes préconisées par ces articles, j’ai quand même eu quelques soucis. Je vous propose donc mon tutoriel pour choisir le bon matériel et réussir cette manipulation.
Quel lien avec la cartographie et les autres thèmes de ce blog ? Aucun au premier abord … Et pourtant, ce système permet d’écouter tous types d’ondes radio, y compris les ondes des satellites GPS. Les fréquences GPS sont L1 (1 575,42 MHz) L2 (1 227,60 MHz) qui sont donc deux fréquences accessible par notre montage, moyennant une petite bidouille supplémentaire. Des tests sont en cours pour faire du positionnement.
Prenons-nous à rêver. Imaginons deux clés sur notre ordinateur, l’une écoute L1, l’autre L2. On aurait un GPS bi-fréquence pour moins de 50 € !