Ce document est un tutoriel d’initiation à la manipulation d’images satellites d’observation de la Terre. L’objectif est de fournir quelques clés pour appréhender ce type de données sur des logiciels informatiques dédiés libres et à code source ouverts (free and open source software), via un cas d’utilisation classique en télédétéction spatiale : la cartographie l’occupation/utilisation du sol.
Nous proposons d’utiliser le logiciel QGIS comme interface principale de visualisation des données et de paramétrisation des algorithmes, tout en “augmentant” ses fonctionnalités de base grâce à sa capacité à intégrer de nombreuses librairies spatiales externes.
Plus spécifiquement, nous utilisons les logiciels et librairies suivantes :
Les images satellites manipulées sont des produits Sentinel-2 au niveau 1C ainsi que le modèle numérique de terrain Shuttle Radar Topography Mission (SRTM). Ces produits sont en libre accès et disponibles sur l’ensemble de la surface terrestre.
Prérequis pour aborder sereinement le document: concepts de bases en SIG et télédétéction, utilisation basique de QGIS (ouvrir et manipuler des données vectorielles et rasterisées sur QGIS)
Mots clés : télédétéction spatiale, Sentinel 2, occupation du sol, classification supervisée orientée pixel
Note importante n°1 : Avant de commencer le tutoriel, veillez à installer et configurer l’ensemble des logiciels utiles ! Rendez-vous à l’annexe n°1 pour un guide d’installation et de configuration des logiciels.
Note importante n°2 : Les jeux de données mentionnées dans ce tutoriel sont fournies aux personnes formées. Afin de contrôler si les données générées aux différentes étapes du tutoriel sont conformes à ce qui est attendu, l’ensemble des données intermédiaires est également fourni.
Dans cette étude fictive, nous souhaitons améliorer les connaissances sur les habitats favorables aux moustiques vecteurs du paludisme dans le Sud-Ouest du Burkina Faso. Pour cela, nous avons collecté des moustiques par capture sur sujet humain dans plusieurs villages de la région de Diebougou. Nous allons à présent cartographier l’occupation du sol sur la zone d’étude. En croisant finalement les deux jeux de données (captures de moustiques et occupation du sol), nous pourrons répondre à notre problématique initiale.
Les villages dans lequels nous avons effectué les captures sont fournis en tant que fichier vectoriel sous vecteur/villages.gpkg
. Nous souhaitons définir la région d’intérêt (en anglais ‘Region Of Interest’) de notre étude, c’est-à-dire, la surface géographique pour laquelle nous allons faire une carte d’occupation du sol.
Objectifs :
QGIS > Créer une couche
).Etapes :
vecteur/villages.gpkg
sur QGIS.vecteur/roi.gpkg
. Veillez à bien lui attribuer une projection en UTM (EPSG : 32630).Avez-vous réussi ?
Dans le cadre d’une classification supervisée à des fins de cartographie d’occupation du sol, nous avons besoin de deux types de données :
Une classification supervisée requiert, par définition, un jeu de données d’entraînement et de validation du modèle. Dans le cas d’une classification de l’occupation du sol, il s’agit de collecter un échantillon représentatif des parcelles d’occupation du sol de notre zone d’étude.
L’objectif de cette étape est donc d’acquérir une couche SIG vectorielle de polygones représentant des parcelles dont on est certain de la classe d’occupation du sol, en procédant en deux temps :
Dans ce tutoriel, nous utiliserons un jeu de données terrain qui a été aquis en novembre 2018 dans notre région d’intérêt. Le jeu de données est stocké sous vecteur/ground_truth.shp
. Nous avons établi 5 classes d’occupation du sol : eau permanente, milieux dégradés, zones humides, cultures et jachères, milieux naturels.
Etapes :
vecteur/ground_truth.shp
et explorez son contenu (colonnes, nombre de parcelles pour chacune des classes, etc.).Avez-vous réussi ?
Les produits satellitaires vont nous permettre de cartographier l’occupation du sol sur l’ensemble de notre zone d’étude. Dans notre cas, nous allons utiliser deux types de produits : des images satellites optiques et un modèle numérique de terrain (MNT).
Il existe de nombreuses sources d’images satellites optiques. Les images se distinguent par leurs résolutions spatiale (de quelques centimetres à plusieurs kilomètres) et spectrale, leur étendue (quelques dizaines de kilomètre carrés à plusieurs dizaines de milliers de km2), leur date d’aquisition, leur coût (gratuit à plusieurs milliers d’euros), etc. C’est la nature de notre projet et nos contraintes qui guident le choix des images à utiliser. L’Annexe 2 présente une liste (non-exhautive) de site internet pour pré-visualiser et récupérer des produits satellitaires.
Dans notre cas, nous utiliserons des données issues du satellite Sentinel-2. Sentinel-2 fait partie de la constellation de satellites du programme Sentinel de l’Agence Spatiale Européenne. Le capteur dont il est équipé (MultiSpectral imager) capture des images dans 13 bandes spectrales dans les domaines du visible et de l’infrarouge, allant de 10 à 60 mètres de résolution spatiale. La période de revisite du satellite est de 5 jours. Les données sont libres d’accès, comme toutes les données du programme Sentinel. Il existe de multiples manières de récupérer des images Sentinel 2. Une des plus simples est de passer par le Copernicus Open Access Hub, un portail dedié avec une interface utilisateur permettant de rechercher et télécharger des images du programme Sentinel.
Le modèle numérique de terrain, de son côté, nous servira à affiner la classification. Le MNT founit l’altitude en tout point. Grâce à cette information, nous pouvons extraire nombre d’informations supplémentaires (pente, orientiation, etc.). Il existe deux MNT globaux gratuits : le Shuttle Radar Topography Mission (SRTM) et le Global Digital Elevation Model (GDEM). Ces deux MNT ont une résolution spatiale de 30 mètres, et se valent en terme de qualité et précision. Dans notre cas nous utiliserons le SRTM.
Objectifs :
Copernicus Open Access Hub
)30-Meter SRTM Tile Downloader
)Etapes :
Téléchargez les images S2B_MSIL1C_20181116T103309_N0207_R108_T30PVT_20181116T160025 et S2B_MSIL1C_20181116T103309_N0207_R108_T30PVS_20181116T160025 puis décompressez les dans un dossier de votre choix. Note : ne modifiez ni le nom ni le contenu des dossier décompréssés !
Avez-vous réussi ? :
S2B_MSIL1C_20181116T103309_N0207_R108_T30PVT_20181116T160025.SAFE/GRANULE/L1C_T30PVT_A008857_20181116T104132/IMG_DATA
. Ce dossier contient les 13 bandes spectrales de l’image (B01, B02, etc.) + la bande TCI qui donne l’image en composition de couleurs réelle. Ouvrez les 14 bandes sur QGIS.N10W004.hgt
et N11W004.hgt
du dossier dans lequel vous avez stocké le MNT.Toutes les données qui serviront à établir notre carte d’occupation du sol sont maintenant dans nos mains (ou plutôt notre ordinateur) ! Mais avant de se lancer dans la classification, il faut préparer les données afin de s’assurer que notre classification sera pertinente et performante. C’est l’objectif de cette section.
La préparation des images satellites comprend les points suivants :
Dans notre cas, nous avons récupéré des images avec les propriétés suivantes (cf. section Recueillir les produits satellitaires) :
Nous allons donc devoir effectuer les trois étapes de pré-traitements sus-mentionnées.
Objectifs :
QGIS > Sen2Cor Adapter
)QGIS > Raster > Fusionner
)QGIS > Raster > Découper un raster selon une couche de masque
)Etapes :
Les corrections atmosphériques et géométriques sont effectuées par la chaîne de traitement Sen2Cor. Cette chaîne permet de passer du niveau 1C au niveau 2A pour les images Sentinel-2. Elle effectue automatiquement les corrections atmosphériques et géométriques des produits Sentinel 2 de niveau 1C. Rendez-vous sur le site de l’ESA pour plus d’informations sur Sen2Cor : http://step.esa.int/main/third-party-plugins-2/sen2cor/
Raster > Sen2Cor Adapter
et ouvrer Sen2Cor Adapter ;SEN2COR tool path
: lien vers le dossier dans votre ordinateur contenant l’application Sen2Cor (voir la section Télécharger et installer les logiciels) ;Input (.SAFE folder)
: lien vers le dossier S2B_MSIL1C_20181116T103309_N0207_R108_T30PVS_20181116T160025.SAFE
comprenant l’image Sentinel-2 au niveau 1C ;Output (optional)
: lien vers le dossier dans lequel seront stockées les images au niveau 2A qui vont être générées par Sen2Cor ;Resolution
: séléctionnez ALL ;RUN
.La chaine de traitements Sen2Cor est alors lancée. Cela dure une quinzaine de minutes environ, en fonction de la puissance de calcul de votre ordinateur. En fin de traitement, les images corrigées au niveau 2A seront stockées dans le dossier Output (optional)
que vous avez défini.
S2B_MSIL1C_20181116T103309_N0207_R108_T30PVT_20181116T160025.SAFE
)Note : Nous avons présenté ici les étapes de corrections atmosphériques et radiométriques pour les images Sentinel-2. Notez que, si conceptuellement les corrections sont identiques pour toutes les images satellites, les outils que l’on utilisera dépendront la source, du capteur, etc. Ainsi dans le cas de Sentinel-2, le travail est facilité par la chaine de traitement Sen2Cor. Pour d’autres images, il faudra procéder différemment. Par exemple, si l’on désire corriger des images SPOT6/7, Orfeo Toolbox peut faire le travail avec les algorithmes OpticalCalibration
et OrthoRectification
.
Vous avez à présent à votre disposition des images satellites de niveau 2A, c’est-à-dire, la valeur des pixels est une réflectance réelle (Bottom-of-Atmosphere) et l’image est orthorectifiée. Cependant, comme indiqué à la section Recueillir les produits satellitaires, notre zone d’étude est couverte par 2 images satellites, à savoir, S2B_MSIL1C_20181116T103309_N0207_R108_T30PVS_20181116T160025
et S2B_MSIL1C_20181116T103309_N0207_R108_T30PVT_20181116T160025
. Il s’agit donc de mosaiquer ces images, c’est-à-dire, de les assembler pour n’en faire qu’une.
S2B_MSIL2A_20181116T103309_N0207_R108_T30PVS_20181116T160025.SAFE\GRANULE\L2A_T30PVS_A008857_20181116T104132\IMG_DATA
) et de l’image n°2 (S2B_MSIL2A_20181116T103309_N0207_R108_T30PVT_20181116T160025.SAFE\GRANULE\L2A_T30PVS_A008857_20181116T104132\IMG_DATA
) ;Raster > Divers > Fusionner
. Ce menu permet de fusionner (autrement dit mosaiquer) deux ou plusieurs images raster.Couches en entrée
, cliquez sur les 3 petits points. Une fenêtre s’ouvre alors avec les 20 couches raster que vous avez ouvertes dans QGIS. Vous désirez mosaiquer les bandes 2 à 2 : la bande B02 de l’image n°1 avec la bande B02 de l’image n°2, etc. Ainsi, cochez les cases T30PVS_20181116T103309_B02_10m
et T30PVT_20181116T103309_B02_10m
(comme indiqué sur l’image ci-dessous) puis cliquez sur OK
Type de données en sortie
, séléctionnez Int32
(l’image en sortie sera ainsi moins volumnineuse)Fusionner
, cliquez sur enregistrer vers un fichier
puis séléctionnez un dossier dans lequel sera généré votre image mosaiquée (par exemple, image_mosaic
) et appelez l’image en sortie B02.TIF
Executer
en bas à droite de la fenêtre pour lancer le mosaiquage.Les images à présent fusionnées couvrent une surface plus large que notre zone d’études. Or plus la surface couverte par les images est importante, plus les calculs à venir sur ces images seront longs. Nous allons donc découper notre image selon l’emprise de la zone d’étude, afin de conserver uniquement la zone qui nous intéresse.
roi.gpkg
générée à l’étape de définition de l’emprise de la région d’intérêt de notre étude.Raster > Extension > Découper un raster selon une couche de masque
Couche source
, cliquez la bande B02
Couche de masquage
, cliquez la couche roi
(couche vectorielle de l’emprise de la zone d’étude)Découpé (masque)
, choisissez Enregistrer vers un fichier
puis séléctionnez un dossier dans lequel sera généré votre image mosaiquée (par exemple, image_mosaic_roi
) et appelez l’image en sortie B02.TIF
Executer
en bas à droite de la fenêtre pour lancer le découpage.Avez-vous réussi ? :
vecteur/roi.gpkg
) et la couche de données de vérités terrain (vecteur/ground_truth.shp
)Les images satellite Sentinel-2 sont maintenant prêtes. Il s’agit à présent de faire les mêmes pré-traitements pour le MNT : mosaiquage et découpage selon l’emprise de la zone d’étude. Cependant, notez que les images Sentinel-2 et le MNT ne sont pas projetés dans le même système de projection : les images sont en WGS84/UTM zone 30N (EPSG 32630) alors que le MNT est en WGS84 non projeté (EPSG 4326). Nous allons donc, avant de mosaiquer et découper le MNT, le reprojeter en WGS84/UTM zone 30N.
Objectifs :
QGIS > Raster > Projection
)QGIS > Raster > Fusionner
)QGIS > Raster > Découper un raster selon une couche de masque
)Etapes :
N10W004.hgt
et N11W004.hgt
)Raster > Projection > Projection (warp)
Couche en entrée
, choisissez la couche N10W004
SCR cible
, choisissez le SCR des images satellites, c’est-à-dire EPSG 32630 : WGS84/UTM zone 30NReprojeté
, choisissez Enregistrer vers un fichier
puis séléctionnez un dossier dans lequel sera généré votre MNT reprojeté (par exemple, mnt
) et appelez l’image en sortie N10W004.TIF
Executer
en bas à droite de la fenêtre pour lancer la reprojectionSuivre la suite d’opération expliquée dans la partie précédente, section Mosaiquage
Suivre la suite d’opération expliquée dans la partie précédente, section Découpage selon l’emprise de la zone d’étude
Avez-vous réussi ? :
Nos images sont maintenant prêtes, et l’on pourrait à présent se lancer dans la classification. Cependant, nous allons augmenter nos chances d’obtenir une bonne classification en générant un certain nombre de couches dérivées de l’image Sentinel-2 et du MNT, qui seront ensuite intégrées dans la classification. Nous allons calculer des indices spectraux à partir de l’image satellite et des indices topographiques à partir du MNT.
Extrait de : https://e-cours.univ-paris1.fr/modules/uved/envcal/html/vegetation/indices/index.html et http://agritrop.cirad.fr/585651/
En télédétection, les indices font parties des méthodes de traitement que l’on appelle les transformations multispectrales. Ils consistent à convertir les luminances mesurées au niveau du capteur satellitaire en grandeurs ayant une signification dans le domaine de l’environnement.
Basés sur le caractère multispectral des données satellitaires, ils permettent de décrire l’état d’un phénomène. Un indice de végétation par exemple, peut rendre compte du stade de croissance végétale à un moment donné.
Tous les indices, que ce soient les indices de végétation, les indices des sols, les indices relatifs à la colonne d’eau, etc., reposent sur une approche empirique basée sur des données expérimentales. Les indices de végétation sont très utilisés d’une part, pour identifier et suivre la dynamique de la végétation, mais aussi pour estimer certains paramètres biophysiques caractéristiques des couverts végétaux, comme la biomasse, l’indice de surface foliaire, la fraction de rayonnement photosynthétique actif, etc.
Les indices spectraux sont obtenus à partir d’équations appliquées à la valeur des pixels dans bandes différentes, dans le but de tirer profit des particularités du comportement radiométrique de différents types d’objets. Par exemple le NDVI (indice normalisé de végétation) utilise la haute réflectance de la végétation dans le proche infrarouge et sa basse réflectance dans le rouge ; plus dense et vigoureuse est la végétation, plus cette tendance s’accentue.
Il existe de très nombreux indices spectraux, qui ont été développés au cours du temps par les scientifiques et utilisateurs des images satellites optiques. Vous pouvez en trouver une liste assez complète sur ce site.
Le choix des indices à générer dans le cadre d’une classification d’occupation du sol dépend des classes que l’on souhaite discriminer. Ainsi, on peut s’attendre par exemple à ce que la classe ‘eau’ soit particulièrement bien discriminée par un indice de présence d’eau. Dans notre cas, nous allons intégrer 6 indices, dont les noms et equations sont donnés dans le tableau suivant :
Indice | Type | Equation |
---|---|---|
NDVI (Normalized Difference Vegetation Index) | Vegetation | \(\frac{NIR - R}{NIR + R}\) |
BRI (Brillance du sol) | Sol | \(\sqrt{\frac{R^2}{2 \times G^2}}\) |
NDWI (Normalized Difference Water Indice) | Eau | \(\frac{G - NIR}{G + NIR}\) |
MNDWI (Modified Normalized Difference Water Indice) | Eau | \(\frac{NIR - SWIR}{NIR + SWIR}\) |
NDBI (Normalized Difference Built-up Index) | Bâti | \(\frac{SWIR - NIR}{SWIR + NIR}\) |
Pour rappel, les bandes spectrales du satellite Sentinel-2 sont les suivantes :
Objectifs :
QGIS > Raster > Calculatrice Raster
)Etapes :
Raster > Calculatrice Raster
indices_spectraux
) et donnez au fichier raster généré le nom de l’indice en questionwww.gisresources.com/ndvi-ndbi-ndwi-ranges-1-1/
Avez-vous réussi ? :
Nous allons utiliser le MNT pour dériver des indices topographiques. Pour rappel, le MNT donne la valeur de l’altitude en tout point de l’espace (pour le MNT SRTM que l’on utilise : sur une grille de 30m x 30m de résolution). A partir de la valeur de l’altitude en un pixel donné et des valeurs dans les pixels adjacents, nous pouvons calculer de nombreux indices de terrain : pente, orientiation, accumulation de flux, etc. Cela sera utile pour discriminer certaines classes : par exemple, dans notre région les zones humides se trouvent dans les zones où l’altitude et la pente sont faibles, et où l’accumulation de flux est importante.
Objectifs :
Grass > r.slope.aspect
)Grass > r.terraflow
)Note importante :
Veillez à utiliser la version de QGIS QGIS Desktop 3.10.0 with GRASS 7.6.1
(et non QGIS Desktop 3.10.0
) pour cette étape.
Etapes :
mnt_mosaic_roi.tif
générée dans la section Préparer le Modèle numérique de terrainr.slope.aspect
de GRASS et l’ouvrirElevation
, séléctionnez le MNTPente
et Exposition
, saisissez respectivement les chemins de sortie vers les fichiers de pente, orientation et courbature qui vont être générés par l’algorithme, comme indiqué sur la figure ci-dessous.Profile curvature
, Courbe tangentielle
, etc.), séléctionnez Ignorer la sortie
Executer
pour lancer l’algorithmer.terraflow
de GRASS et l’ouvrirNom de la carte d'élévation raster
, séléctionnez le MNTFlow accumulation
, saisissez le chemins de sortie vers le fichier d’accumulation, comme indiqué sur la figure ci-dessousExecuter
pour lancer l’algorithmeAvez-vous réussi ? :
Nos données sont maintenant prêtes. Nous allons utiliser un algorithme de classification nommé “Random Forest” pour générer notre carte d’occupation du sol en réalisant une classification supervisée par pixel.
Le court texte qui suit est extrait et adapté de http://perso.ens-lyon.fr/lise.vaudor/classification-par-forets-aleatoires/ et explique succintement le fonctionnement des Random Forest :
Random forest est un algorithme d’apprentissage supervisé basé sur la génération d’arbres décisionnels. Random forest génère un nombre n d’arbres décisionnels à partir des données d’apprentissage. Ces arbres se distinguent les uns des autres par le sous-échantillon de données sur lequel ils sont entraînés. Ces sous-échantillons sont tirés au hasard dans le jeu de données initial.
Chaque arbre de la forêt est construit sur une fraction aléatoire (“in bag”) des données (c’est la fraction qui sert à l’entraînement de l’algorithme), [et utilise une fraction aléatoire des descripteurs pour réaliser la segmentation des arbres]. Pour chacun des individus de la fraction de données restante (“out of bag”) l’arbre peut prédire une classe.
Nous utiliserons l’algorithme Random Forest Classification de la librairie SAGA pour réaliser et valider notre classification. Dans un premier temps, nous allons séparer notre jeu de données de vérités terrain (généré dans la section Recueillir les données terrain) en un jeu de données pour entraîner le modèle (données d’entraînement) et un jeu de données pour le valider (données de validation). Nous allons utiliser 80% des parcelles de chaque classe d’occupation du sol pour consituer le jeu de données d’entraînement et le reste (20%) pour le jeu de données de validation. Puis nous allons générer notre classification avec Random Forest en utilisant les 18 couches raster et le jeu de données d’entrainement. Enfin nous allons évaluer la qualité de notre classification avec le jeu de données de validation.
Objectifs :
Saga > Split Shapes Layer randomly
)Saga > Random Forest Classification (OpenCV)
)Saga > Confusion Matrix (Polyon / Grid)
)Note importante :
Nous allons utiliser des algorithmes de la librairie SAGA pour réaliser la classification. En principe, la librairie SAGA est disponible sur QGIS, via la boite à outils de traitements. Cependant, pour une raison inconnue, il s’est avéré impossible lors de la préparation de ce tutoriel d’executer les traitements SAGA via QGIS sous le système d’exploitation Windows. Nous allons donc réaliser la classification à travers l’interface utilisateur de SAGA.
Etapes
L’algorithme Random Forest Classification (OpenCV)
de SAGA requiert que les couches raster qui serviront à la classification soient de résolution et étendue identiques. Dans notre cas, nous avons des couches de résolutions spatiales différentes (10 m et 20 m pour les images satellites et les indices spectraux, 30 m pour le MNT et les indices topographiques). Nous allons donc aligner les résolutions avant de lancer la classification. Notez que lorsque le classification est lancée via la librairie SAGA dans QGIS directement, cette étape est automatiquement réalisée par l’algorithme avant la classification, il n’est donc pas nécéssaire de la réaliser à la main comme nous allons le faire ici.
Raster > Aligner les rasters
+
Couche raster d'entrée
, choisissez B02
Nom de fichier du raster en sortie
, saisissez le chemin de sortie de la couche qui sera redimensionné, comme indiqué sur l’image ci-dessousCouche de référence
, séléctionnez B02 (meilleures référence)
File > Open
, séléctionnez “all files” dans la liste déroulante en bas de la fenêtre, et séléctionnez le fichier ground_truth.shp
Geoprocessing > Shapes > Construction > Split Shapes Layer Randomly
ground_truth.shp
en deux jeux distincts :
ground_truth [80%]
qui représentera le jeu de données d’entrainement de notre modèle de classificationground_truth [20%]
qui représentera le jeu de données de validation de notre modèle de classificationFile > Open
, séléctionnez “all files” dans la liste déroulante en bas de la fenêtre, et allez dans le dossier dans lequel sont stockées vos images (redimensionnées à l’étape 1)Geoprocessing > Imagery > Classification > Machine Learning > Random forest classification (OpenCV)
Okay
pour lancer la classification. A la fin du processus, la couche Random forest classification (OpenCV)
est créée.L’étape de validation a pour objectif d’évaluer la qualité de notre classification. Nous allons utiliser notre jeu de données de validation pour compter le nombre de pixels correctement classés dans notre classification finale.
Geoprocessing > Imagery > Classification > Confusion Matrix (Polygons / Grid)
Okay
pour lancer la validation. A la fin du processus, les tables Confusion Matrix
, Class Values
et Summary
sont créées.Data
à gauche, cliquez-droit sur la couche “Random Forest Classification (OpenCV)” puis sur Save as
. Sauvez la couche dans le repértoire de votre choix. La couche est enregistrée dans un format raster lisible par QGIS.Avez-vous réussi ? :
Vous avez généré votre première carte d’occupation du sol, félicitations ! Que faire avec maintenant ? Dans le cadre de notre étude fictive sur la caractérisation des habitats favorables aux vecteurs du paludisme (voir la section Présentation du cas d’études), vous pourriez maintenant l’utiliser pour extraire les surfaces relatives de chaque classe d’occupation du sol au voisinage des villages (par exemple, dans une zone tampon de 2 km), ou bien d’autres métriques paysagères pertinentes. En croisant cette information avec les données issues de comptages de vecteurs, vous pourriez alors tenter d’expliquer les habitats favorables à la présence et abondance des vecteurs.
Ce tutoriel ne fait qu’effleurer les possibilités offertes par la télédétection spatiale, et nombre de domaines n’ont pas été abordés… Par exemple, le traitement des zones sous nuages est essentiel. On peut utiliser d’autres images satellites, prises à des dates proches, pour combler les zones sous nuages et ombres de nuages sur notre image principal. Pour améliorer la qualité de la classification, on pourrait procéder de plusieurs manières, par exemple :
SAGA > Majority filter
, pour atténuer l’effet “poivre et sel” ;Vous noterez aussi à travers ce tutoriel que la télédétection implique un nombre d’étapes important. Afin de rendre l’ensemble du processus transparent et reproductible, il peut être intéressant d’utiliser des outils dédiés, par exemple le Modeleur graphique de QGIS. Mieux encore, pour les utilisateurs de langages de programmation tels Python
ou R
, vous pourriez scripter l’ensemble des traitements. Toutes les librairies utilisées dans ce tutoriel (SAGA, GRASS, GDAL, etc.) existent sous R par exemple, et bien davantage encore. Vous pouvez tirer profit des capacités de ces logiciels à réaliser des figures et autres graphiques pour systématiser la production de sortie graphiques ou cartographiques, tester plusieurs modèles, etc.
Avant de travailler sur nos images, il faut installer les logiciels qui nous permettent de le faire… et dans le monde des logiciels libres et gratuits, cette étape n’est pas à négliger ! Elle peut représenter une part significative du temps de travail… (eh oui, ça fait partie des petits défauts des logiciels libres, ils ne sont pas toujours ausssi simples à installer que les logiciels propriétaires…!)
Nous utiliserons les logiciels QGIS, SAGA GIS et Orfeo Toolbox au cours de cette formation.
Nous utiliserons également la chaîne de traitement Sen2cor qui permet de faire les pré-traitements des images Sentinel 2 de niveau 1C (corrections atmosphériques et géométriques) pour les amener au niveau 2A, ainsi que l’extension QGIS Sen2Cor Adapter qui permet d’intégrer cette chaine de traitement dans l’interface de QGIS.
Objectifs : Installer les logiciels et extensions qui serviront pendant la formation
Etapes :
Avez-vous réussi ?
QGIS dispose d’un ensemble de traitements (algorithmes) qui sont installés par défaut avec le logiciel. Les opérations spatiales classiques sur les données géographiques vecteur et raster sont assurées par cette bibliothèque de traitements. Cependant, en télédétection, nous utilisons des algorithmes complexes qui ne sont pas disponibles dans la version de base de QGIS. La bonne nouvelle, c’est qu’ils sont disponibles gratuitement via d’autre logiciels ou bibliothèques SIG libres et gratuites, et qu’ils peuvent être incorporés dans QGIS (ainsi, pas besoin de passer sans cesse d’un logiciel à l’autre). La moins bonne nouvelle, c’est que l’intégration de ces logiciels/bibliothèques dans QGIS demande un peu de travail de configuration. C’est l’objectif de cette section : intégrer les logiciels et bibliothèques de traitements tiers dans QGIS.
QGIS offre deux moyens d’intégrer des applications tierces :
Objectifs : Configurer les application tierces dans QGIS
En savoir plus : https://docs.qgis.org/3.4/fr/docs/user_manual/processing/3rdParty.html
Etapes : Intégrer Sen2cor Adapter dans QGIS
Extensions > Installer/gérer les extensions > Installer depuis un ZIP
Fichier ZIP
, allez chercher le lien vers le fichier compressé Sen2Cor Adapter téléchargé en section Télécharger les logiciels et plugins puis cliquer sur Installer le plugin
Avez-vous réussi ?
Raster
et en vérifiant que l’option Sen2cor Adapter
est bien disponible. Ouvrez Sen2cor Adapter
. L’écran suivant doit apparaître :Les portails web listés ci-dessous permettent de visualiser des images satellites sans avoir à les télécharger. Cela peut-être intéressant de les consulter pour, par exemple, évaluer la qualité d’une image satellite avant de la télécharger (afin d’identifier précisément les zones sous nuages), visualiser des indices spectraux (NDVI, NDWI, etc.) ou encore s’informer sur les produits satellites existants.
Disponible à l’adresse suivante : https://apps.sentinel-hub.com/
Le Sentinel-hub EO-Browser permet de visualiser les données des missions Sentinel de l’Agence Spatiale Européenne (Sentinel-1, Sentinel-2, Sentinel-3, Sentinel-5P à ce jour). L’utilisateur a la possibilité de filtrer sa recherche par source de données (mission Sentinel), date d’acquisition de l’image et zone géographique. Les produits disponibles sont alors proposés pour visualisation. L’utilisateur peut choisir la composition de bandes parmi une vaste panoplie compositions disponibles pour chaque source (par exemple pour Sentinel-2 : couleurs réelles, NDVI, NDWI, SAVI, etc.).
Les produits Sentinel sont téléchargeables en utilisant le Copernicus Open Access Hub disponible à l’adresse suivante : https://scihub.copernicus.eu/.
Disponible à l’adresse suivante : https://worldview.earthdata.nasa.gov
Le portail EOSDIS Worldview de la NASA permet de visualiser nombre de jeux de données d’observation de la Terre générés par l’agence spatiale américaine (MODIS, SMAP, VIIRS, etc.). L’interface permet de séléctionner la couche à visualiser et de filtrer spatialement et temporellement (grâce à une barre intuitive) les jeux de données. Il est possible, comme dans un SIG bureau, de superposer des couches, de leur apporter de la transparence ou encore de régler la palette de couleurs utlisée. Il est aussi possible d’exporter de courtes vidéos montrant l’évolution d’une série temporelle.
Les données d’observation de la Terre de la NASA sont pour la pluspart libres d’accès et téléchargeables sur le portail des données d’observation de la Terre de la NASA disponible à l’adresse suivante : https://search.earthdata.nasa.gov/ .
Disponible à l’adresse suivante : https://developers.google.com/earth-engine/datasets
Le projet Google Earth Engine (GEE) est mené par Google. L’initiative a été motivée par le constat que la diversité des sources et des formats des données d’observation de la Terre générées par les divers organismes partout dans le monde est un frein aujourd’hui à leur utilisation et leur analyse conjointe. L’objectif de GEE est de centraliser un ensemble de jeux de données d’observation de la Terre provenant de très nombreuses sources (NASA, ESA, etc.) et couvrant des thématiques variées (climatologie, imagerie, géophysique, etc.). Ainsi, les données des missions Landsat, MODIS, Sentinel, etc. sont toutes disponibles via GEE. L’interface propose une manière commune à tous les jeux de données pour les visualiser en ligne, les télécharger, les croiser, effectuer des analyses spatiales. Par ailleurs, les éventuels traitements de données définis par les utilisateurs sont effectués sur les serveurs de Google, rendant ainsi les calculs particulièrement rapides (comparé à un traitement en local) sur des jeux de données volumineux.
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d’Utilisation Commerciale 4.0 International.