Soutenance de thèse de Pierre LASSALLE

Étude du passage à l'échelle des algorithmes de segmentation et de classification en télédétection pour le traitement de volumes de données massifs.


Titre anglais : Study of scalability for segmentation and classification algorithms in remote sensing for processing massive datasets.
Ecole Doctorale : SDU2E - Sciences de l'Univers, de l'Environnement et de l'Espace
Spécialité : Surfaces et interfaces continentales, Hydrologie
Etablissement : Université de Toulouse
Unité de recherche : UMR 5126 - CESBIO - Centre d'Etudes Spatiales de la BIOsphère
Direction de thèse : Jordi INGLADA


Cette soutenance a eu lieu vendredi 06 novembre 2015 à 14h00
Adresse de la soutenance : CESBIO 18 avenue. Edouard Belin, bpi 2801, 31401 Toulouse cedex 9 - salle Salle de Conférence

devant le jury composé de :
Jordi INGLADA   Ingénieur chercheur CNES   CNES   Rapporteur
Gregoire MERCIER   Enseignant-Chercheur en traitement des images de télédétection   Télécom Bretagne   Rapporteur
Sébastien LEFèVRE   Enseignant-Chercheur en science informatique   Université de Bretagne Sud   Rapporteur
Pierre GANçARSKI   Professeur   Université de Strasbourg   Examinateur
Julien MICHEL   Ingénieur chercheur CNES   CNES   Examinateur
Jean-Philippe GASTELLU-ETCHEGORRY   Professeur   Université Toulouse Paul Sabatier   Examinateur


Résumé de la thèse en français :  

Les récentes missions spatiales d'observation de la Terre fourniront
des images optiques à très hautes résolutions spatiale, spectrale et temporelle générant des volumes de données massifs. L'objectif de cette thèse est
d'apporter de nouvelles solutions pour le traitement efficace de grands volumes de données ne pouvant être contenus en mémoire. Il s'agit de lever les verrous scientifiques en développant des algorithmes efficaces qui garantissent des résultats identiques à ceux obtenus dans le cas où la mémoire ne serait pas une contrainte. La première partie de la thèse se consacre à l'adaptation des méthodes de segmentation pour le traitement d'images volumineuses. Une solution naïve consiste à découper l'image en tuiles et à appliquer la segmentation sur chaque tuile séparément. Le résultat final est reconstitué en regroupant les tuiles segmentées. Cette stratégie est sous-optimale car elle entraîne des modifications par rapport au résultat obtenu lors de la segmentation de l'image
sans découpage. Une étude des méthodes de segmentation par fusion de régions a conduit au développement d'une solution permettant la segmentation d'images de taille arbitraire tout en garantissant un résultat identique à celui obtenu avec la méthode initiale sans la contrainte de la mémoire. La faisabilité de la solution a été vérifiée avec la segmentation de plusieurs scènes Pléiades à très haute résolution avec des tailles en mémoire de l'ordre de quelques gigaoctets. La seconde partie de la thèse se consacre à l'étude de l'apprentissage supervisé lorsque les données ne peuvent être contenues en mémoire. Dans le cadre de cette thèse, nous nous focalisons sur l'algorithme des forêts aléatoires qui consiste à établir un comité d'arbres de décision. Plusieurs solutions ont été proposées dans la littérature pour adapter cet
algorithme lorsque les données d'apprentissage ne peuvent être stockées en mémoire. Cependant, ces solutions restent soit approximatives, car la contrainte de la mémoire réduit à chaque fois la visibilité de l'algorithme à une portion des données d'apprentissage, soit peu efficaces, car elles nécessitent de nombreux accès en lecture et écriture sur le disque dur. Pour
pallier ces problèmes, nous proposons une solution exacte et efficace garantissant une visibilité de l'algorithme sur l'ensemble des données d'apprentissage. L'exactitude des résultats est vérifiée et la solution est testée avec succès sur de grands volumes de données d'apprentissage.

 
Résumé de la thèse en anglais:  

Recent Earth observation spatial missions will provide very high spectral, spatial and temporal resolution optical images, which represents a huge amount of data. The objective of this research is to propose innovative algorithms to process efficiently such massive datasets on resource-constrained devices. Developing new efficient algorithms which ensure identical results to those obtained without the memory limitation represents a challenging task. The first part of this thesis focuses on the adaptation of segmentation algorithms when the input satellite image can not be stored in the main memory. A naive solution consists of dividing the input image into tiles and segment each tile independently. The final result is built by grouping the segmented tiles together. Applying this strategy turns out to be suboptimal since it modifies the resulting segments compared to those obtained from the segmentation without tiling. A deep study of region-merging segmentation algorithms allows us to develop a tile-based scalable solution to segment images of arbitrary size while ensuring identical results to those obtained without tiling. The feasibility of the solution is shown by segmenting different very high resolution Pléiades images requiring gigabytes to be stored in the memory. The second part of the thesis focuses on supervised learning methods when the training dataset can not be stored in the memory. In the frame of the thesis, we decide to study the Random Forest algorithm which consists of building an ensemble of decision trees. Several solutions have been proposed to adapt this
algorithm for processing massive training datasets, but they remain either approximative because of the limitation of memory imposes a reduced visibility of the algorithm on a small portion of the training datasets or inefficient because they need a lot of read and write access on the hard disk. To solve those issues, we propose an exact solution ensuring the visibility of the algorithm on the whole training dataset while minimizing read and write access on the hard disk. The running time is analysed by varying the dimension of the training dataset and shows that our proposed solution is very competitive with other existing solutions and can be used to process hundreds of gigabytes of data.

Mots clés en français :Télédétection, Échelonnabilité, Segmentation, Classification,
Mots clés en anglais :   Remote Sensing, Scalability, Segmentation, Classification,