Soutenance de thèse de Trong Phong NGUYEN

Inégalités de Kurdyka-Lojasiewicz et convexité: Algorithmes et applications


Titre anglais : Ineqalities of Kurdykar-Lojasiewicz and convexity: Algorithms and applications
Ecole Doctorale : EDMITT - Ecole Doctorale Mathématiques, Informatique et Télécommunications de Toulouse
Spécialité : MATHEMATIQUES APPLIQUEES
Etablissement : Université Toulouse 1 Capitole
Unité de recherche : UMR 5314 - TSE-R - Toulouse School of Economics - Recherche
Direction de thèse : Jérome BOLTE


Cette soutenance a eu lieu mardi 04 juillet 2017 à 14h00
Adresse de la soutenance : Manufacture de tabacs 21 Allée de Brienne, Toulouse, France - salle MF323

devant le jury composé de :
Jérôme BOLTE   Professeur   UT1 - Université Toulouse 1 Capitole   Directeur de thèse
Patrick COMBETTES   Professeur   North Carolina State university   Président
Jérôme  MALICK   Chargé de recherche   Université Grenoble Alpes   Rapporteur
Juan PEYPOUQUET   Professeur associé   Universidad Técnica Federico Santa María,   Examinateur
Aude RONDEPIERRE   Maître de conférences   INSA Toulouse   Examinateur
Edouard PAUWELS   Maître de conférences   Université Paul Sabatier   Examinateur


Résumé de la thèse en français :  

Cette thèse traite des méthodes de descente d'ordre un pour les problèmes de minimisation. Elle comprend trois parties. Dans la première partie, nous apportons une vue d'ensemble des bornes d'erreur et les premières briques d'unification d'un concept. Nous montrons en effet la place centrale de l'inégalité du gradient de Lojasiewicz, en mettant en relation cette inégalité avec les bornes d'erreur. Dans la seconde partie, en usant de l'inégalité de Kurdyka-Lojasiewicz (KL), nous apportons un nouvel outil pour calculer la complexité des méthodes de descente d'ordre un pour la minimisation convexe. Notre approche est totalement originale et utilise une suite proximale "worst-case" unidimensionnelle. Ces résultats introduisent une méthodologie simple : trouver une borne d'erreur, calculer la fonction KL désingularisation quand c'est possible, identifier les constantes pertinentes dans la méthode de descente, et puis calculer la complexité en usant de la suite proximale "worst-case" unidimensionnelle. Enfin, nous étendons la méthode extragradient pour minimiser la somme de deux fonctions, la première étant lisse et la seconde convexe. Sous l'hypothèse de l'inégalité KL, nous montrons que la suite produite par la méthode extragradient converge vers un point critique de ce problème et qu'elle est de longueur finie. Quand les deux fonctions sont convexes, nous donnons la vitesse de convergence O(1/k) qui est classique pour la méthode de gradient. De plus, nous montrons que notre complexité de la seconde partie peut-être appliquée à cette méthode. Considérer la méthode extragradient est l'occasion de décrire la recherche linéaire exacte pour les méthodes de décomposition proximales. Nous donnons des détails pour l'implémentation de ce programme pour le problème des moindres carrés avec régularisation L1 et nous donnons des résultats numériques qui suggèrent que combiner des méthodes non-accélérées avec la recherche linéaire exacte peut-être un choix performant.

 
Résumé de la thèse en anglais:  

This thesis focuses on first order descent methods in the minimization problems. There are three parts. Firstly, we give an overview on local and global error bounds. We try to provide the first bricks of a unified theory by showing the centrality of the Lojasiewicz gradient inequality. In the second part, by using Kurdyka-Lojasiewicz (KL) inequality, we provide new tools to compute the complexity of first-order descent methods in convex minimization. Our approach is completely original and makes use of a one-dimensional worst-case proximal sequence. This result inaugurates a simple methodology: derive an error bound, compute the KL
desingularizing function whenever possible, identify essential constants in the descent method and finally compute the complexity using the one-dimensional worst case proximal sequence. Lastly, we extend the extragradient method to minimize the sum of two functions, the first one being smooth and the second being convex. Under Kurdyka-Lojasiewicz assumption, we prove that the sequence produced by the extragradient method converges to a critical point of this problem and has finite length. When both functions are convex, we provide a O(1/k) convergence rate. Furthermore, we show that our complexity result in the second part can be applied to this method. Considering the extragradient method is the occasion to describe exact line search for proximal decomposition methods. We provide details for the
implementation of this scheme for the $ell_1$ regularized least squares problem and give numerical results which suggest that combining nonaccelerated methods with exact line search can be a competitive choice.

Mots clés en français :inégalité Kurdyka-Lojasiewicz, bornes erreur, méthode de descente, extragradient, complexité,
Mots clés en anglais :   inequality Kurdyka-Lojasiewicz, error bounds, descent method, extragradien, complexity,