Cette thèse s'intéresse à la fonctionnelle du 4DVar pénalisée par une norme Lp., où l'on cherche à minimiser la somme d'un terme correspondant à l'écart à une ébauche, d'un terme d'écart aux observations et d'un terme de régularisation en norme Lp (avec 1
Une telle régularisation est motivée par deux raisons, la première portant sur la modélisation statistique du problème. En effet, on montre que, là où le terme d'écart aux observations peut, dans un certain cadre statistique, être justifié par une répartition gaussienne des erreurs, le terme de pénalisation en norme Lp peut être justifié par l'hypothèse d'erreurs sur x suivant une loi gaussienne généralisée. De telles hypothèses sont pertinentes dans des cas concrets comme l'étude de la dérivée de l'épaisseur de la glace dans la merde de Beaufort.
La seconde raison est d'ordre numérique. La régularisation classique de Tikhonov (p=2) produit une solution très oscillante, tandis que celle du LASSO (p=1) promeut une solution creuse. Néanmoins les signaux intervenants en assimilation de données peuvent être <>. C'est le cas par exemple de certains fronts météorologiques. Le choix 1
Pour minimiser la fonctionnelle du 4DVar ainsi pénalisée efficacement, nous suggérons le cadre mathématiques des espaces de Banach et nous proposons deux algorithmes basés respectivement sur la descente de gradient et sur l'algorithme du gradient conjugué non linéaire, dont la particularité est d'effectuer leurs itérations dans le dual topologique de l'espace de la variable d'état (différent de l'espace des observations). Nous montrons leur convergence et testons notamment leur performance sur des expériences d'assimilation de données basées sur l'équation d'advection en une dimension et les équations de Barré de Saint-Venant en deux dimensions. |
This thesis deals with the 4DVar functional penalized by an Lp-norm, where we look to minimize the sum of a term corresponding to a deviation to the background state, a term corresponding to the deviation to the observations and another term of regularization in Lp-norm on the state vector projected in a basis of interest.
Such a regularization is motivated by, first, the statistical modeling of the problem. Indeed, we show that, while the background deviation term is related, in a certain statistical framework, to a gaussian distribution of the errors, the Lp-norm penalization term can be related by a generalized gaussian distribution of the errors. Such hypotheses are relevant in concrete applications such as the study of the ice thickness in the Beaufort sea.
Then, there also are computational benefits. The well knonwn Tikhonov regularization (p=2) generates strong oscillations in the computed solution, and the LASSO (p=1) promotes a very sparse solution. Nonetheless the signals encountered in data assimilation can only be "quasi-sparse". This is the case for instance of meteorological fronts or sargassum concentration in the sea. The choice 1
In order to minimize the penalized 4DVar efficiently, we suggest to exploit the framework of Banach spaces et we propose two algorithms based respectively on the gradient descent et on the nonlinear conjugate gradient algorithm, whose particularity is to carry out the iterations in the dual space of the state variable (which is not the observations space). We prove their convergence and test their performance on data assimilation setups based on the one-dimensional advection equation and on the two-dimensional shallow water equations. |