Historique
La recherche scientifique repose sur deux sources d'information et d'étude différentes, les observations d'une part, et les modèles d'autre part. Au cours de l'histoire des Sciences, les observations furent d'abord qualitatives avant de devenir quantitatives. Parallèlement, les modèles descriptifs s'améliorèrent grâce aux techniques mathématiques, et particulièrement à l'analyse numérique.
La charnière du XVIII et XIX siècle vit ainsi apparaître l'assimilation de données. Cette technique vise à estimer l'état d'un système dynamique en utilisant toutes les sources d'information. Elle appartient au domaine de l'estimation statistique et de la théorie du contrôle (Gelb, 1974 et Lions, 1968). Johann Tobias Mayer (1723-1762), astronome allemand, calcula les mouvements de la lune avec une admirable précision, et mérita, par ses Tables de la Lune, le grand prix décerné par le Bureau des longitudes de Londres (1755). En effet, il évalua les erreurs dues aux imperfections des réglages des instruments de mesure et eut le premier l'idée de répéter la mesure des angles pour atténuer les erreurs de mesure. À cette époque, de nombreux mathématiciens et astronomes développèrent des méthodes proches de la Méthode aux moindres carrés. Adrien Marie Legendre (1752-1834), professeur de mathématiques à l'école militaire de Paris, exposa, dans un traité sur les orbites des comètes en 1805, cette méthode d'ajustement dite des moindres carrés. Elle fut cependant attribuée à Karl Friedrich Gauss (1777-1855) qui publia en 1809 son travail sur les mouvements des corps célestes contenant la méthode aux moindres carrés et permettant de calculer l'orbite de Cérès. Il affirma, pour sa défense, qu'il utilisait cette méthode depuis 1795. Cependant, l'astronome, physicien et mathématicien Pierre Simon Laplace revendiqua aussi la paternité de cette méthode dans ses travaux sur la stabilité mécanique du système solaire dans lesquels il développa en 1783 une méthode proche de celle aux moindres carrés visant à résoudre un système d'équations sous-déterminé.
Les astronomes furent donc les premiers à travailler sur la théorie de
l'estimation avant que les mathématiciens ne reprennent la thématique.
C'est au XX siècle que Sir Ronald Aylmer Fisher (1890-1962) apporta une contribution
majeure au domaine de l'estimation. Il publia en 1912 (Fisher, 1912) un article sur
les fonctions de densité de probabilité en utilisant, sans le citer,
l'estimateur du maximum de vraisemblance. Il publia ensuite en 1925
l'ensemble de ses travaux sur l'estimation (Fisher, 1925)
qui devint un best-seller de la
statistique (14 éditions et traduit en 6 langues). Il faut ensuite attendre
les années 40 pour que Norbert Wiener (1894-1964), philosophe et mathématicien,
en se fondant sur la théorie des processus aléatoires, présente une approche
du filtrage optimal adaptée aux problèmes spectraux (Wiener, 1949).
Cette technique nommée
filtre de Wiener traite les problèmes continus dans le temps à l'aide de
fonctions de corrélation et se limite aux processus stationnaires.
À la même époque, Andreï Nikolaïevich Kolmogorov (1903-1987) traite
le problème discret dans le temps : ce que les historiens des sciences appellent
une double découverte. Durant les années suivantes, le travail de Wiener
fut étendu aux cas non-stationnaires. Dans les années 60, Rudolf Emil Kalman
(1930- ) unifia d'abord le problème continu et discret dans le temps
avant de développer le filtrage optimal récursif
(Kalman, 1960 et Kalman et Bucy, 1961),
plus connu sous le nom de filtre de Kalman. À la différence du
filtre de Kalman, le filtre de Wiener n'a pas cette bonne propriété
de récursivité. Le filtre de Kalman est maintenant utilisé
dans beaucoup de domaines tels que la détermination d'orbites
satellitales, les systèmes de guidage, le traitement d'images, les
sciences de la terre ou l'économétrie.
Vers la même époque, Yoshi Kazu Sasaki, qui travaillait sur la
prévision des trajectoires des ouragans, proposa une approche variationnelle
de l'estimation (Sasaki, 1958 et Sasaki, 1970)
qui, sous certaines hypothèses,
conduit à des résultats semblables à ceux du filtrage optimal. La
formulation tri-dimensionnelle est connue sous le nom de 3D-Var tandis
que celle quadri-dimensionnelle est ordinairement nommée 4D-Var.
L'assimilation de données en météorologie...
Des sciences de la terre, la météorologie s'empara la première de
l'assimilation de données. Gandin développa une analyse objective des
champs de précipitations totales dès 1963 (Gandin, 1963).
Au cours des dernières décennies, les progrès en
météorologie ont été rendues possible par la conjonction
systématique des observations et des apports de la théorie. La
motivation et l'enjeu essentiel de ces différentes sources
d'informations étaient et sont encore le besoin de prévisions
météorologiques numériquement calculables. Très rapidement s'est
imposée l'idée que les modèles dynamiques utilisés devaient rendre
compte de la propagation des informations dans le temps et l'espace. Cette
notion de propagation tente de compenser la disparité et l'imprécision
des observations en permettant de construire une image consistante et
quadri-dimensionnelle de l'atmosphère.
Convaincus de l'importance cruciale de l'assimilation de données, de
nombreux centres de recherche ou de prévision opérationnels tels
que Météo-France ou le CEPMMT1.1CEPMMT
Centre Européen pour les Prévisions Météorologiques à Moyen-Terme
(ECMWF)(Rabier , 2000) participent à des
projets internationaux ayant pour objectif l'amélioration des prévisions
opérationnelles, mais aussi l'étude de l'impact anthropique sur
l'évolution du climat et l'amélioration de la connaissance de
nombreux phénomènes climatiques régissant ce système.
Ceci devient possible par une amélioration, qualitative et
quantitative, des sources d'informations, grâce notamment aux nouvelles
générations de satellites d'observation (ER2, Jason, Envisat), et
par une incessante augmentation des capacités de calcul.
...puis en océanographie
L'essor de l'océanographie physique est plus récent. Cependant
l'intérêt de plus en plus marqué pour l'étude de la dynamique de
l'océan, ainsi que l'amélioration des modèles numériques
(Gent et McWilliams, 1990 ; Holloway, 1992 ; Large , 1994 et Griffies , 2000)
ont motivé
l'émergence de l'assimilation de données dans le domaine de la
prévision océanique (Koblinsky et Smith, 2001). Le déploiement de réseaux
d'observation des océans avec des bouées ou des flotteurs (données
in situ) et l'utilisation des données satellitaires (altimétriques,
radiométriques,...) ont soutenu l'émergence et le développement de
l'assimilation de données appliquée à l'océanographie.
Ses objectifs sont de satisfaire, d'une part, aux besoins de l'étude de la dynamique
océanique en effectuant la meilleure estimation possible de l'état de
l'océan au cours du temps. Cette estimation permet d'obtenir un état
initial le plus réaliste possible pour la prévision océanique et pour
la prévision saisonnière qui utilise des systèmes couplés
océan-atmosphère.
D'autre part,
l'assimilation de données permet d'estimer, voire d'améliorer, les paramètres
du modèle numérique d'océan (Smedstad et O'Brien, 1991), les forçages
(Stammer , 2002 et Vossepoel et Behringer, 2000)
ou les conditions aux frontières
(Bennet et McIntosh, 1982 et Deltel, 2002).
La capacité du système à s'ajuster
vers les observations permet d'identifier certains biais ou dérives du
modèle numérique d'océan (Bennett , 1998). De la même manière,
des écarts trop importants identifiés par l'assimilation entre les
observations et le modèle peuvent mettre en évidence une incohérence
dans les observations (Holland, 1989). Enfin, l'assimilation peut aussi être
utilisée pour évaluer un système d'observations
(Miller, 1990 et Carton , 1996).
Les principaux objectifs
L'assimilation de données passées disponibles sur de longues périodes se nomme ré-analyse. Le projet européen ENACT1.2ENACTENhanced ocean data Assimilation and Climate predicTion avait ainsi pour objectif de réaliser, entre autre, des ré-analyses sur la période 1962-2001. La compréhension de la circulation océanique, de la variabilité du système et des mécanismes qui engendrent les phénomènes physiques majeurs de l'océan (Stammer, 2002) peut être améliorée avec les produits issus de ces ré-analyses.
Comme en météorologie, la connaissance d'un état initial le plus juste
possible permet de produire des prévisions les plus fiables.
L'assimilation de données a ainsi pour objectif de construire cette
condition initiale afin d'améliorer les prévisions météorologiques
ou océaniques. C'est pourquoi elle est au cur de projets d'océanographie
opérationnelle comme MERCATORMERCATORProjet d'océanographie
opérationnelle - http://www.mercator-ocean.fr. Les prévisions obtenues permettent de
connaître au mieux la dynamique globale des courants et masses d'eau, ainsi
que l'équilibre biologique régnant dans l'océan qui en découle.
Tous ces produits sont directement utiles dans les domaines de la pêche,
du transport maritime, de la protection des espèces marines, de la
défense et, plus anecdotiquement, dans celui des courses au large.
La qualité des systèmes permet aujourd'hui une analyse de la circulation
océanique réelle (Leetmaa et Ji, 1989) ainsi que la représentation
de la physique méso-échelle globale (Fu et Smith, 1996).
Un système d'océanographie opérationnel performant doit ainsi
être composé d'un modèle océanique réaliste, d'une méthode
d'assimilation efficace et d'observations nombreuses et de qualité.
Pour la prévision saisonnière, la connaissance la plus réaliste
de l'état de l'océan est primordiale. En effet, la qualité du
couplage océan-atmosphère est conditionnée fortement par la
composante océanique qui représente la mémoire du système :
la capacité de stockage de l'océan est 1200 fois supérieure à
celle de l'atmosphère. L'assimilation de données permet de
déterminer des conditions initiales suffisamment réalistes à
l'interface océan-atmosphère. En supposant que le couplage soit
réalisé parfaitement entre un modèle d'océan et un modèle
d'atmosphère tout deux parfaits, l'information contenue dans l'état
initial de l'océan est préservée et propagée par le modèle
d'océan, puis transmise correctement au modèle d'atmosphère.
Une des hypothèses fortes des modèles parfaits est d'être non
biaisée. Cependant, et malgré ces hypothèses fortes, la
capacité des méthodes d'assimilation à améliorer la qualité des
conditions initiales océaniques et des prévisions saisonnières n'est plus
à démontrer. La mise en évidence d'un impact positif sur l'ensemble du
globe est cependant plus compliquée. Ces difficultés sont dues notamment
aux techniques de couplage, par exemple l'échange des flux entre les
modèles d'océan et d'atmosphère, et à la qualité des modèles
toujours perfectibles. Cependant, pour certaines régions du globe où la
dynamique est spécifique, ou dans un contexte d'étude particulier,
l'assimilation de données a pu clairement montrer son intérêt.
L'exemple de la région Pacifique tropical avec l'assimilation des
données TAO1.3TAO
Tropical Atmosphère Océan améliore clairement la
prévision des événements ENSO1.4ENSOEl Niño Southern Oscillation
(Ji , 1997 ; Segschneider , 2000 et Alves , 2004).
Ces prévisions
saisonnières sont produites de manière opérationnelle par le
NCEP1.5NCEP
National Centers for Environmental Prediction (Behringer , 1998
et Ji , 1998) et par le
CEPMMT (Segschneider , 2000 et Alves , 2004).
Les contraintes
Le développement des méthodes d'observation et de la modélisation de
l'océan ont fait évoluer, au cours des dernières décennies, les
techniques d'assimilation de données du système océanique.
D'autre part, le développement de méthodes d'assimilation de plus en plus
performantes dans le domaine de l'atmosphère a profité au domaine
océanique. Cependant, quelle que soit la méthode d'assimilation de
données choisie, les problèmes sont globalement les mêmes,
essentiellement celui de la taille du système, qui comprend généralement
plus de degrés de liberté, et qui pose certains soucis de temps de
calcul et d'espace mémoire. Aucun progrès notable n'aurait pu voir le
jour sans la mise à disposition de moyens de calculs importants. Aujourd'hui,
grâce à des super-calculateurs, les centres de prévisions atmosphériques
opérationnels utilisent des méthodes d'assimilation performantes.
Néanmoins, la puissance de calcul reste le facteur limitant pour le
développement de méthodes d'assimilation dans le domaine des sciences de
la terre. Les objectifs actuels de la communauté scientifique sont donc les
suivants : réduire la taille des systèmes étudiés sans perdre
d'information, améliorer la connaissance des paramètres physiques, la
statistique des erreurs de mesure, prendre en compte l'erreur modèle sans
trop pénaliser la résolution numérique...