Conférenciers invités

Méthodes hybrides par Forêts aléatoires et ACP fonctionnelle pour la modélisation des rendements de blé à l'échelle de la parcelle

La modélisation du rendement des cultures et ses incertitudes sont souvent réalisés à l'aide de modèles mécanistes et de techniques de régression sur des covariables agronomiques et météorologiques résumées. De fortes hypothèses de modèle et la perte d'information par l'agrégation des données en indicateurs peuvent engendrer des erreurs de prédictions importantes.
Pour y remédier, nous combinons l'Analyse en Composantes Principales Fonctionnelles (ACPf) et les Forêts Aléatoires pour modéliser le rendement de blé à l'échelle de la parcelle, identifier et quantifier les principaux facteurs agronomiques et météorologiques, ainsi que les profils météorologiques locaux les plus influents.
Notre approche est évaluée sur une base de données nationale composée des rendements de blé, de variables météorologiques et de pratiques culturales pour 298 parcelles agricoles entre 2011 et 2016 dans quatre grandes régions de production française. La part de rendement expliquée par notre modèle varie entre 62 % et 81 % selon les régions. Nous identifierons les motifs importants dans les séries temporelles météorologiques et interpréterons leurs effets sur le rendement.

Algorithmes ABC et quelques une de ses variantes récentes.

L'algorithme Approximate Bayesian Computation (ABC) est un algorithme d'inférence. En inférence bayésienne, L'algorithme  Approximate Bayesian Computation (ABC) est couramment utilisé pour approcher les distributions a posteriori dans des modèles complexes où la vraisemblance n'est pas utilisable. Cela signifie qu'elle n'existe pas, n'est pas disponible sous forme explicite ou est trop difficile à calculer. C'est par exemple le cas pour des problèmes de calibration de certains modèles complexes ou pour l'inférence de jumeaux numériques. L'algorithme ABC est principalement basé sur de multiples simulations du modèle et d'un algorithme des plus proches voisins pour reconstruire la loi a posteriori. Dans cet exposé, nous rappellerons, le problème d'inférence bayésienne, l'algorithme ABC, plusieurs variantes récentes où la méthode des plus proche voisin est remplacée par d'autres méthodes issues de l'apprentissage (Random Forest / Deep Learning) ainsi qu'une nouvelle méthode pour estimer les erreurs de cet algorithme (basée sur l’inférence conformal). Plusieurs exemples illustrerons la présentation.

Analyse de sensibilité avec le modèle APECOSM : comprendre la dynamique des écosystèmes pélagiques actuels et futurs.

Les écosystèmes pélagiques, présents dans tous les océans, abritent une diversité d'espèces allant des raies et requins aux poissons commerciaux tels que le thon, les anchois et les sardines. Des communautés moins visibles mais essentielles, comme les organismes mésopélagiques, jouent un rôle clé dans l'exportation du carbone et la régulation climatique. Ces écosystèmes se caractérisent par une forte structuration verticale, une hétérogénéité horizontale et une variabilité temporelle, rendant leur modélisation à grande échelle particulièrement complexe. La rareté des observations limite également la calibration de ces modèles.

Avec le changement climatique et ses impacts croissants, comprendre les écosystèmes pélagiques et leur réponse à la variabilité climatique et aux pressions anthropiques devient crucial. Bien que des modèles écosystémiques soient utilisés pour évaluer la répartition des poissons, des incertitudes subsistent, notamment sur les mécanismes et les interactions trophiques complexes qui régissent leur dynamique.

Nous présentons ici le modèle APECOSM, qui permet de représenter la dynamique spatiale de six communautés pélagiques génériques et leur structuration tridimensionnelle à l’échelle mondiale. Ce modèle, comparé avec des observations, reproduit les répartitions horizontales et verticales des communautés, et permet d’explorer les interactions trophiques entre communautés de poissons, leur taille et leur distribution.

Enfin, nous évoquerons les simulations de sensibilité en cours d'analyse, qui visent à identifier le rôle respectif de la production primaire, de la température, de l'oxygène et de la lumière dans la réponse des écosystèmes pélagiques au changement climatique.

Analyse de sensibilité de systèmes complexes : construction de cartes pour sorties fonctionnelles

L’analyse de sensibilité globale (Global Sensitivity Analysis, GSA) vise à quantifier la contribution des variables d’entrée à la variabilité des sorties d’un modèle. Dans le cas de sorties fonctionnelles, un objectif courant est de calculer des cartes de sensibilité (Sensitivity Maps, SM), c’est-à-dire des indices de sensibilité pour chaque dimension de la sortie (par exemple chaque pas de temps pour une série temporelle, ou chaque pixel pour une sortie spatiale).

Dans cette présentation, nous montrons d’abord comment obtenir des calculs rapides de cartes de sensibilité de Sobol’ à l’aide d’un développement sur une base générale. Nous considérons ensuite les estimateurs pick-freeze (PF), qui possèdent de bonnes propriétés statistiques (en termes d’efficacité asymptotique) pour les indices de Sobol’ d’ordre quelconque. Nous fournissons des formules analogues pour l’estimateur PF des cartes de sensibilité de Sobol’, en fonction de l’estimateur PF matriciel du vecteur des coefficients sur la base. Nous montrons que, comparée à une approche dimension par dimension, l’économie de calcul est substantielle et permet d’obtenir à la fois les cartes de sensibilité et leurs bornes de confiance bootstrap en un temps raisonnable. Enfin, nous considérons le cadre des processus gaussiens et montrons comment évaluer également l’erreur de modèle, en étendant au cas fonctionnel une méthodologie initialement développée pour le cas scalaire.

Nous illustrons l’ensemble de la méthodologie sur une application en hydraulique non newtonienne, modélisant un écoulement idéalisé de type rupture de barrage.

Travaux joints avec Yuri Taglieri Sao et Geraldo de Freitas Maciel, de l'Université Sao Paulo, Brésil.

  • Olivier Titaud  (CLS Groupe - Collecte Localisation Satellites, Toulouse )

Evaluer la sensibilité du modèle SEAPODYM-LMTL aux données d'entrée – application de la méthode des ensembles à la biomasse de micronecton globale

 Le micronecton regroupe un grand nombre d'espèces pélagiques de taille intermédiaire (2 à 20 cm) capables de nager sur de courtes distances. Ce compartiment joue un rôle clé dans la fourniture de services écosystémiques : il constitue une ressource alimentaire essentielle pour de nombreuses espèces emblématiques, importantes pour les sociétés humaines et la pêche, et contribue de manière significative à la séquestration du carbone vers les profondeurs océaniques ainsi qu'au cycle des nutriments.

Depuis mi-2019, les prévisions rétrospectives de la densité de biomasse de micronecton sont disponibles et régulièrement mises à jour pour le catalogue Copernicus Marine Service. Le produit est calculé à l'aide du modèle SEAPODYM-LMTL (Spatial Ecology and Population Dynamic Model – Low and Mid Trophic Levels) (Conchon, 2016 ; Lehodey et al., 2010, 2015).

Le modèle SEAPODYM-LMTL est un modèle mécanistique basé sur des équations d'advection-diffusion-réaction, simulant le transfert d'énergie depuis la productivité primaire jusqu'aux niveaux trophiques supérieurs. La dimension verticale est simplifiée en trois couches, correspondant à la distribution verticale des organismes observée. Six groupes de micronecton sont définis en fonction de leur migration verticale diurne, de la surface la nuit vers les profondeurs pendant la journée.

Dans le cadre du projet MER-EP qui vise à une inter comparaison et améliorer les réanalyses disponibles dans Copernicus Marine Service, une analyse de sensibilité des sorties du modèle SEAPODYM vis-à-vis des données d'entrée a été lancée.

En 2025, nous avons débuté l'analyse de sensibilité en maintenant la productivité primaire nette fixe et en faisant varier les champs de température et courant. Nous avons lancé trois simulations de biomasse du groupe de micronectons mésopélagiques inférieurs hautement migrateurs (D3N1) à une résolution hebdomadaire de ¼° sur la période 1998-2005, en utilisant les trois membres du GREP et la NPP du produit de référence (basé sur Ocean Colour). En 2026, nous intègrerons d'autres sources de données pour atteindre une dizaine de membres.

Le groupe D3N1 a été choisi car il effectue la plus grande migration nycthémérale et possède donc une plus grande capacité de séquestration du carbone. Il sera ensuite intéressant de relier la biomasse de ce groupe à la quantité de carbone séquestré, et d'y associer l'incertitude quantifiée à l'aide d'une modélisation d'ensemble.



 

Chargement... Chargement...