S'abonner à un flux RSS
 

Validation d'un modèle (HU) : Différence entre versions

De Wikhydro
(Introduction : limites de l'article et définitions)
Ligne 15 : Ligne 15 :
 
Nous nous contenterons donc d'une définition moins générale et appliquée aux domaines de hydrologie et en assainissement.
 
Nous nous contenterons donc d'une définition moins générale et appliquée aux domaines de hydrologie et en assainissement.
 
   
 
   
Nous parlerons donc de validation pour désigner le processus qui consiste à s'assurer, qu'une fois calé (voir nota ci-dessous), le modèle est capable de fournir des résultats cohérents pour un ensemble de phénomènes jugés prépondérants. On devrait, dans ce cas, plutôt parler de vérification. C'est cependant uniquement cet aspect qui sera développé dans cet article et nous parlerons de façon équivalente de validation ou de vérification.
+
Nous parlerons de validation pour désigner le processus qui consiste à s'assurer, qu'une fois calé (voir nota ci-dessous), le modèle est capable de fournir des résultats cohérents pour un ensemble de phénomènes jugés prépondérants. On devrait, dans ce cas, plutôt parler de vérification. C'est cependant uniquement cet aspect qui sera développé dans cet article et nous parlerons de façon équivalente de validation ou de vérification.
 
   
 
   
 
<u>Nota</u> : C’est bien souvent lors des phases de validation / vérification que l’on s’aperçoit que le calage préalable du modèle mérite d’être davantage approfondi… La validation/vérification est donc un processus itératif qui nécessite le plus souvent plusieurs allers-retours entre phases de calage et vérification
 
<u>Nota</u> : C’est bien souvent lors des phases de validation / vérification que l’on s’aperçoit que le calage préalable du modèle mérite d’être davantage approfondi… La validation/vérification est donc un processus itératif qui nécessite le plus souvent plusieurs allers-retours entre phases de calage et vérification
Ligne 24 : Ligne 24 :
  
 
Il y a souvent une confusion entre plusieurs termes au sens proches mais cependant différents. Dans cet article nous utiliserons les définitions suivantes :
 
Il y a souvent une confusion entre plusieurs termes au sens proches mais cependant différents. Dans cet article nous utiliserons les définitions suivantes :
* variables d'intérêt : il s'agit des grandeurs pour lesquelles il est possible de comparer les valeurs mesurées et les valeurs produites par le modèle ; il peut par exemple s'agir de hauteurs d'eau, de vitesses, de débits, de volumes, de concentrations, de masses, etc. ;
+
* <u>variables d'intérêt</u> : il s'agit des grandeurs pour lesquelles il est possible de comparer les valeurs mesurées et les valeurs produites par le modèle ; il peut par exemple s'agir de hauteurs d'eau, de vitesses, de débits, de volumes, de concentrations, de masses, etc. ;
* indicateurs ou sous-critères : il s'agit d'une mesure de l'écart constaté entre les valeurs mesurées et les valeurs estimées ;
+
* <u>indicateurs ou sous-critères</u> : il s'agit d'une mesure de l'écart constaté entre les valeurs mesurées et les valeurs estimées ;
* critères de performance :  
+
* <u>critères de décision</u> : de façon générique, il s'agit d'éléments de référence permettant de porter un jugement de valeur ou de prendre une décision ; ces critères de choix sont généralement issus d'une agrégation de sous-critères comparés à des valeurs de référence.
  
Ok avec tes définitions des critères et indicateurs (encore appelés sous-critères). Seulement, je me suis appuyé sur un guide (voir ci-joint) traitant du calage et validation des modèles pour faire mes propositions. A la lecture de la version actuelle de l'article, il peut y avoir confusion entre sorties des modèles (débits, volumes, hauteurs...) et critères (métriques ou valeurs seuils permettant de juger). Dans le guide joint, il est question de critères d'évaluation des performances des modèles. J'ai proposé de parler d'indicateurs de performance des modèles car besoin parfois d'agréger plusieurs indicateurs (sous-critères) pour arriver à prendre une décision, ça rejoint ce que tu dis, à savoir agrégation des indicateurs pour arriver à construire un critère. Les exemples que tu montres dans l'article vont également dans ce sens (besoins de plusieurs "indices/index/"indicateurs de performance" pour juger vraiment des performances d'un modèle, ne pas se contenter d'un seuil sous-critère....). Après, pour éviter de rajouter de nouvelles notions (indicateur, etc.), je propose de parler de critères d'évaluation des modèles (valeurs de Nash, RMSE, différences, écarts....) et de sorties des modèles (variables/grandeurs calculées = hauteur, débits, vitesses, ou toutes autres sorties = cumul, volume annuel...). C'est juste pour être en adéquation avec le guide joint.
+
La démarche de vérification doit permettre dans ce cas de s'assurer que le modèle permet d'atteindre l'objectif fixé avec un niveau donné de confiance. Elle comprend plusieurs étapes successives :
 
+
* sélection des variables d'intérêt en fonction de l'objectif poursuivi ;
un critère est un élément de référence qui permet de juger, d'estimer, de prendre une décision ;
+
* sélection des indicateurs (sous-critères) permettant de comparer les valeurs mesurées aux valeurs observées (écarts quadratique, écart maximum, critère de Nash, etc.) ;
un indicateur est un instrument de mesure, qui donne de l'information (et donc est lié à une source d'information) et permet de calculer la valeur d'un critère.
+
* choix des critères de décision (ensemble de sous-critères associés à des écarts acceptables) permettant de vérifier que le niveau de confiance attendu est bien obtenu ;
 
+
La démarche de vérification doit permettre dans ce cas de s'assurer que le modèle permet d'atteindre l'objectif fixé avec un niveau donné de confiance. Elle comprend trois étapes successives :
+
* choix du ou des critères permettant de préciser l'objectif à atteindre pour le modèle ;
+
* choix de l'écart acceptable sur chacun des critères pour vérifier le niveau de confiance attendu ;
+
 
* mise en œuvre de la démarche (reposant généralement sur l'acquisition et l’exploitation de données mesurées, si possible obtenues en continu, et/ou d’observations, par exemple de [[Laisse de crue (HU)|laisses de crues]]).
 
* mise en œuvre de la démarche (reposant généralement sur l'acquisition et l’exploitation de données mesurées, si possible obtenues en continu, et/ou d’observations, par exemple de [[Laisse de crue (HU)|laisses de crues]]).
 
  
 
==Choix du ou des critères==
 
==Choix du ou des critères==

Version du 26 août 2021 à 17:47

Traduction anglaise : Model validation, Model verification

Logo eurydice.jpg

Dernière mise à jour : 26/08/2021

Processus par lequel on démontre la capacité d’un modèle à représenter un ou plusieurs phénomènes physiques en s'appuyant sur des preuves évidentes, sur le raisonnement ou sur des données totalement indépendantes de celles ayant permis de le construire (c'est à dire obtenues sur d'autres sites, représentatives d’un autre aspect et différentes de celles ayant servi à son élaboration, ses tests et son calage).

Sommaire

Introduction : limites de l'article et définitions

Qu'entendons-nous exactement par validation d'un modèle en hydrologie ?

En toute rigueur, il est impossible de démontrer qu'une théorie ou un modèle est juste. Tout au plus peut-on démontrer que ses prévisions sont, jusqu'ici et avec un niveau de précision donné, conformes aux observations.

Nous nous contenterons donc d'une définition moins générale et appliquée aux domaines de hydrologie et en assainissement.

Nous parlerons de validation pour désigner le processus qui consiste à s'assurer, qu'une fois calé (voir nota ci-dessous), le modèle est capable de fournir des résultats cohérents pour un ensemble de phénomènes jugés prépondérants. On devrait, dans ce cas, plutôt parler de vérification. C'est cependant uniquement cet aspect qui sera développé dans cet article et nous parlerons de façon équivalente de validation ou de vérification.

Nota : C’est bien souvent lors des phases de validation / vérification que l’on s’aperçoit que le calage préalable du modèle mérite d’être davantage approfondi… La validation/vérification est donc un processus itératif qui nécessite le plus souvent plusieurs allers-retours entre phases de calage et vérification

Nous raisonnerons de plus dans le cadre des modèles opérationnels, construits pour atteindre un objectif spécifique.

Termes utilisés dans cet article

Il y a souvent une confusion entre plusieurs termes au sens proches mais cependant différents. Dans cet article nous utiliserons les définitions suivantes :

  • variables d'intérêt : il s'agit des grandeurs pour lesquelles il est possible de comparer les valeurs mesurées et les valeurs produites par le modèle ; il peut par exemple s'agir de hauteurs d'eau, de vitesses, de débits, de volumes, de concentrations, de masses, etc. ;
  • indicateurs ou sous-critères : il s'agit d'une mesure de l'écart constaté entre les valeurs mesurées et les valeurs estimées ;
  • critères de décision : de façon générique, il s'agit d'éléments de référence permettant de porter un jugement de valeur ou de prendre une décision ; ces critères de choix sont généralement issus d'une agrégation de sous-critères comparés à des valeurs de référence.

La démarche de vérification doit permettre dans ce cas de s'assurer que le modèle permet d'atteindre l'objectif fixé avec un niveau donné de confiance. Elle comprend plusieurs étapes successives :

  • sélection des variables d'intérêt en fonction de l'objectif poursuivi ;
  • sélection des indicateurs (sous-critères) permettant de comparer les valeurs mesurées aux valeurs observées (écarts quadratique, écart maximum, critère de Nash, etc.) ;
  • choix des critères de décision (ensemble de sous-critères associés à des écarts acceptables) permettant de vérifier que le niveau de confiance attendu est bien obtenu ;
  • mise en œuvre de la démarche (reposant généralement sur l'acquisition et l’exploitation de données mesurées, si possible obtenues en continu, et/ou d’observations, par exemple de laisses de crues).

Choix du ou des critères

Considérations générales

Les modèles hydrologiques ou hydrauliques qui font l'objet de cet article peuvent être construits pour répondre à des objectifs très divers. Les critères doivent donc être choisis en fonction des objectifs retenus. Sans prétendre à l'exhaustivité, nous illustrerons le choix des critères au travers de 3 exemples représentatifs :

  • modèles destinés à représenter les crues majeures d'un cours d'eau ;
  • modèles destinés à établir le diagnostic de fonctionnement hydraulique d'un réseau d'assainissement ;
  • modèles destinés à représenter quantitativement les rejets urbains de temps de pluie, par exemple dans le cadre de l'autosurveillance.

Quel que soit l'objectif, ces critères doivent présenter des qualités communes minimales :

  • représentativité vis à vis des objectifs à atteindre ;
  • mesurabilité ou capacité à être calculés à partir des données disponibles ;
  • objectivité.

Dans tous les cas la méthode reposera généralement sur des campagnes de mesures permettant de comparer les valeurs calculées à partir des mesures et observations aux valeurs résultant des modélisations. Trois conditions importantes devront systématiquement être respectées :

  • utiliser impérativement pour la vérification des "événements hydrologiques" différents de ceux ayant été préalablement utilisés pour le calage ;
  • utiliser un nombre d'événements d'autant plus important que les incertitudes sur les mesures sont grandes (10 à 15 événements constitue un nombre minimum souhaitable qui, malheureusement, ne peut pas toujours être atteint - voir nota ci-dessous) ;
  • utiliser des événements hydrologiques représentatifs de ceux visés par les objectifs.

Nota : Lorsque la modélisation est confiée à un bureau d'études, on limite souvent la durée de la campagne de mesures pour des raisons à la fois économiques et de délais. Or il est très peu probable, sur une durée courte, d'observer un nombre d'événements significatifs suffisants pour réaliser à la fois le calage et la vérification du modèle. Cet aspect constitue souvent le facteur qui limite le plus la qualité des modèles.

Cas des modèles destinés à représenter les crues majeures d'un cours d'eau

Ce type de modèle peut être construit spécifiquement pour un cours d'eau donné, voire pour une portion particulière de ce cours d'eau ou pour une classe particulière de cours d'eau. Dans ce dernier cas on distingue en général la validation interne, c'est à dire la capacité du modèle à reproduire les crues sur les cours d'eau sur lesquels il a été calé, et la validation externe, c'est à dire sa capacité à reproduire des crues sur des cours d'eau non utilisés pour le calage.

Dans tous les cas on s'intéresse par définition à des événements rares. La probabilité d'observer une crue majeure dans un délai raisonnable après la construction du modèle est donc très faible. Les événements utilisables pour la vérification seront donc nécessairement des événements historiques. Ceci peut contraindre fortement les critères utilisables qui ne pourront reposer que sur les données disponibles. Les critères possibles seront généralement les mêmes que ceux utilisés pour le calage ; par ordre d'intérêt et pour différentes crues :

  • le niveau d'eau maximum atteint en différents points d'intérêt (ce critère prime car l'évaluation correcte du risque d'inondation constitue généralement l'objectif principal) ;
  • le débit maximum atteint en différents points d'intérêt ;
  • le volume de la crue ;
  • le temps de montée (important pour avertir les populations exposées) ;
  • la forme de l'hydrogramme de crue (évaluable par exemple par le critère de Nash).

Cas des modèles destinés à établir le diagnostic de fonctionnement hydraulique d'un réseau d'assainissement

Les modèles de ce type utilisent généralement un logiciel générique spécifiquement adapté sur le réseau à étudier. Les logiciels disponibles (CANOE, Hydranet, InfoWorks, PCSWMM, ...), reposent sur des modélisations mathématiques assez voisines et sont tous parfaitement capables de représenter correctement le fonctionnement hydraulique d'un réseau d'assainissement complexe à deux conditions :

  • avoir correctement décrit la structure physique du réseau et en particulier des ouvrages spéciaux comme les déversoirs d'orage ;
  • avoir été correctement calés sur un nombre suffisant de points et d'événements pluvieux représentatifs (en particulier incluant des pluies suffisamment fortes pour provoquer des dysfonctionnements du réseau).

Nota : Remplir ces deux conditions demande du temps et de la patience de la part des collectivités. Il est en particulier indispensable de considérer la construction d'un modèle comme un processus de longue haleine, alternant des phases de calage, d'amélioration du modèle et de vérification.

Pour ce type de problème, les critères de validation possibles, également par ordre d'intérêt et pour différents événements, sont les suivants :

  • comparaison des points de débordements simulés et observés ;
  • volumes débordés par sous-bassins versants, par sous-réseaux ou par rue ;
  • débits maximum à différents points d'intérêt.

Cas des modèles destinés à représenter les rejets urbains de temps de pluie, par exemple dans le cadre de l'autosurveillance

Comme pour le cas précédent, les modèles de ce type utilisent généralement un logiciel générique spécifiquement adapté sur le réseau à étudier. De la même façon on n'évalue donc pas vraiment la qualité du logiciel générique, supposée suffisante, mais celle de la représentation du réseau et celle du calage. La remarque du nota précédent reste donc valable.

Du fait de l'objectif, la qualité de représentation des déversoirs d'orage est ici prépondérante.

Les critères possibles sont les suivants :

  • volume totaux rejetés par les déversoirs d'orage sur une base de temps donnée (typiquement l'année), ceci par branche du réseau, ou par milieu récepteur, ou éventuellement par déversoir pour les plus importants d'entre eux ou si leur nombre total est réduit ;
  • classement fréquentiel des volumes rejetés pendant une certaine période de temps (pluriannuelle) pour les événements les plus forts observés, ceci par branche du réseau, ou par milieu récepteur, ou éventuellement par déversoir pour les plus importants d'entre eux ;
  • volumes individuels rejetés pour un ensemble représentatif de déversoirs et d'événements pluvieux.

L'exemple présenté dans la dernière partie de cet article détaille certains de ces critères.

Nota : Pour le calage des modèles de ce type il est intéressant d'utiliser des hydrogrammes observés en différents points d'intérêt du réseau plutôt que ceux mesurés sur les déversoirs eux-mêmes ; le fait que les critères de calage soient différents des critères de validation permet de conforter la confiance que l'on peut avoir dans le modèle.

Écarts acceptables sur les critères pour considérer le modèle comme validé

Considérations générales

Déterminer la valeur acceptable du critère d'écart suppose au préalable d'avoir déterminé les incertitudes sur :

  • les éléments nécessaires au fonctionnement du modèle (incertitudes sur la connaissance de la pluie, sur la nature des surfaces, etc.) qui induisent des incertitudes sur la valeur des paramètres calculés utilisés pour déterminer le ou les critères (principalement volumes et/ou débits) ;
  • la mesure directe des paramètres utilisés pour calculer le critère (par exemple la validité de la courbe de tarage pour déterminer les débits dans la gamme correspondant à ceux des évènements pris en référence).

Cette détermination préalable est primordiale, car les incertitudes qui affectent les débits mesurés sur les réseaux d’assainissement sont souvent significatives, notamment lors de mesures installées provisoirement pour une campagne de mesures, et en particulier sur les déversoirs d’orage.

Tout écart inférieur à l'incertitude sur cet écart est en effet non significatif. De fait, en première approximation, on peut considérer que l'écart acceptable entre les valeurs simulées et les valeurs calculées pour le critère choisi doit être de l'ordre de grandeur de la somme des incertitudes sur chacune des deux familles de valeurs.

Ces incertitudes sont souvent très importantes pour un événement particulier et un point particulier. Ceci explique pourquoi il est préférable de privilégier des critères intégrateurs pour lesquels les incertitudes sont plus faibles. Malgré tout, les deux familles d'incertitudes dépendent d'un grand nombre d'éléments locaux : par exemple densité du réseau de pluviomètres, utilisation éventuelle de données provenant d'un radar météorologique, qualité des mesures de débit, nombre d'événements utilisés, complexité du réseau, etc.. Il est donc extrêmement difficile de donner ne serait-ce que des ordres de grandeur des écarts acceptables, ce qui ne doit pas dispenser de le faire au mieux.

On soulignera en particulier que la simulation des épisodes pluviométriques brefs et intenses requiert une densité de pluviomètres qui doit être suffisante au regard de la superficie du bassin-versant, ce qui n’est pas toujours le cas.

Exemple de validation

L'exemple traité ci-dessous correspond à la comparaison des volumes journaliers mesurés et simulés entrant dans une station d'épuration (voir figure 1).


Figure 1 : volumes journaliers mesurés et simulés en entrée de la station d'épuration

Différents critères utilisables pour savoir si la simulation est correcte sont explicités ci dessous.

Volume total annuel

Le volume total annuel simulé est de 86 203m3 alors que le volume simulé est de 88 084m3. Les incertitudes sur les volumes mesurés sont évalués à 15%, et celles sur les volumes mesurés à 25%.

Vis à vis de ce critère, la simulation est donc excellente puisque l'écart de 2% est très inférieur aux incertitudes. Il est cependant possible que cette excellence cache de grosses différences qui se compensent sur l'année. Ce critère est donc insuffisant.

Écart quadratique moyen ou Critère de Nash calculés sur l'ensemble de la série

L'écart quadratique moyen est égal à la racine carrée de la somme des carrés des écarts divisée par le nombre de valeurs.

Dans ce cas il est égal à 5,1m3 pour une valeur moyenne journalière mesurée de 236m3; soit un écart relatif moyen qui est également de l'ordre de 2%.

Les hydrologues utilisent également souvent le critère de Nash-Sutcliffe qui s’écrit ;

$ E_c = 1 – \frac{[ ∑(S_{ob}(i.Δt) – S_c(i.Δt))²]}{[ ∑ (S_{ob} (i.Δt) – S_{mob})² ]} $

Avec :

  • $ S_{ob} $ et $ S_c $ : Valeurs observées et calculées au ieme pas de temps ;
  • $ Δt $ : pas de temps de la série chronologique discrétisée ;
  • $ S_{mob} $ : moyenne arithmétique des observations.

Là encore, le critère de Nash, avec une valeur de $ 0{,}99 $, frise la perfection.

Cette excellence ne constitue cependant pas une preuve que le modèle soit lui-même excellent dans l'absolu. Elle indique seulement que le modèle est capable de discriminer correctement les jours de temps sec et les jours de pluie (ce qui constitue un minimum) et de représenter correctement l'ordre de grandeur des volumes journaliers produits par temps de pluie.

Écarts sur les valeurs extrêmes

Une autre façon de procéder, plus importante si on s'intéresse au temps de pluie et particulièrement aux situations rares, consiste à comparer les plus fortes valeurs simulées et observées.

Si on recherche la plus forte valeur mesurée (3 952m3), on a alors une très mauvaise surprise. Celle-ci a été observée le 27 décembre comme le montre le tableau de la figure 2, et ce jour ci, la simulation produit une valeur 25 fois plus faible (149m3), correspondant à une journée de temps sec ordinaire. Le modèle semble donc totalement mis en défaut.


Figure 2 : Comparaison des volumes journaliers mesurés et simulés en entrée de la station d'épuration du 26 au 28 décembre.

Trois explications sont possibles :

  • la simulation est totalement fausse ce jour particulier ;
  • la mesure est totalement fausse ce jour particulier ;
  • il s'est passé ce jour-ci un phénomène qui n'est pas pris en compte dans le modèle de simulation utilisé.

La première explication peut facilement être éliminée en constatant qu'il n'a pas plu ce jour ni le jour précédent et donc qu'aucune eau pluviale n'a été produite.

Différents phénomènes autres que la pluie peuvent provoquer des écoulements, par exemple une fonte de neige (qui n'est pas prise en compte par le modèle utilisé), la vidange d'une cuve ou d'une piscine, la rupture d'une conduite d'eau potable, etc.. Est-ce pour autant, au cas où l'une de ces explications soit la bonne, que le modèle doit être remis en cause ? Il est effectivement possible de doter le modèle de fonctions complémentaires, par exemple la prise en compte des stocks de neige et de leur fonte.

Cependant il est également nécessaire de comprendre qu'aucun modèle ne sera capable de prendre en compte un événement accidentel comme la rupture d'une conduite d'eau potable par exemple. Il faut donc accepter le fait que, dans certains cas, des écarts importants existent entre les valeurs mesurées et les valeurs simulées. En revanche il est indispensable de déterminer les raisons de cet écart.

Ce critère doit donc également être utilisé avec prudence et tout écart important doit faire l'objet d'une analyse détaillée. Sa prise en considération montre cependant la limite des critères précédents qui n'avaient pas permis de détecter une différence très importante un jour particulier.

Analyse fréquentielle

Pour éviter d'être piégé par une ou quelques valeurs extrêmes pouvant correspondre à des erreurs de mesure ou à des phénomènes parasites, il est préférable de travailler sur la comparaison des fréquences de dépassement des volume prévus et observés, ce qui correspond effectivement au résultat attendu pour l'autosurveillance. Pour ceci on "oublie" les dates où les événements se sont produits et on se contente de classer les valeurs mesurées et simulées par ordre décroissant conformément à la figure 3. Ce tableau montre clairement que le cumul des volumes mesurés est largement supérieur à celui des volumes simulés pour les valeurs les plus fortes et également que cet écart se réduit progressivement.


Figure 3 : Dix plus fortes valeurs mesurées et simulées classées par ordre décroissant.


Pour évaluer la représentativité de ces écarts, il est nécessaire de tracer les domaines d'incertitudes des valeurs mesurées et simulées (figure 4). On observe alors que les domaines d'incertitude se recouvrent, sauf pour la valeur la plus forte pour laquelle le modèle est incapable de représenter les observations.


Figure 4 : Domaines d'incertitude des plus fortes valeurs mesurées et simulées classées par ordre décroissant.

Nous retrouvons bien le résultat observé précédemment. Nous savons que, dans ce cas, la plus forte valeur mesurée correspond, soit à une erreur de mesure, soit à un phénomène accidentel non pris en compte par le modèle. Cependant cette courbe des valeurs simulées décalée vers le bas pourrait également correspondre à l'incapacité du modèle à représenter les événements les plus forts. Elle est donc plus instructive que le volume total annuel ou le critère de Nash.

Si nous retirons la valeur particulière correspondant à l'événement du 27 décembre que nous savons correspondre à un événement spécifique, cette approche met en revanche clairement en évidence la très bonne capacité du modèle à reproduire les valeurs extrêmes (figure 5).


Figure 5 : Comparaison des plus fortes valeurs mesurées et simulées classées par ordre décroissant après avoir enlevé la mesure particulière du 27 décembre

Méthode du double cumul

Il est possible d'améliorer encore la méthode précédente en travaillant non plus sur les valeurs elles-mêmes mais sur leurs cumuls (voir figure 6).


Figure 6 : Cumul des plus fortes valeurs mesurées et simulées classées par ordre décroissant après avoir enlevé la mesure particulière du 27 décembre

Le tracé de la courbe cumul des valeurs simulées fonction du cumul des valeurs observées fournit alors plusieurs informations sur la qualité de la simulation (voir figure 7).


Figure 7 : Cumul des plus fortes valeurs simulées fonction du cumul des valeurs mesurées.
  • Le coefficient de corrélation proche de 1 indique que la relation est linéaire.
  • Le coefficient directeur de la droite également proche de 1 indique que le volume simulé est proche du volume mesuré quel que soit l'importance de l'événement (du moins, dans l'exemple, pour les 10 événements les plus forts).

Il est possible d'étudier le double cumul sur des plages beaucoup plus étendues, et même sur la totalité des valeurs (dans ce cas on retrouve également le critère de volume total annuel). Il est également possible d'effectuer le double cumul sur des valeurs classées de façon différente. Par exemple un classement par date croissante pourrait permettre de mettre en évidence, par des ruptures de pente dans la courbe, une sous-estimation systématique des valeurs mesurées à certaines périodes de l'année et/ou une surestimation pendant d'autres périodes, etc.

Conclusions sur le choix des critères dans ce cas

Le cas présenté correspond à un modèle parfaitement calé par rapport aux mesures, beaucoup mieux que ce que l'on est, le plus souvent, capable de faire. Mais ceci ne garantit pas qu'il représente parfaitement la réalité : les résultats mesurés et simulés peuvent être faux tous les deux de la même façon ! Il est donc toujours nécessaire de rester vigilant et de diversifier les modes de contrôle et de validation (mesures en différents points, par différents dispositifs métrologiques, etc.).

Ceci dit cet exemple montre bien la nécessité, même dans un cas simple, de choisir les critères par rapport aux objectifs poursuivis et surtout celle de ne pas se contenter d'un critère unique.


Article en chantier


Voir aussi : Calage d’un modèle.

Outils personnels