Il est un argument, largement utilisé par les climato-crédules, qui consiste à se moquer des climato-sceptiques en leur reprochant d'être minoritaires par rapport à des milliers de scientifiques unanimes à juger que l’homme est responsable de la période chaude contemporaine. Or, ces milliers de scientifiques ne sont en fait qu’une vingtaine de spécialistes d’une cinquantaine de disciplines : thermodynamique, physique, océanographie, glaciologie, biologie, chimie, astronomie, hélio-sismologie, informatique, mathématique, agronomie, pédologie, et tant d’autres. Chacune a sa logique. Chacune est utile au progrès des connaissances, mais cette diversité nécessite une méthodologie robuste pour juger l'adéquation entre la théorie et les observations.
Ces méthodologies relèvent de la théorie des systèmes.
Le Giec, quant à lui, a mis au point ce qu’il appelle la "détection et attribution", c’est à dire la détection d’un effet climatique et son attribution à une ou des causes, de préférence une seule: la cause humaine.
Malheureusement, faute de concertation avec la communauté internationale des théoriciens des systèmes, le Giec fait illusion avec une méthode de circonstance mise au point pour les besoins de la cause anthropique.
Pourquoi et comment ?

Commentaire "les2ailes.com"

1 - L’identification et la théorie des systèmes
1.1- La théorie des systèmes : une discipline connue et reconnue
1.2- Les principes de la théorie des systèmes
1.3- La théorie des systèmes : un français, pionnier dans l’application au système climatique
2 - La « détection et attribution » du Giec : une méthodologie de circonstance !
2.1- Des bases créant le doute
2.2- La méthodologie retenue dans le "Guide pratique"
2.3- Les recommandations évoquées dans le "Guide pratique"
3- Faute d'identification sérieuse, le GIEC se contente de "probabilités subjectives" !!
4- Des "probabilités subjectives" au service des "catastrophistes éclairés" !!
5- Conclusion

 

1 - L’identification et la théorie des systèmes

1.1- La théorie des systèmes : une discipline connue et reconnue

Le CNRS définit ainsi cette science : "L’identification, ou recherche de modèles à partir de données expérimentales, est une des préoccupations commune à la plupart des disciplines scientifiques. (sauf du Giec) . Elle désigne à la fois une démarche scientifique et un ensemble de techniques visant à déterminer des modèles mathématiques capables de reproduire aussi fidèlement que possible le comportement dynamique d’un système physique, chimique, biologique, environnemental ou de télécommunication…
Cette méthodologie, généralement développée au sein de la communauté automatique, est utilisée par d’autres domaines. Elle s’appuie sur la théorie des systèmes et utilise différents outils issus des mathématiques appliquées, du traitement statistique du signal, de la théorie de l’information ainsi que de la physique. Elle se concrétise par des algorithmes de traitement de données expérimentales" [1].
Les spécialistes de cette discipline sont des milliers regroupés dans une fédération internationale, l’IFAC (International Federation of Automatic Control), structurée autour d’une cinquantaine de pays. L'IFAC publie notamment 9 des meilleurs journaux internationaux en automatique et contrôle des systèmes. En 2017, se tiendra le 20ème Congrès mondial de l’IFAC. Son président est depuis 2011 un français, Janan Zaytoon.
Au CNRS, les spécialistes sont regroupés autour d’un GdR MACS (Groupe de Recherche - Modélisation, Analyse et Conduite des Systèmes dynamiques). Ce groupe rassemble 2500 membres.
On ne peut donc pas dire qu’il s’agisse d’une science accessoire ou insignifiante.
[retour plan]

1.2- Les principes de la théorie des systèmes

Une procédure d’identification se déroule en cinq temps :

  • Délimitation du système à identifier.
    C’est une phase préalable qui nécessite de l’expérience. Faute de bien délimiter le système complexe, on ne pourra pas ensuite identifier des données indépendantes dudit système. On risquera de confondre des données causales et les effets observés. Les spécialistes considèrent que la mécanique climatique, dans sa globalité, est un système dynamique identifiable sans qu’il soit nécessaire d’en comprendre les mécanismes internes de détail.
  • Définition de la structure du modèle.
    Dans le cas d’une étude climatique, elle s’articule autour d’un modèle "à bilan énergétique" (EBM : Energy Balance Model), loi simple et robuste qui assure la cohérence de la conservation d’énergie dans toutes les relations entre les divers paramètres. Dans la "structure", est fait le choix fondamental des grandeurs d’entrée et de sortie du modèle. Concrètement, pour les entrées, les signaux retenus sont la teneur en CO2 atmosphérique, l’activité solaire, et l’activité volcanique. L’unique signal de sortie retenu est l’historique de la température globale sur une période donnée.

  • "L’observation" du comportement du système.
    La période considérée est celle où l’on dispose de mesures  suffisantes, directes  ou indirectes, sur tous les signaux énoncés ci-dessus. Concrètement, en matière climatique, il existe des « reconstructions » sur des périodes allant de l’an 843 à nos jours. Elles sont citées dans les rapports du GIEC. Certains peuvent les considérer comme imprécises, mais il est préférable de disposer d’un nombre suffisants d’événements significatifs plutôt que de s’enfermer dans des périodes récentes au motif que les mesures sont plus précises. Une durée trop courte priverait l’observateur d’événements indispensables à l’observation du système.
    La validité des reconstructions est fondamentale dans les travaux d'identification. Malheureusement, les chercheurs véritablement indépendants ne peuvent utiliser que celles qu'on veut bien mettre à leur disposition. Il ne faut pas oublier que les scientifiques du Climatic Research Unit (CRU) de l'Université d'East Anglia avaient refusé de communiquer certaines de leurs données scientifiques ou administratives, voire tenté de les détruire. Cela ressortait clairement d'un courriel daté du 2 février 2005, dans lequel Phil Jones écrivait à Michael Mann: "ne laisse rien traîner sur les sites "Files Transfer Protocol" (FTP). On ne sait jamais qui peut les visiter. Les deux MMs [probablement Stephen McIntyre et Ross McKitrick] cherchent à obtenir les données du CRU depuis des années... je pense que j'effacerai le fichier plutôt que de le donner à quiconque".
  • L’identification des paramètres du système.
    Un modèle par identification est issu du traitement mathématique des données. Du choix d’un modèle à bilan énergétique, il résulte, concrètement, que les résultats  du calcul donnent directement les coefficients dit de "sensibilité à l’équilibre" relatifs aux trois entrées (CO2, activités solaire et volcanique), qui se trouvent être  également des résultats essentiels des évaluations du GIEC. A la différence d’un modèle « de connaissance » qui conduit à ces coefficients à partir de modèles physiques d’une extrême complexité, l’identification donne accès aux mêmes élément uniquement à partir de l’observation des données historiques, et ceci sans requérir de connaissances physiques détaillées des mécanismes sous-jacents.
    Outre l’évaluation des sensibilités, la méthode permet également d’effectuer de façon rigoureuse le calcul de la probabilité qu’a un paramètre de se trouver dans un intervalle donné.
    La méthode d’identification permet également de quantifier précisément ce qu’on appelle la "variabilité naturelle interne du climat". En identification, elle se traduit par l’écart résiduel irréductible qui apparaît entre les résultats du modèle identifié et la réalité, du fait des phénomènes aléatoires ou non pris en compte dans le modèle.
    Enfin, cela va sans dire, un modèle d’identification est intrinsèquement un modèle dynamique, c’est-à-dire qu’il prend, de lui-même, en compte le délai entre toute variation d’une donnée d’entrée, et son effet différé et pondéré dans le temps, du fait notamment  des inerties thermiques mises en jeu. Le modèle évalue de lui-même les effets de cette inertie par le biais de constantes de temps, là aussi sans qu’il soit besoin de "connaissance" à priori des phénomènes en jeu.
  • L’évaluation à posteriori de la validité du modèle.
    Des calculs d’incertitude et des tests d’hypothèse apportent toutes les validations académiques requises, même s’ils restent assez abstraits à expliquer. Une preuve tangible peut résulter de l’adéquation entre les résultats et les observations pour éprouver la capacité prédictive du modèle: On se replace dans la situation, par exemple de l’an 2000. Des simulations sont effectuées à l’aveugle, sans y incorporer la moindre information de température postérieure à l’an 2000 et on vérifie si elles, prédisent avec une exactitude ou non l’évolution des températures constatées depuis.  La méthode exploite les techniques classiques dite "de reconstruction d’état" (filtrage de Kalman), où l’« état » en question correspond à des combinaisons de quantités de chaleur accumulées dans les inerties océaniques.
    [retour plan]

1.3- La théorie des systèmes : un français pionnier dans l’application au système climatique

Un chercheur français, Philippe de Larminat, professeur des universités de la classe exceptionnelle, a appliqué très précisément cette discipline au système climatique. Il a été chercheur en laboratoires du CNRS. Spécialiste reconnu de la modélisation et de la théorie des systèmes, il a publié des travaux "Changement climatique, Identification et projections" aux éditions ISTE/Wiley.
Ses conclusions s’opposent aux scénarios-catastrophe du GIEC. En s’appuyant sur ses résultats d’identification, Philippe de Larminat pose dans son ouvrage les conclusions suivantes : "Non seulement il n’est pas possible d’estimer avec quelque précision la sensibilité au CO2, mais on ne peut même pas détecter avec certitude l’existence d’une relation de cause à effet. …L’hypothèse d’un impact insignifiant de l’ensemble des gaz à effet de serre et de l’activité humaine en général ne peut pas être écartée. … On doit considérer comme un fait établi que l’activité solaire, en tant que variable explicative causale, constitue effectivement l’explication première du "changement climatique". … Dans le scénario envisageable d’un retour aux faibles activités solaires des années 1700 ou 1800, les modèles identifiés font craindre, au contraire, une baisse des températures qui pourrait annuler la hausse du siècle dernier. Cette éventualité est ni plus ni moins probable que la reprise alarmante que nous promet le GIEC".
Le Professeur Philippe de Larminat est un pionnier dans l’application des techniques de l’identification au processus climatique terrestre. Nul doute qu’il sera suivi, avec toute la fécondité qui sortira de traitements croisés par d’autres chercheurs.
Mais pourquoi ces conclusions sont-elles à ce point en contradiction avec celle du Giec ? La méthode de « détection & attribution » du Giec est-elle à ce point défaillante.
[retour plan]

2 - La « détection et attribution » du Giec : une méthodologie de circonstance !

Le GIEC prétend avoir mis au point une théorie très spécifique, exclusivement consacrée à la science climatique, dénommée pour la circonstance « détection et attribution ». Or seul un nombre très restreint de personnes revendique cette technique de validation non reconnue par les autres communautés scientifiques : Gabriele Hegerl, citée plus de 20 fois parmi les références bibliographiques du chapitre 10 (AR5), est co-auteur des recommandations aux rédacteurs du GIEC: « Good practice guidance paper on detection and attribution related to anthropogenic climate change » (2009). Le titre de cette recommandation induit que l’objectif est de valider "la cause anthropogénique du changement climatique" ! Ceci est d'ailleurs conforme à la mission du Giec qui est de "comprendre les fondements scientifiques des risques liés au changement climatique d'origine humaine" (source: Principes régissant les travaux du Giec- § 2).
Que dit ce "Guide pratique" édité seulement en 2009 ? Nous reprenons en note de fin d’article l’intégralité de son contenu [2].
[retour plan]

 

2.1- Des bases créant le doute

  • La détection & attribution » : des préliminaires n’inspirant pas le sérieux.
    D’emblée, il est précisé, dans l’introduction du "Guide pratique", que « cela ne signifie pas que le groupe de travail ou le panel ait agréé ou approuvé la procédure ou les recommandations et conclusions contenues dans ce document ». On ressent une sorte de suspicion sur la rigueur du contenu, certains experts ayant, peut-être, exprimé des réserves sur la robustesse des recommandations.
    Ce document est censé  « présenter des lignes directrices sur la façon d'évaluer la qualité relative des études et fournir des recommandations de bonne pratique dans les études de détection et d'attribution. À cet égard, il présente les critères pour évaluer la confiance, définit les exigences de données et traite des méthodes de traitement des facteurs de confusion » (§ résumé exécutif du Guide).
    Il est fait état de « facteurs de confusion pourraient donc conduire à des conclusions erronées sur les relations de cause à effet » (§ 1). Mais il ne suffit pas de les énoncer pour ne pas tomber dans le piège énoncé.
    De la même manière, le "Guide pratique" insiste sur la cohérence nécessaire « dans l’utilisation des "termes d'incertitude" et dans leur évaluation des niveaux de confiance » (§2). 
    Il est clairement indiqué dans le "Guide pratique" que l’attribution d’un effet au changement climatique est "basée sur la connaissance des processus". On est bien dans la logique d’un modèle de connaissance et non dans celle d’une méthode d’identification du système qui ne préjuge pas de la connaissance interne des mécanismes du système étudié. La conséquence de ce principe est dangereuse : "la confiance dans les évaluations sera augmentée lorsque l'attribution quantifiée des changements à un facteur de causalité est robuste et quand il existe une compréhension solide des processus" (§ 2-d), ce qui signifie a contrario, que la confiance diminue quand il n’existe pas de compréhension des mécanismes. C’est ainsi qu’on voit le Giec affirmer que le soleil ne peut expliquer la période chaude climatique récente faute de connaître les mécanismes explicatifs. Or, en science, ce n’est pas parce qu’un phénomène n’est pas expliqué qu’il n’existe pas.
  • Des éléments de langage non reconnus par les spécialistes de la discipline.
    ▪ Le concept même de "détection & attribution" est défini dans le "Guide pratique" comme très spécifique à la science climatique : « La détection d’un changement est définie comme un processus de démonstration que le climat, ou un système affecté par le climat, a changé dans un sens statistiquement défini, sans fournir une raison pour ce changement. ... L’attribution est définie comme le processus d'évaluation de la contribution relative des multiples facteurs de causalité à un changement ... » (§1- définition).
    On ne comprend pas très bien la différence entre un "processus de démonstration" et un "processus d’évaluation".
    ▪ Le concept de forçage est spécifique aux climatologues. Les théoriciens des systèmes parlent d’ « entrée causale externe », au même titre qu’il y a des « variables de sortie » du système. Le "Guide pratique" précise bien que "le forçage externe fait référence à un facteur extérieur forçant le système climatique" (§1- définition). C’est donc bien une sémantique que le Giec utilise aux seuls fins du "système climatique".
    Pourquoi ce terme de "forçage", typique du jargon (de la novlangue) propre aux climatologues ? Peut-être est-il issu de la mécanique des vibrations, où l’on parle parfois  d’oscillations libres ou d’oscillations forcées (par une source de vibration extérieure), et par extension de système libre ou de système forcé. Le GIEC s’est emparé du terme peu usité de forçage qui suggère une violence faite au climat par l’activité humaine destinée à comme le souhaite sans vergogne Stephen Schneider : rédacteur coordinateur du troisième rapport du groupe II du GIEC [3].
    D’ailleurs, dans le document "Extrait du rapport accepté par le groupe de travail I, questions fréquentes" (p. 107, "Foire aux Questions" § 2.1, encadré 1) du GT1, le terme forçage radiatif est employé par le GIEC avec le sens spécifique d'une perturbation du bilan radiatif du système climatique de la Terre.

Comme toujours, une sémantique n’est pas anodine : elle sous-entend quelque chose. En l’occurrence, parler de "forçage radiatif" induit l’idée que ne peuvent être considéré comme des facteurs impactant le climat que ce qui a joue sur le bilan radiatif. Or, d’autres facteurs comme l’effet des rayons cosmiques sur les nuages n’ont rien à voir avec le bilan radiatif et sont donc exclus de facto de la mécanique climatique.
[retour plan]

 

2.2- La méthodologie retenue dans le "Guide pratique"

  • La méthode d’« attribution en une étape » ("single step")
    Le "Guide pratique" prétend, par cette méthode, attribuer "un changement observé ... à des forçages et des facteurs externes". Il précise que "la modélisation peut impliquer un modèle global unique ou une séquence de modèles". (§2-a). Il ne s’agit là que d’une évidence : un modèle a pour objectif de représenter un mécanisme complexe. Mais le "Guide pratique" ne donne aucune réponse sur les algorithmes ou itérations qu’il recommande pour identifier une relation de cause à effet. Le professeur Philippe de Larminat explique dans les travaux qu’il a mené que "La théorie statistique officielle de l’identification propose [plusieurs] méthodes paramétriques qui ont pour nom OE, ARX, ARMAX, B&J, PEM, etc. [LJU 99]. Il précise celle qu’il retient,  "celle des moindres carrés d’erreur de sortie (OE : Output Error Method)". Il explicite en toute transparence les avantages et inconvénients [4]. Dans le "Guide pratique" du Giec, rien n’est précisé. Pire, dans un exemple, il montre que les auteurs "ont calculé le coefficient de régression entre les variations inter-annuelles" des facteurs retenus (encadré 2.1). Une "détection & attribution" qui se voudrait scientifiquement opposable ne peut se limiter à des calculs de régression. Chacun sait qu’une corrélation n’est pas forcément une preuve de relation de cause à effet. Il faut pour y parvenir utiliser des méthodes paramétriques plus sophistiquées. En effet, passer de la corrélation à la causalité est une des difficultés scientifiques les plus fondamentales. Cette difficulté est simplement illustrée par la fable classique du coq qui croit que le soleil se lève parce qu'il chante. Deux choses peuvent arriver en même temps, mais cela ne veut pas dire que l'une cause l'autre. Un "mécanisme physique" par lequel les deux événements sont connectés doit être connu, afin de comprendre pleinement la causalité.
  • La méthode d’« attribution par étapes successives »
    Sous ce vocable, le "Guide pratique" décrit les cas qui "[impliquent] une séquence d'analyses". Il donne un exemple : la première étape concerne "le lien entre la hausse du dioxyde de carbone atmosphérique et la baisse des capacités de calcification des récifs suite à la baisse de pH et des concentrations en ions carbonates". Les auteurs affirment qu’ils "sont causés par l’augmentation de la concentration atmosphérique de CO²." La seconde étape concerne "la relation entre la concentration d'ions carbonate et de la calcification des organismes bâtisseurs de récifs". Les auteurs reconnaissent que  la seconde étape "implique un large éventail d'influences, y compris la constitution génétique et l'histoire de l'environnement". Le "Guide pratique" a beau dire que "dans ce cas précis, l'influence relative des facteurs externes (réchauffement et à la baisse des concentrations en ions carbonates) devrait être étudiée pour terminer le processus d'attribution" (§ 2-b), rien n’est sur les algorithmes, itérations ou autres méthodes recommandées pour terminer le processus d’attribution et identifier des relations de cause à effet.
    Malheureusement, l’exemple fourni porte sur les conséquences éventuelles du réchauffement, l’impact sur les coraux,  et non sur les causes dudit réchauffement.
    Par ailleurs, toute identification sérieuse devrait s’assurer que l’effet de la première étape devient bien un facteur causal de la seconde étape, indépendant et externe au système. Or, rien n’est moins sûr dans l’exemple cité.
    C’est ainsi que le Giec, méconnaissant ces principes élémentaires de la théorie des systèmes, en arrive à inverser des causalités : l’effet "El Niño South Oscillation" est traité comme une cause. Dans l’enchaînement des facteurs causaux,  rien ne dit que "El Niño South Oscillation" soit indépendant du système climatique. Au contraire, il s’agit d’une des nombreuses boucles de réaction internes au système climatique et non un facteur qui lui est externe.
  • La méthode d’« attribution à des causes associées »
    Sous ce vocable, le "Guide pratique" décrit une méthode comprenant "une synthèse d'un grand nombre de résultats (éventuellement sur plusieurs systèmes)" (§ 2-c). Sans faire la moindre recommandation systémique, le "Guide pratique" donne un exemple : la fonte du pergélisol, les changements d’espèces d'animaux vers les pôles et de floraison précoces en réponse au réchauffement. Il s’agit encore d’un exemple portant sur les conséquences et non sur les causes du réchauffement.
    Le "Guide pratique" évoque l’utilisation de "deux méthodes statistiques spatiales" montrant, ici également, qu’il se limite à des calculs de corrélation. Certes, il parle également de "simulations de contrôle" , mais on s’étonne que dans un "Guide pratique"  de détection et attribution, rien ne soit dit des méthodes de simulation recommandées.
    C’est faute d’expérience en systémique que le Giec accepte l’idée d’associer plusieurs systèmes complexes entre eux. Ainsi le GIEC tombe dans deux écueils contradictoires et incompatibles avec l’identification :
    ▪ Globaliser de plus en plus..., En voulant intégrer dans un super modèle le cycle du carbone et le système climatique, le GIEC cherche "comment le cycle du carbone océanique répond au changement climatique", tout en reconnaissant que "les réponses sont très incertaines[5]. Inéluctablement, les imprécisions du premier polluent la précision du second ! 
    ▪ Globaliser de moins en moins... En passant du global au régional (ou au local, comme les profils de température atmosphérique). Cette insistance récente sur le régional ne serait-elle d’ailleurs pas en rapport avec le plafonnement actuel du réchauffement global qu’on voudrait occulter faute de l’expliquer ? On conçoit que le GIEC préfère maintenant insister sur les détails que sur l’ensemble. Mais comment appliquer sérieusement une méthode de D&A à des sous-systèmes régionaux dont les interactions de proche en proche sont constituées d’entrées causales pour les uns et d’effets pour leurs proches ?
  • La méthode d’« attribution à un changement de conditions climatiques »
    L’intitulé retenu par le "Guide pratique" pour cette méthode pourrait induire qu’il s’agit d’une attribution de certaines conséquences au changement climatique considéré comme une cause. Or le vrai débat est bien celui d’attribuer le changement climatique, considéré comme une conséquence de tel ou tel facteur externe causal.
    En tout état de cause, le "Guide pratique" affirme que "l'évaluation est basée sur la connaissance des processus" (§ 2-d). Il dit plus loin que les procédures proposées se résument toujours à estimer les risques de biais en fonction de "la base de processus de compréhension" (§ 3)!
    Or l’expérience de l’identification montre qu’il faut certes une culture générale des mécanismes internes de la mécanique climatique, mais que l’identification, en aucun cas, ne doit privilégier une "connaissance des processus". En effet, tout système complexe est par essence une accumulation de processus mal connus. Par ailleurs, Ce n’est pas parce qu’un phénomène ne s’expliquerait pas qu’il n’existe pas. Ce n’est pas, par exemple, parce que les mesures du rayonnement solaire ne montrent pas d’augmentation notable que le soleil n’a pas une importance dans le réchauffement. Ce n’est pas parce que l’on ne trouve pas d’explication au phénomène amplificateur du rayonnement solaire qu’il n’existe pas. Faute de cette acceptation, le Giec en arrive à douter des approches par identification : "La certitude que vous avez d’une forte sensibilité à l’activité solaire ne repose que sur les résultats d’une méthodologie de l’identification dont l’application à l’étude du climat reste à valider scientifiquement; elle est de toute façon en contradiction avec les conclusions établies sur la base des mesures directes du rayonnement solaire total et de la compréhension de la physique du climat" [6]. Cette affirmation est antiscientifique. Ce n’est pas parce que ce mécanisme n’est pas à ce jour complètement élucidé que cette relation causale de l’irradiance solaire sur le climat n’existe pas. Le Giec ne peut pas prouver que ce que l’on ignore n’a pas plus d’importance réelle que ce qu’on connait. Il ne peut prouver non plus que les modèles validés par le Giec sont exhaustifs, c’est à dire qu’ils prennent en compte tous les phénomènes.
On est en droit d'être surpris par le fait que ce "Guide pratique" ne prend aucun exemple relatif aux causes du réchauffement. Il ne prend que des exemples relatifs à ses conséquences (effets du CO² sur les coraux, de l'utilisation des sols sur la teneur en CO²,  du réchauffement sur les feux de forêts, etc...).
Cela ressemble fort à un aveu que la "détection & attribution" ne s'applique pas aux causes de la période chaude contemporaine. Dans ce cas, on serait en droit de s'interroger sur ce qu'il reste de pertinence pour rendre cohérentes la diversité des disciplines du Giec qui s'appuient sur "des faisceaux d'indices" pour démontrer la cause anthropique.
[retour plan]

2.3- Les recommandations évoquées dans le « Guide pratique »

  • Autres contraintes de la détection - attribution
    Le "Guide pratique", dans ce § 3, liste une série de conditions qui doivent être remplies "dans la mesure du possible" :
    ▪ Évaluation des"biais et lacunes dans les données" (§3 - alinéa 1)
    ▪ Adaptation des "échelle spatiale et la résolution temporelle ou la couverture des données" (§3 - alinéa 3)
    ▪ Estimation de "la variabilité interne" (§3 - alinéa 4).
    ▪ Évaluation "à base statistique des facteurs de confusion" (§ 4.2)
    A cette fin, le "Guide pratique" propose que "les critères de sélection doivent être clairement indiqués". On aurait espéré que le "Guide pratique"  en donne une liste de critères applicables selon les cas, mais il n’en n’est rien !
    Toutes ces déclarations de principes ne relèvent donc pas de la "détection & attribution" ; n’importe quel institut de sondage recommanderait les mêmes précautions. On attend un autre niveau scientifique dans un "Guide pratique" de la détection & attribution. Par exemple, le "Guide pratique" pourrait recommander des méthodes classiques pour tester un modèle consistant à conduire  des "tests d’optimalité"  ou de "blancheur des résidus", pour vérifier la robustesse des modèles utilisés au regard des bruits et perturbations dues à la variabilité naturelle.
  • Durée des observations
    Le "Guide pratique" rappelle, à juste titre que "il est idéal si l'enregistrement d'observations est d'une durée suffisante pour estimer la variabilité interne du système qui est considéré... Des informations paléo-climatiques peuvent être utilisées pour augmenter la compréhension de la variabilité interne à long terme ... mais devraient être de haute qualité et leur incertitude doit être considérée... Les données paléo-climatiques reflètent la variabilité interne et la réponse aux forçages externes combinées". Mais, le Giec ne s’applique pas cette règle puisqu’il se limite à des données portant sur les seules 150 années récente [7]. L’imprécision des reconstructions antérieures ne peut justifier d’occulter 1000 ans d’histoire.
  • Méthode statistique de la « détection & attribution »
    Le "Guide pratique" recommande le choix de méthodes d’analyse statistique "appropriées, en tenant compte de l'auto-corrélation spatiale et temporelle, des changements d'échantillonnage, des biais de l'observateur et d’une pseudo-réplication potentielle" (§ 3-alinea 5) [8].
    Mais, rien n’est dit sur les méthodes à retenir. Le "Guide pratique" paraît ainsi très sérieux. Mais toutes ces recommandations sont valables pour n’importe quel sondage ou traitement statistiques. C’est indispensable, mais cela ne donne aucune indication sur les méthodes de la science systémique.
    [retour plan]

3- Faute d'identification sérieuse, le GIEC se contente de "probabilités subjectives" !!

C’est pourquoi, faute d’une réelle méthode d’identification du système climatique, le Giec s’est montré impossible de répondre à la question écrite suivante que nous lui avons posée dans un débat : « Selon le communiqué de presse final de la réunion plénière du GIEC à Stockholm en septembre 2013, "la confiance selon laquelle le réchauffement moderne est dû à l’influence humaine à plus de 95%". Cette probabilité est-t-elle issue d’un calcul statistique ? Si oui, peut-on avoir connaissance de la méthodologie retenue pour faire ce calcul (auteur du chiffrage? Date ? Lien internet ?) ».
On ne peut accepter la réponse faite à cette question par François-Marie Bréon et Valérie Masson Delmotte : "La probabilité n'est pas issue d'un calcul statistique. Elle exprime ce qu'on entend par "très probablement". La probabilité donnée indique que les auteurs estiment que, sur 100 affirmations de ce type, plus de 95% sont vraies. C'est une évaluation subjective basée sur un faisceau d'indices"[9] On aurait pourtant pu imaginer que les probabilités du Giec avaient été établies à partir de calculs scientifiques, de "tests de présomptions sous contraintes" et des "tests de rejet " pour valider des fourchettes de confiance. Hélas non! Ils en restent à des "faisceau d'indices"!
Cette réponse n'est pas une erreur. Le rapport du Giec explique très clairement pourquoi il faut en arriver à cet artifice. Il reconnait que "les probabilités objectives et subjectives ne sont pas toujours distinguées". Certes, dit le rapport, la "science objective" est une "vue populaire", comme si elle n'était pas une nécessité scientifique! Comment s'étonner, alors, que le Giec  en soit réduit à en appeler à des "probabilités subjectives" et des "degrés de croyance", ce qui justifie qu'on puisse qualifier de "climato-crédules" les adeptes du Giec : "Ces niveaux de confiance ne sont pas des statistiques fréquentistes mais "probabilités subjectives» qui représentent des degrés de croyance qui sont basés sur une combinaison de sous-composantes objectives et subjectives de l'ensemble du système... La probabilité d'un événement est le degré de croyance qui existe parmi les auteurs principaux et les réviseurs que l'événement va se produire, compte tenu des observations, des résultats de la modélisation et la théorie actuellement disponibles, qui toutes contribuent à une estimation de probabilité "avant" de l'occurrence d'un résultat". [9bis]:

Comment faire confiance à un "guide pratique", établi par Gabriele Hegerl, qui explique par ailleurs que, "même pour des scientifiques, le rôle des observations, de la perception physique et des modèles climatiques dans l’estimation de la contribution humaine au récent changement climatique n’est pas toujours clair[10]. Ce manque de clarté susciterait-il des inquiétudes ? Bien au contraire! Le GIEC ajoute : "L’attribution n’exige ni n’implique que chaque aspect de la réponse au facteur causal en question soit correctement simulé.... Les incertitudes de modèle... ont peu de poids sur l’estimation de la contribution des gaz à effet de serre au réchauffement récent" [11].  On peut donc être rassuré : les modèles du Giec peuvent être discutables, cela n’empêchera pas l’attribution anthropique d’être valide.
[retour plan]

4- Des "probabilités subjectives" au service des "catastrophistes éclairés" !!

La citation précédente est d'autant plus intéressante qu'elle fonde le concept de "probabilités subjectives" sur les travaux de 1997 de Stephen H. Schneider (1945-2010), figure marquante du GIEC, fondateur et éditeur du prestigieux journal Climatic Change, auteur ou co-auteur de plus de 450 publications scientifiques, rédacteur coordinateur du troisième rapport du groupe II du GIEC, rédacteur de recommandations aux auteurs des rapports du GIEC.
Il faut l'écouter pour y croire !!!

"D’un côté, en tant que scientifiques nous sommes tenus à la méthode scientifique, promettant en effet de dire la vérité, toute la vérité, rien que la vérité – ce qui signifie que nous devons inclure tous les doutes, les caveat, les si, les et, les mais. D’un autre côté, nous ne sommes pas juste des scientifiques, mais aussi bien des hommes . Et comme la plupart des gens, nous aimerions voir un monde meilleur, ce qui implique ici que nous travaillions à réduire les risques d'un changement climatique potentiellement catastrophique. Pour cela, nous avons besoin de soutiens importants afin de frapper l’imagination du public. Cela suppose, bien sûr, d’obtenir un maximum de couverture médiatique. Pour cela, nous devons proposer des scénarios effrayants, faire des déclarations simplifiées et dramatiques et éviter de mentionner le moindre doute que nous pourrions avoir. Cette « double contrainte éthique », nous nous sommes parfois trouvé ne pas pouvoir la résoudre par quelque formule. Chacun de nous doit décider quel est le juste équilibre entre être efficace et être honnête . J’espère que cela veut dire être les deux."

Le GIEC ne s’est jamais désolidarisé de ces propos stupéfiants, où l’impudence le dispute à l’arrogance et à l’hypocrisie , pas plus que des suivants, émanant de personnalités de premier plan : "Si nous voulons une bonne politique environnementale dans le futur, il nous faudra avoir une catastrophe" (Sir John Houghton, cofondateur du GIEC, avec Bert Bolin et Maurice Srong).

Faire un peu peur et mentir un petit peu, voilà la devise des "catastrophistes éclairés" si bien décrit par Jean-Pierre Dupuy : le catastrophisme éclairé vise à "obtenir une image de l'avenir suffisamment catastrophiste pour être repoussante et suffisamment crédible pour déclencher les actions qui empêcheraient sa réalisation" !
[retour plan]

5 - Conclusion

Le "Guide des bonnes pratiques  de détection et attribution liés au changement anthropogénique du climat" établi par le Giec fait donc illusion. Il propose une méthode de circonstance mise au point pour les seuls besoins de la cause anthropique de la période chaude contemporaine.
Contrairement à la méthode d’identification, il ne donne aucune précision sur les méthodologies retenues, sur la manière d’estimer les états du système climatique à partir de mesures incomplètes ou bruitées. (utilisation éventuelle de filtres de Kalman), sur les test d’hypothèses utilisés pour valider des hypothèses extrêmes, sur les tests de projections rétroactives pour vérifier que telle situation réalisée était prévisible avec les modèles utilisés.
Il y aurait urgence à ce que les auteurs de ce "Guide pratique" fassent valider leur publication par des pairs issus du rang des milliers de spécialistes de l’IFAC (International Federation of Automatic Control). Pourquoi ne pas en publier les résultats dans un des meilleurs journaux internationaux en contrôle des systèmes publiés et relus par des membres de l’IFAC ? Pourquoi ne pas demander à l’auteur du "Guide pratique", Gabriele Hegerl, de se confronter aux spécialistes de la théorie des systèmes lors d’un des Congrès mondiaux de l’IFAC ?
En attendant, le CNRS et son GdR MACS (Groupe de Recherche - Modélisation, Analyse et Conduite des Systèmes dynamiques) pourrait se pencher avec intérêt sur ce sujet.
La conclusion est claire : l’argument consistant à dire que les climato-sceptiques sont une poignée face à des milliers de chercheurs du Giec unanime ne tient pas. A l’évidence, c'est l'inverse: ce sont des milliers de climato-crédules qui font confiance à une poignée d’illusionnistes qui se prétendent spécialistes de "détection et attribution" sans oser se confronter aux milliers de spécialistes de la "théorie des systèmes".
[retour plan]


[1] CNRS, Groupe de Travail Identification : http://gtident.cran.uhp-nancy.fr/ [retour article]

[2] « Note et Guide des bonnes pratiques  de détection et attribution liés au changement anthropogénique du climat ».
L’équipe principale de rédaction est constituée de sept personnes : Gabriele C. Hegerl (United Kingdom), Ove Hoegh-Guldberg (Australia), Gino Casassa (Chile), Martin Hoerling (USA), Sari Kovats (United Kingdom), Camille Parmesan (USA), David Pierce (USA), Peter Stott (United Kingdom)
Ce guide d'orientation de bonnes pratiques est le document agréé par a réunion d'experts du GIEC sur la Détection et attribution liés au changement anthropogénique du climat et fait partie du rapport de la réunion. Cette réunion de l’Organisation Mondiale de Météorologie réunie à Genève le 14-16 septembre 2009 a été prévue  préalablement dans le cadre du plan de travail du GIEC, mais cela ne signifie pas que  le groupe de travail ou le panel ait agréé ou approuvé la procédure ou les recommandations et conclusions contenues dans ce document. Le matériel d'appui a été préparé pour examen par le GIEC. Ce document n'a pas été soumis à des procédures formelles d'examen du GIEC.
[retour article]

Résumé exécutif

La détection fiable et l’attribution des changements climatiques et de leurs effets, est fondamentale pour notre compréhension de la base scientifique du changement climatique et pour permettre aux décideurs de gérer les risques liés au climat. Ce document résume les discussions et les conclusions de la réunion conjointe d'experts du Groupe de travail I et du Groupe de travail II du GIEC (GIEC GTI / GTII) sur "Détection et attribution connexes au changement climatique anthropogénique», qui a eu lieu à Genève, Suisse les 14-16 Septembre 2009. Il vise à clarifier les méthodes, les définitions et la terminologie à travers les deux groupes de travail et est conçu comme un guide pour les futurs auteurs principaux du GIEC. Ce document présente également des lignes directrices sur la façon d'évaluer la qualité relative des études et fournit des recommandations de bonne pratique dans les études de détection et d'attribution. À cet égard, il présente les critères pour évaluer la confiance, définit les exigences de données et traite des méthodes de traitement des facteurs de confusion.

1. Définitions

Ce document utilise les termes de forçage externe et de facteurs extérieurs en un sens spécifique. Le forçage externe fait référence à un facteur extérieur forçant le système climatique, ce qui provoque un changement dans le système climatique. Les éruptions volcaniques, les variations solaires, des changements anthropiques dans la composition atmosphérique et de l'utilisation des terres sont des exemples de forçages externes qui peuvent affecter les systèmes climatiques et non climatiques. Dans la communauté GTII, un forçage fait souvent référence à un ensemble plus large d'influences dans les études d'impact qui sont externes au système à l'étude et qui peut ou peut ne pas inclure le climat. Toutefois, pour éviter les définitions circulaires au sein du GTI, le terme de forçage externe, dans le présent document, est limité à la définition ci-dessus dans le glossaire du Rapport de Synthèse du Quatrième rapport d'évaluation du GIEC (AR4). Nous utilisons le terme de facteur externe comme un terme générique pour désigner tout facteur de forçage externe en dehors du système étudié qui provoque un changement dans le système. Les changements climatiques peuvent ainsi agir comme des facteurs externes sur d'autres systèmes (par exemple, la réduction de la glace de mer pourrait agir comme un facteur externe sur les populations d'ours polaires).

Un facteur de confusion est celui qui affecte une variable ou un système étudié, mais sans être explicitement pris en compte dans la conception de l'étude. Cette définition peut être plus étroite que la terminologie utilisée dans certaines études d'impact, mais est utilisée ici pour distinguer les facteurs confondants de facteurs externes. Les facteurs de confusion pourraient donc conduire à des conclusions erronées sur les relations de cause à effet. Des exemples de facteurs de confusion sont présentés à la section 4.2.

La discussion sur les définitions des termes fondamentaux détection et attribution a entraîné des modifications mineures aux définitions utilisées dans RE4 pour s’assurer que ces termes peuvent être utilisés dans les deux groupes de travail. La détection d’un changement est définie comme un processus de démonstration que le climat, ou un système affecté par le climat, a changé dans un sens statistiquement défini, sans fournir une raison pour ce changement. Un changement identifié est détecté dans les observations si sa probabilité d'occurrence par le hasard dû à la seule variabilité interne est constaté comme faible, par exemple  < à 10%. L’attribution est définie comme le processus d'évaluation de la contribution relative des multiples facteurs de causalité à un changement ou un événement avec une détermination d’intervalles de confiance. Le processus d'attribution nécessite la détection d'un changement dans les variables observées ou étroitement associées. Ce dernier cas est décrit à la section 2, méthode II.

2. Méthodes

Pour assurer une évaluation rigoureuse et cohérente des résultats d'attribution dans le GTI et le GTII du cinquième rapport d'évaluation du GIEC (AR5), il est nécessaire de clarifier les différentes approches de l'attribution des changements observés à des causes spécifiques qui ont été suivies dans une série d'études . Il est également nécessaire que le GTI et le GTII soient cohérents dans leur utilisation de « termes d'incertitude » et dans leur évaluation des niveaux de confiance.

L’attribution cherche à déterminer si un ensemble spécifié de forçages et ou de facteurs externes sont la cause d'un changement observé dans un système spécifique. Par exemple, l'augmentation des concentrations de gaz à effet de serre peuvent être un forçage  pour un changement observé dans le système climatique. À son tour, le changement climatique peut être un facteur externe sur les rendements agricoles ou sur la masse des glaciers.

Ce qui suit est une liste d'approches d'attribution que l'on trouve dans la littérature. Cette liste ne se veut pas exhaustive, mais veut plutôt relier les principales approches de la littérature à une terminologie spécifique. L'objectif est de permettre à la clarté et la cohérence entre les deux groupes de travail lors de l'évaluation des résultats d'attribution. Toutes les méthodes supposent que les définitions de détection et attribution sont telles que décrites ci-dessus. Il est également important de noter que la méthode finale (Méthode IV, Attribution à un changement des conditions climatiques) est distincte des autres méthodes en ce qu'elle traite du lien entre les impacts et le climat en tant que facteurs, par opposition aux trois premières méthodes qui traitent de l’attribution des impacts du changement climatique ou des forçages externes, y compris l’augmentation des gaz à effet de serre.

Des encadrés  donnent des exemples où une méthode a été appliquée à un problème particulier. Le même problème peut avoir été traité par une autre méthode, et les frontières entre les méthodes ne sont pas nécessairement toujours claires.

a) Attribution en une étape aux forçages externes

Cette méthode comporte des évaluations qui attribuent un changement observé dans un système à un forçage externe basé sur la modélisation explicite la réponse de la variable à des forçages et des facteurs externes. La modélisation peut impliquer un modèle global unique ou une séquence de modèles. L'étape d'attribution implique la détection d'un changement significatif dans la variable étudiée et la comparaison des changements observés dans la variable étudiée avec les changements prévus en raison de forçages et de facteurs externes (généralement issus de méthodes de modélisation). [Encadré 2.1]

[Encadré 2.1]: Exemple d’attribution en une étape: contribution anthropique à la zone brûlée par les feux de forêt au Canada.
Gillett et al. (2004) ont appliqué une analyse de détection de la zone brûlée par les feux de forêt au Canada. Les auteurs ont calculé le coefficient de régression entre les variations interannuelles de la superficie brûlée et la température régionale pendant la saison des incendies. Ils ont ensuite utilisé cette relation pour estimer les variations de forçage d'origine anthropique sur 5 ans de la superficie totale brûlée au cours du 20ème siècle en simulant  l'extension sur 5 ans des feux  et des températures de saison à partir d'un ensemble de simulations des modèles climatiques avec forçage anthropique aux changements observés. La variabilité interne dans 5 ans la superficie totale brûlée a été estimée à partir de la variabilité interannuelle observée dans la zone brûlée. Ces estimations de forçage des changements anthropiques dans la région brûlés et de la variabilité interne ont été utilisés conjointement avec des variations observées sur 5 ans de  la superficie totale brûlée appliquées à une analyse de détection. L'influence du forçage anthropique sur la zone brûlée par les feux de forêt au Canada a été détectée. Les forçages climatiques naturels ne sont pas explicitement pris en compte dans l'analyse, mais d'autres travaux ont montré qu'il n’y a pas d'importantes tendances de forçage de la température de l'Amérique du Nord au cours du 20e siècle. L'étude est faite en une seule étape, parce que l'évaluation d'attribution est réalisée directement pour la superficie brûlée plutôt qu'en utilisant le climat en tant que facteur dans une évaluation séparée. Des facteurs de confusion et d’incertitudes sur les données ont été traitées de la manière suivante: la principale tendance à la hausse dans la zone brûlée au Canada a eu lieu depuis l'avènement des observations satellitaires, de rapports ainsi des biais sont peu probable d'être responsable de la tendance. La foudre est la source d'inflammation la plus importante pour les incendies de forêt au Canada, ce qui représente ~ 85% de la superficie brûlée, et donc des changements dans allumage humaine sont peu susceptibles de rendre compte de la tendance à la hausse. La suppression des incendies a augmenté au cours de la période d'étude et sur son propre serait attendu à avoir diminué la superficie brûlée.

b) Attribution par étapes successives aux forçages externes

Cette méthode comporte des évaluations qui attribuent un changement observé dans une variable d'intérêt à un changement climatique et / ou de conditions environnementales, ainsi que des évaluations distinctes qui attribuent le changement climatique et / ou des conditions environnementales à des facteurs externes et des forçages externes. Un exemple serait l'attribution multi-étape de la baisse de la calcification marine à l'augmentation du dioxyde de carbone atmosphérique (par exemple, des changements dans la calcification marine sont attribuées à des changements dans la chimie de l'océan, qui est attribué dans une étape distincte à des changements de dioxyde de carbone atmosphérique; voir encadré 2.2 ). Dans le cas de phénomènes climatiques extrêmes et d’événements rares, par exemple, il peut ne pas être toujours possible d'estimer de manière fiable à partir d'observations s’il y a eu un changement dans la fréquence ou l'intensité d'un type d'événement donné.

Néanmoins, il peut toujours être possible de faire l’évaluation d’une attribution par étapes successives d'une variation estimée indirectement à la probabilité d'un tel événement, si il y a un changement détectable dans des conditions climatiques qui sont étroitement liées à la probabilité de l'événement (par exemple , un changement dans la fréquence des canicules rares peut ne pas être détectable, tandis qu'un changement détectable des températures moyennes conduirait à s’attendre à un changement de cette fréquence). Les auteurs doivent indiquer clairement quand une attribution par étape successive a été franchie.

Cette méthode implique une séquence d'analyses, y compris la synthèse d'applications de données et de modèle d'observation. L'évaluation du lien entre le climat et la variable d'intérêt peut impliquer un modèle de processus ou d'un lien statistique, par exemple, ou tout autre outil de réduction d'échelle.

Il est recommandé que les évaluations de composants (ou d’étapes) soient faites explicitement (chacun avec son propre niveau de confiance) et qu'une évaluation globale soit faite du résultat cumulé. L'évaluation globale sera généralement similaire ou plus faible que l'étape la plus faible. [Encadré 2.2]

[Encadré 2.2]: Exemple d’attribution par étapes successives: Impacts de l'augmentation du CO2 atmosphérique sur la construction des récifs de coraux.
Le lien entre la hausse du dioxyde de carbone atmosphérique et la baisse des capacités de calcification des récifs suite à la baisse de pH et des concentrations en ions carbonates sont causés par l'augmentation de la concentration atmosphérique de CO2. Ce lien a un degré élevé de fiabilité étant donné qu'il est basé sur les lois de la physique et la chimie (Kleypas et al., 1999). Cette relation a été vérifiée par des mesures sur le terrain qui confirment les projections fondées sur ces lois fondamentales. Dans la seconde étape, la relation entre la concentration d'ions carbonate et de la calcification des organismes bâtisseurs de récifs tels que les coraux a été établi par une série d'études expérimentales (passées en revue par Kleypas et Langdon, 2006). Cette étape a une plus grande variabilité inhérente à la première étape étant donné qu'elle implique un large éventail d'influences, y compris la constitution génétique et l'histoire de l'environnement. Les deux étapes peuvent être vérifiées à un degré par des mesures sur le terrain avec une précaution que les paramètres de terrain impliquent souvent plus d'un facteur (voir la discussion sur les facteurs de confusion). Par exemple, l'observation récente de Death et al. (2009) d'une baisse de la calcification dans plus de 300 colonies de coraux ayant une longue durée de vie sur la Grande Barrière de corail est la preuve de l'impact de l'acidification des océans, mais est compliqué par le fait que l'impact de la baisse des concentrations d'ions de carbonate a été accompagnée par une augmentation des températures de la mer . Les deux étapes considérées ensemble impliquant nécessairement une plus grande quantité de déconstruction des coraux tropicaux, est un exemple d’attribution par étapes successives à des forçages externes. Dans la première étape, l'incertitude associée à chaque étape est celle qui est considérée isolément. Dans ce cas précis, l'influence relative des facteurs externes (réchauffement et à la baisse des concentrations en ions carbonates) devrait être étudiée pour terminer le processus d'attribution.. Ce cas est un exemple d'évaluation de l'attribution  par étapes successives , effectuée pour l'acidification dans une seconde étape séparée.

c) Attribution à des causes associées de forçages externes

Cette méthode comprend une synthèse d'un grand nombre de résultats (éventuellement sur plusieurs systèmes) mettant en évidence la sensibilité des impacts d'un changement de conditions climatiques et d'autres facteurs externes.
Le lien entre le forçage externe du changement climatique et cet ensemble de résultats sont faits en utilisant des mesures spatiales et temporelles de l'association. [encadré 2.3]

[Encadré 2.3] : Exemple d’attribution à des causes associées: influence anthropique sur les systèmes physiques et biologiques
Dans l’attribution à deux motif associés, la répartition spatiale des impacts observés est comparée avec les tendances climatiques observées en utilisant des comparaisons de mesures statistiques de causes. Par exemple, Rosenzweig et al. (2008) ont fondé leur évaluation sur plus de 29 000 séries de données (à partir d'études d'au moins 20 années de données entre 1970 et 2004) des changements importants dans les systèmes physiques et biologiques en dehors de la plage de variabilité naturelle. Tel qu'évalué par les auteurs des études, ces changements étaient compatibles (ou non) avec les réponses connues à des changements de température régionale et une compréhension fonctionnelle des systèmes (par exemple, la fonte du pergélisol, les changements d’espèces d'animaux vers les pôles et de floraison précoces en réponse au réchauffement) et n’étaient pas non plus susceptibles d'avoir été sensiblement influencés par d'autres facteurs de forçage telles que le changement d'utilisation des terres (par exemple, car ils étaient situés dans les réserves naturelles). Les tendances mondiales et continentales de ces changements ont ensuite été comparées avec les tendances de température observées selon les mêmes échelles. Les données mondiales sur les tendances de la température due à la variabilité interne du système climatique ont été obtenus à partir de longues  simulations de contrôle avec sept modèles de base de données multi-modèle PMRC CMIP3 climatiques différentes au PCMDI, pour représenter la gamme des tendances de température sur  35 ans à travers le monde résultant de facteurs naturels des variations climatiques. Deux différentes mesures comparatives de causes ont été utilisées pour comparer les tendances de la température observées et modélisées avec les effets observés. Parce que le GIEC GTI a conclu que la plupart des hausse des températures moyennes au cours des 50 dernières années sont dues à l'augmentation observée des concentrations de gaz à effet de serre d'origine anthropique à l'échelle mondiale (très probable) et continentales (probable) (GIEC, 2007), l'attribution significative était attribuées lorsque les deux méthodes statistiques spatiales ont rendu des données beaucoup plus fortes entre les effets observés et les changements de température observés que ceux qui se produisent avec des causes de la variabilité naturelle du climat de température, tel qu'estimé par les simulations de contrôle.

d) Attribution à un changement de conditions climatiques (changement climatique)

Cette méthode comporte des évaluations qui attribuent un changement observé d’une variable étudiée à un changement observé dans des conditions climatiques. L'évaluation est basée sur la connaissance des processus et l'importance relative d'un changement dans les conditions climatiques dans la détermination des effets observés. Cette méthode peut être l'étape finale d’une attribution à étapes successives, mais il peut également être utilisé de manière autonome pour lutter contre les effets du climat sur une variable étudiée.

Quelle que soit la méthode utilisée, les auteurs doivent indiquer spécifiquement le facteur de causalité à laquelle un changement particulier est attribué et doivent déterminer si l'attribution en question concerne une réponse à un changement du climat et / ou à des conditions environnementales et / ou à d'autres facteurs externes et forçages . La confiance dans les évaluations sera augmentée lorsque l'attribution quantifiée des changements à un facteur de causalité est robuste et quand il existe une est compréhension solide des processus («de la connaissance des processus) qui sont impliqués dans un lien proposé de causalité (par exemple, le lien entre la température élevée et la baisse les rendements des cultures est renforcée par la compréhension de la physiologie des plantes au stress).

Lorsque des modèles sont utilisés dans l'attribution, la capacité d'un modèle pour représenter correctement le lien de causalité pertinent devra  être évaluée. Cela devra inclure une évaluation de biais des modèles et de la capacité du modèle à saisir les processus et les échelles d'intérêts pertinents. La confiance dans l'attribution sera également influencée par la mesure dans laquelle l'étude considère d'autres forçages externes possibles et les facteurs, facteurs de confusion et aussi des limitations de données d'observation. Lorsque deux études d'attribution sont combinés dans une analyse par étapes successives, une évaluation doit être faite de la mesure dans laquelle les composants séparés de l'analyse sont liés de manière appropriée.

Pour la transparence et la reproductibilité, il est essentiel que toutes les mesures prises dans les approches d'attribution soient documentées. Cela inclut des informations complètes sur les sources de données, les étapes et les méthodes de traitement des données, et les sources et le traitement des résultats du modèle.

 

3. Données et autres contraintes

Lors de l'examen des études d'attribution et de détermination d'une évaluation de la probabilité utilisée pour décrire les résultats, la disponibilité des données et la qualité sont une considération importante. Les conditions suivantes doivent être remplies dans la mesure du possible.

♦ Biais et lacunes dans les données et les lacunes: les données doivent être soigneusement évaluées quant aux biais. Les biais systématiques sont particulièrement problématiques, comme la non-homogénéité des données, qui doivent être corrigées dans la mesure du possible. Un exemple d'une inhomogénéité est celle impliquant les écarts systématiques dans la surface de la mer sur la base des mesures de température de navire introduites par l'utilisation d'admission du moteur par rapport à des mesures antérieures de godet. Il est également utile, si les distorsions aléatoires, telles que les inégalités dans la qualité des données, d’estimer si l'influence potentielle qu'elles peuvent avoir sur les résultats. Le manque de données devraient être évalué et traité de façon appropriée. Cela peut inclure de combler les lacunes de données en utilisant d'autres données d'observation, ou l'adaptation des méthodes d'attribution de travailler avec la couverture de données d'observation existantes (par exemple, en limitant l'analyse des données de modèle à la couverture d'observation). Idéalement, les ensembles de données d'observation devraient inclure l’estimation des incertitudes restantes, telles que les erreurs aléatoires d'échantillonnage, de biais systématiques et des incertitudes dans la correction de biais. Les niveaux de confiance estimés pour un résultat d'attribution finale devraient refléter la qualité des données sous-jacente et potentiels restants biais de données. Dans les régions pauvres en données, il peut être utile d'assouplir ces critères, bien que cela va entraîner une diminution de la confiance dans les résultats.

Pour éviter les
biais de sélection dans les études, il est essentiel que les données ne soient pas présélectionnées sur la base de réponses observées, mais plutôt choisies pour représenter les régions / phénomènes / délais dans lesquels les réponses sont attendues, sur la base de processus de compréhension. Les critères de sélection doivent être clairement indiqués.

L'échelle spatiale et la résolution temporelle ou la couverture des données
(par exemple, la saison) devront être adaptés à la variable d'intérêt. Pour les études de détection et d'attribution, la détermination des sensibilités de modèles d'impact à différentes échelles spatiales aidera dans le choix des échelles à laquelle le modèle des impacts peut être conduit et au cours duquel la conduite du modèle climatique est effectuée adéquatement. Des outils de réduction d'échelle (dynamiques et statistiques) peuvent aider à combler la différence dans les échelles entre les variables climatiques représentés dans les modèles climatiques et celles requises pour la variable d'intérêt. 

Les estimations de la variabilité interne générée au sein du système climatique ou les impacts du système climatique sont nécessaires pour établir si les changements observés sont détectables. Il est idéal si l'enregistrement d'observations est d'une durée suffisante pour estimer la variabilité interne du système qui est considéré (à noter, toutefois, que dans la plupart des cas observations contiendra à la fois une réponse au forçage / drivers et variabilité). D'autres estimations de la variabilité interne peuvent être produites à partir de longues simulations de contrôle avec les modèles climatiques, peuvent-être passées par un modèle supplémentaire (par exemple, la réduction d'échelle) pour arriver à la variable d'intérêt. Les jugements d'experts techniques ou multi-modèles peuvent être utilisés pour intégrer autant que possible la gamme de variabilité dans les modèles climatiques et attribuer des niveaux d'incertitude, la confiance dans lequel devront être évalués. Des informations Paléo-climatiques peuvent être utilisées pour augmenter la compréhension de la variabilité interne à long terme dans les deux études sur le climat et de l'impact, mais devraient être de haute qualité et leur incertitude doit être considérée. Notez également que les données paléo-climatiques reflètent la variabilité interne et la réponse aux forçages externes combinées (celles-ci sont souvent, mais pas exclusivement, les forçages naturels).

Les méthodes d'analyse statistiques doivent être choisies de manière appropriée, en tenant compte de l'auto-corrélation spatiale et temporelle, des changements d'échantillonnage, des biais de l'observateur et d’une pseudo-réplication potentielle (par exemple, des clones dérivés d'un génotype ne sont pas de véritables répliques d'une espèce).

Lorsque les outils
de réduction d'échelle sont utilisés, une évaluation séparée est nécessaire de la performance de ces outils à des échelles spatiales et temporelles qui sont compatibles avec celles de la détection ou de l'étude d'attribution, en utilisant des ensembles de données d'observation indépendants.

 

4. Manipulation des forçages externes, des pilotes et des facteurs de confusion

Un changement dans la plupart des variables d'intérêt a des causes multiples, que ce soit dans le système climatique lui-même ou en aval des systèmes naturels ou humains. Par conséquent, l'attribution à un forçage externe d'intérêt doit tenir compte des autres forçages et des pilotes qui affectent la variable d'intérêt. Les effets des forçages externes et des pilotes peuvent être masqués ou déformés par la présence de facteurs de confusion ou facteurs. Un jugement d'expert fondé sur une compréhension aussi complète que possible des données, des processus de réponse et les facteurs de confusion potentiels et leurs effets possibles devraient être utilisés pour évaluer avec soin la probabilité que les résultats de détection et d'attribution soient sensiblement affectés par des facteurs de confusion.

 

4.1- Forçages externes et facteurs

Lorsque les pilotes externes sont explicitement inclus dans les études de détection et d'attribution, leur influence sur un changement observé peut être estimé. Il y a, par exemple, les études où la contribution relative de l'effet de serre et d'autres origines anthropiques ainsi que le forçage naturel (solaire et volcanique, combinée ou séparée) sont considérés. Des forçages externes peuvent également avoir un impact d'un système sans être modifié par le climat, par exemple, dans le cas des effets physiologiques directs du CO2 sur la végétation. Des facteurs non climatiques peuvent avoir une influence significative sur de nombreux systèmes naturels ou humains. Par exemple, l'impact des épisodes de blanchissement des masses de coraux peut être affectée par la présence ou l'absence de facteurs non climatiques tels que la pression de la pêche et de la pollution. Dans la mesure où la réponse au forçage des  gaz à effet de serre peut être séparé des réponses à d'autres forçages externes et des pilotes, le changement attribuable au forçage des gaz à effet de serre peut être évalué en plus et utilisé pour produire des projections probabilistes de changements futurs.

4.2- Facteurs de confusion

Des facteurs de confusion peuvent conduire à de fausses conclusions au sein des études d'attribution s’ils ne sont  pas correctement considérés ou contrôlés. Des exemples de facteurs de confusion possibles pour les études d'attribution comprennent des biais et des erreurs dans les relevés instrumentaux envahissants, des  erreurs et incertitudes de  modèles; des forçages impropres ou une disparition de représentation dans les modèles climatiques et des impacts; des différences structurelles dans les techniques méthodologiques; Une variabilité interne incertains ou portée disparue; et des interactions non linéaires entre les forçages et les réponses. Les facteurs spécifiques qui peuvent affecter directement les systèmes comprennent l'ozone troposphérique affectant la santé et de l'agriculture; les aérosols affectant la santé et la photosynthèse; les effets physiologiques directs de CO2 sur la végétation; et les changements d'utilisation des terres / couverture du sol qui pourraient compliquer l'attribution d'un changement au forçage (sauf s’ils sont inclus comme forçage); Les questions et recommandations suivantes doivent être considérées par les auteurs à l'égard de facteurs de confusion:

Les facteurs de confusion (ou influences) doivent être explicitement identifiées et si possible évaluées. Ces influences, lorsqu’elles est laissées sans examen, pourraient saper les conclusions de l'étude du climat et de l'impact, en particulier pour les facteurs qui peuvent avoir une grande influence sur le résultat

Les facteurs de confusion doivent être pris en compte de manière aussi approfondie que possible, y compris les approches fondées sur des hypothèses, la modélisation basée sur les processus, les moyens statistiques et les jugements d'experts. Avec une évaluation à base statistique, éviter un sur-ajustement est essentiel (par exemple, en utilisant des sections indépendantes de données à installer et puis traverser valider un modèle). Les études devraient indiquer explicitement comment elles ont manipulé ces influences.

Une étude de forçages ou de facteurs externes peut être facteur de confusion d'une autre étude, en fonction de la conception et des objectifs de l'étude, du niveau de compréhension scientifique et de la disponibilité des données. Par exemple, l'augmentation de CO2 est considérée comme un facteur contraignant dans certaines études sur les changements de l'écosystème, alors que dans d'autres études de l'écosystème ont porté sur la réponse aux changements de température ; ce peut être un facteur de confusion.
[retour article]

[3] Stephen H. Schneider (1945-2010),  figure marquante du GIEC, fondateur et éditeur du prestigieux journal  Climatic Change, auteur ou co-auteur de plus de 450 publications scientifiques, rédacteur coordinateur du troisième rapport du groupe II du GIEC, rédacteur de recommandations aux auteurs des rapports du GIEC.
[retour article]

[4] « Dans le cas présent, il s’avère que les conditions sous lesquelles l’OE serait statistiquement optimale ne sont pas satisfaites : le résidu de sortie devrait être un bruit blanc, et il en est loin (figure 7.6). En tel cas, la quête d’optimalité incite à complexifier le modèle et à identifier conjointement des paramètres statistiques relatifs aux bruits. Malheureusement les résultats – pas toujours convaincants – dépendent du type de modèle adopté (ARX, ARMAX, etc.) et il n’existe pas de procédure de validation vraiment satisfaisante. En dernier ressort, l’examen visuel de l’erreur de sortie reste souvent le critère décisif. A l’expérience, nous en restons à l’OE, qui a le mérite de limiter l’arbitraire à la sélection de la structure du modèle proprement dit, sans y ajouter celle d’un modèle de bruit » (source : Philippe de Larminat, Changement climatique- Identification et projections, § 6.2).
[retour article]

[5] Chapitre 6.4.2.1, page 7. [retour article]

[6] source : François-Marie Bréon, débat avec le professeur Philippe de Larminat, mars 2015 [retour article]

[7] Source :  IPCC -WG1-AR5 - Chap 10 - Fig. 10.1- p. 107 [retour article]

[8] La « détection attribution » n’est pas la seule technique utilisée uniquement par le Giec, sans confrontation avec la communauté des théoriciens des systèmes. Il en est une autre appelée « optimal fingerprinting technique »  C’est une technique très utilisée en « détection attribution » par le Giec. On peut tenter de la traduire par l’expression  « L’analyse optimale d’empreintes », si on  entend bien par  « empreinte » la réponse Xi d’une variable simulée par un modèle prédéfini à la variation d’une cause potentielle ui.
« L’analyse optimale d’empreintes » est une régression généralisée à de  multiples variables qui a été adapté pour la détection des changements climatiques et l'attribution des changements à des signaux de forçage externes  au changement climatique (Hasselmann 1979 1997; Allen et Tett 1999) .... Il existe des variations considérables dans les détails de la mise en œuvre de « L’analyse optimale d’empreintes », et dans la façon dont les données sont traitées avant son application. Toutefois, des recherches récentes ont montré que les différentes approches de « détection et attribution » donne des résultats cohérents. Des aspects d'ordre méthodologique qui ont été étudiés comprennent l'utilisation d'étapes contre la régression multiple (Hegerl et Allen, 2002), diverses méthodes de données de traitement (Gillett et al., 2002a) et l'utilisation de signaux et les estimations de bruit construit à partir de plusieurs modèles (Gillett et al ., 2002b). Cette démonstration de la cohérence et de la robustesse des résultats augmente notre confiance dans la détection du changement climatique d'origine anthropique. (Source : an optimal fingerprinting study that uses climate change signals estimated from an array of climate models produced results that are broadly consistent with the TAR (Allen et al. 2004).)
La bibliographie montre que cette technique n’ est utilisée que sur des données mesurant des  effets détectés en vue de les attribuer au changement climatique. Il ne s’agit donc pas d’une technique permettant d’attribuer  des variations de températures pour les affecter à une variation des gaz à effet de serre pour expliquer les causes dudit changement climatique.
Citons quelques éléments de bibliographie :
- en matière d’élévation du niveau des océans
"Cependant, ce procédé peut être sensible au bruit dans les séries chronologiques au détriment des changements à long terme. Nous utilisons donc une technique d’ "analyse optimale d’empreintes"  » (Source : [Allen et Tett, 1999] )
- En matière de précipitations extrêmes
"Des augmentations anthropiques de Gaz à effet de serre ont contribué à l'intensification observée des épisodes de fortes précipitations trouvé sur environ les deux tiers des parties de données couvertes de zones terrestres de l'hémisphère Nord. Ces résultats sont basés sur une comparaison des changements observés et multi-modèle simulé dans les précipitations extrêmes au cours de la seconde moitié du XXe siècle analysés avec une d’ " analyse optimale d’empreintes" ».  (Source : [Gabriele Hegerl - Revue Nature - «contribution humaine au-Plus intenses précipitations extrêmes])
- En matière de fonte des calottes de polaires
« En comparant les changements observés et les modèles à multiples variables simulés sur les étendues de glace dans la mer Arctique pendant 1953-2006 et  en utilisant une "analyse optimale d’empreintes", nous constatons que le signal anthropique est apparue au début des années 1990, ce qui indique que l'influence humaine aurait pu être détecté avant même la récente baisse spectaculaire de la mer de glace» (Source )
- En matière de débit d’écoulements fluviaux
« L’utilisation d’une  "analyse optimale d’empreintes"   standard pour voir quels sont les facteurs susceptibles d'être à entraîner les changements à long terme dans les eaux de ruissellement continental en comparant les anomalies annuelles modélisées et observées par rapport à la moyenne à long terme ...» (Source :  Detection of a direct carbon dioxide effect in continental river runoff records N. Gedney, P. M. Cox, R. A. Betts, O. Boucher, C. Huntingford & P. A. Stott. Slide 6 )
Conclusion :
Autrement dit,  la méthode de  « détection attribution », comme celle de  « l’analyse optimale d’empreintes » (optimal fingerprinting technique ) sont des méthodes uniquement utilisées par  la science climatique en dehors de toute confrontation avec les théoriciens des systèmes.  Elle est ainsi définie par les intéressés :
Avec cette méthode, des calculs de régression sont appliquées sur  les tendances observées et sur les  réponses de plusieurs modèles de simulation au forçage externes (optimal fingerprinting technique ). Les  meilleures estimations et les plages d'incertitude des coefficients de régression (ou facteurs d'échelle) qui en résultent sont analysés pour déterminer si les empreintes sont présentes dans les observations. Pour la détection, les facteurs d'échelle estimés devraient être positifs et les intervalles d'incertitude devraient exclure zéro. Si les degrés d'incertitude incluent  également l’unité, les tendances  du modèle sont jugées cohérentes avec les observations.
En d'autres termes, la méthode "optimal fingerprinting technique  "se penche sur les deux distributions : celles des données observées  et celles du modèle d'observation et voit dans quelle mesure les distributions se chevauchent.  (source)
En fait, il ne s’agit que d’une simple  optimisation statistique triviale dite « Best Linear Unbiased  Estimate »  (BLUE) permet de pondérer les différentes empreintes pour obtenir leurs contributions respectives, et déterminer celles auxquelles on peut attribuer effectivement une relation de cause à effet. En bref :
Simulations → empreintes régressions attribution 
[retour article]

[9] mail du Giec du 13 décembre 2014 [retour article]

[9bis] Source exacte: "Les probabilités «objectives» et «subjectives» ne sont pas toujours explicitement distinguées. 
Certains scientifiques ont exprimé la crainte que la recherche scientifique nécessite une longue séquence d'enregistrements d'observation, d'essais reproductibles, ou de modélisation (par exemple, les simulations de Monte Carlo) pour que les résultats puissent être spécifiés par une caractérisation statistique formelle de la distribution de fréquence et la fréquence des résultats en cours d'évaluation. En termes statistiques, une science "objective" signifie tenter de vérifier toute hypothèse à travers une série d'expériences et d'enregistrement de la fréquence avec laquelle ce résultat particulier se produit. L'idée d'un ensemble illimité d'essais identiques et indépendants qui est «objectivement inaccessible" est un dispositif heuristique que nous utilisons pour nous aider rigoureusement à quantifier l'incertitude en utilisant des statistiques fréquentistes. Bien qu'il puisse y avoir un grand nombre d'essais, dans certains cas, cependant, ce ne sont pas les mêmes qu'un nombre «infini», et ces essais sont rarement identiques ou vraiment indépendant.
La plupart des systèmes complexes intéressants ne peuvent éventuellement être mis à toutes les épreuves imaginables pour trouver la fréquence d'occurrence d'un événement social ou environnemental saillant. La vue philosophique populaire de «science objective» comme une série de «falsifications» se décompose quand il confronte les systèmes qui ne peuvent pas être entièrement testés. Par exemple, parce que les prévisions du changement climatique ne sont pas empiriquement déterminable (sauf par "réalisation de l'expérience" sur terre réelle, Schneider- 1997), les scientifiques doivent se fier à des expériences «de substitution», telles que des simulations informatiques de la Terre subit des éruptions volcaniques ou paléo-climatique changements. À la suite de ces expériences de substitution et de nombreux tests supplémentaires de la fiabilité des sous-composantes de ces modèles, les scientifiques font confiance à des degrés divers à propos de la probabilité de divers résultats (par exemple, ils pourraient affecter avec une grande confiance une faible probabilité de la survenance d'un climat extrême résultats comme un "emballement de l'effet de serre"). Ces niveaux de confiance ne sont pas des statistiques fréquentistes mais "probabilités subjectives» qui représentent des degrés de croyance qui sont basés sur une combinaison de sous-composantes objectives et subjectives de l'ensemble du système. Parce que la caractérisation subjective de la probabilité de nombreux événements, surtout climatiques potentiellement importants ceux qui pourraient être caractérisés par certaines personnes comme «dangereux», est inévitable, une caractérisation de probabilités "bayésiennes" ou "subjectives" sera plus approprié.
Des évaluations bayésiennes des distributions de probabilité conduiraient à l'interprétation suivante de déclarations de probabilité: La probabilité d'un événement est le degré de croyance qui existe parmi les auteurs principaux et les réviseurs que l'événement va se produire, compte tenu des observations, des résultats de la modélisation et la théorie actuellement disponibles, qui toutes contribuent à une estimation de probabilité "avant" de l'occurrence d'un résultat. Comme de nouvelles données ou de théories deviennent disponibles, des estimations révisées de la probabilité subjective de la survenance de cet événement-soi-disant «probabilité a posteriori" -peut être faite, peut-être via le formalisme de théorème de Bayes (voir, par exemple, Edwards, 1992, une base philosophique de méthodes bayésiennes; pour les applications de méthodes de Bayes, voir, par exemple, Howard et al, 1972;. Anderson, 1998; Tol et de Vos, 1998; Malakoff, 1999) (rapport AR5 GT2, § 2.6.2) [retour article]

[10] "However, even to scientists, the role of observations, physical insight, and climate models in estimates of the human contribution to recent climate change is not always clear. For example, some of the discussions of Figure 2  (which is from Refs 2 and 3) and Ref 4 fail to recognize that uncertainties in climate model sensivity of the amplitude of aerosol forcing have little bearing on estimates of the contribution by greenhouse gases to recent warming" (source: Hegerl, G., & al. (2011)."Use of models in detection and attribution of climate change". Wiley Interdisciplinary Reviews: Climate Change, 2(4), Introduction, page 570) [retour article]

[11] "Attribution does not require, and nor does it imply, that every aspect of the response to the causal factor in question is simulated correctly". (Chapitre 10 § 10.2.1. "the contexte of detection and attribution" p 10/9) [retour article]