Le Giec a adopté, très officiellement[1], un vocabulaire relatif à la vraisemblance d’un événement ou d’un résultat et à la confiance exprimée dans une conclusion. Quand on lit une allégation, il importe de s’y référer pour apprécier le degré de son fondement scientifique.
Les termes suivants ont été utilisés pour indiquer la vraisemblance d’un événement ou d’un résultat : Pratiquement certain> 99% de probabilité, Extrêmement probable> 95%, Très probable> 90%, Probable> 66%, Plus probable que non> 50%, Très peu probable< 10%, Extrêmement peu probable< 5%.
Les termes suivants ont été utilisés pour exprimer la confiance dans une conclusion: Très grande confiance : au moins 9 chances sur 10 d’être exacte,  Grande confiance : 8 chances sur 10,  Confiance moyenne : 5 chances sur 10, Faible confiance : 2 chances sur 10,  Très faible confiance : moins d’une chance sur 10.

Cette sémantique parait rigoureuse, mais le Giec a reconnu que dans ses allégations, « la probabilité n'est pas issue d'un calcul statistique. Elle exprime ce qu’on entend par "très probablement". La probabilité donnée indique que les auteurs estiment que, sur 100 affirmations de ce type, plus de 95% sont vraies. C'est une évaluation subjective basée sur un faisceau d'indices » [2].
Qu’est-ce donc qu’une probabilité subjective ?

Commentaire "les2ailes.com"

Nous ne reviendrons pas un article antérieur expliquant sur la différence entre

  • Les probabilités fréquentistes et
  • Les probabilités subjectives et bayésiennes 

Nous ajouterons que le calcul des probabilités est indépendant de ses applications, au même titre que la multiplication ou l’addition sont des lois de composition internes dans des groupes (au sens de la théorie des groupes). Elles existent indépendamment de la nature des facteurs des opérations.
Le problème est que, dès les premiers exercices d’application du calcul des probabilités, on nous propose des probabilités comme des évidences, au même titre qu’un professeur de physique nous parlerait de la masse d’un corps soumis à une force. Comme si le concept de masse était une notion première !
Mais quand on dit que, au jet d’un dé, la probabilité de sortir le 1 est de 1/6, comment cette probabilité est elle obtenue?

  • A partir de la notion d’équiprobabilité (circulaire)  ?
  • Comme le rapport du nombre de succès sur un nombre à la limite infini d’essai  (fréquentiste) ?
  • Comme une mesure de confiance a priori (bayésienne) ?

Peu importe : le calcul des probabilités permet d’en déduire la probabilité de sortir le double 6 au jet de deux dés. Elle permet encore de déduire la probabilité de voir sortir 50 fois le double 6 sur 1000 essai et d’en déduire la probabilité que les dés soient pipés.

Sous prétexte d’impossibilité de réaliser plusieurs fois l’expérience d’un "réchauffement climatique” dans les mêmes circonstances, le GIEC rejette l’approche fréquentiste.
Quels sont les degrés de scientificité d’une telle position ?

Le philosophe des sciences, Karl Popper (1902-1994), estimait qu’une démarche scientifique devait comporter quatre étapes 

  • l'évaluation de la cohérence du système théorique
  • la mise en évidence de la forme logique de la théorie
  • la comparaison à d'autres théories
  • les tests empiriques.

Quand on lit le chapitre du Giec intitulé « les probabilités "Objectives" et "Subjectives" ne sont pas toujours explicitement distinguées » (Giec AR5 GT2, § 2.6.2), on sent un discours polémique : « La vision philosophique populaire de la "science objective" en tant que série de "falsifications" s'effondre… » [3]. Le souci d’une scientificité des démarches est ramené au vague désir d’une « populace » !
Si le Giec voulait répondre aux critères de scientificité, il compenserait la difficulté effective d’expérience en climatologie, en s’appuyant sur « l’hypothèse d’ergodicité »[4], utilisée depuis le 19ème siècle, qui permet de remplacer une série d’expériences par une seule, de durée suffisamment longue. Le Giec le sait, d’où aussi son refus, dans sa méthode de « détection et attribution », d’exploiter les données paléo-climatiques reconstruites sur 1000 ans. Il préfère, pour les besoins de sa cause, se limiter à 150 ans d’analyse de données.


[1] Contribution du Groupe de travail II au quatrième rapport d'évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat - Résumé à l’intention des décideurs

[2] Mail du GIEC - 13 déc. 2014 - Source : « Climat : et si la vérité nous rendait libre » de Stanislas de Larminat (Terramare), page 80

[3] 2.6.2. "Objective" and "Subjective" Probabilities are not Always Explicitly Distinguished

La traduction de ce chapitre est la suivante :

Certains scientifiques s'inquiètent du fait que l'investigation scientifique nécessite une longue séquence d'enregistrements d'observation, d'essais pouvant être reproduits ou de simulations (par exemple, des simulations de Monte Carlo), de sorte que les résultats puissent être spécifiés par une caractérisation statistique formelle de la fréquence et de la distribution de la fréquence des résultats évalués. En termes statistiques, une science "objective" signifie tenter de vérifier une hypothèse en effectuant une série d'expériences et d'enregistrer la fréquence à laquelle ce résultat particulier se produit. L’idée d’un ensemble illimité d’essais identiques et indépendants « objectivement disponibles » est un dispositif heuristique que nous utilisons pour nous aider à quantifier rigoureusement l’incertitude à l’aide de statistiques fréquentistes. Bien qu'il puisse y avoir un grand nombre d'essais dans certains cas, toutefois, ce n'est pas la même chose qu'un nombre "illimité", et ces essais sont rarement véritablement identiques ou indépendants.
Les systèmes complexes les plus intéressants ne peuvent pas être soumis à tous les tests imaginables pour déterminer la fréquence d'apparition de certains événements à caractère social ou environnemental. La vision philosophique populaire de la "science objective" en tant que série de "falsifications" s'effondre lorsqu'elle se heurte à des systèmes qui ne peuvent pas être entièrement testés. Par exemple, comme les prévisions de changement climatique ne sont pas déterminables empiriquement (sauf en "effectuant l'expérience" sur la Terre réelle - Schneider, 1997), les scientifiques doivent s'appuyer sur des expériences "de substitution", telles que des simulations informatiques des changements de la Terre subissant des éruptions volcaniques ou paléoclimatiques. À la suite de ces expériences de substitution et de nombreux tests supplémentaires de la fiabilité des sous-composants de ces modèles, les scientifiques sont plus ou moins confiants quant à la probabilité de résultats divers (par exemple, ils peuvent attribuer avec une grande confiance une faible probabilité à la survenue de phénomènes climatiques extrêmes. comme un "effet de serre fou"). Ces niveaux de confiance ne sont pas des statistiques fréquentistes, mais des "probabilités subjectives" qui représentent des degrés de conviction fondés sur une combinaison de sous-composants objectifs et subjectifs du système global. Étant donné que la caractérisation subjective de la probabilité de nombreux événements climatiques potentiellement importants, en particulier ceux que certaines personnes qualifient de "dangereux", est inévitable, une caractérisation "bayésienne" ou "subjective" de la probabilité sera plus appropriée.
Les évaluations bayésiennes des distributions de probabilité conduiraient à l'interprétation suivante des énoncés de probabilité: La probabilité d'un événement est le degré de conviction existant entre les auteurs principaux et les relecteurs selon lequel l'événement se produira, compte tenu des observations, des résultats de modélisation et de la théorie actuellement disponible qui, tous, contribuent à l’estimation d’une probabilité "antérieure" d’apparition d’un résultat. À mesure que de nouvelles données ou théories deviennent disponibles, des estimations révisées de la probabilité subjective de la survenue de cet événement (la "probabilité postérieure") peuvent être établies, éventuellement via le formalisme du théorème de Bayes (voir, par exemple, Edwards, 1992). une base philosophique pour les méthodes bayésiennes; pour les applications des méthodes bayésiennes, voir, par exemple, Howard et al., 1972; Anderson, 1998; Tol et de Vos, 1998; Malakoff, 1999).

[4] L'hypothèse d'ergodicité intervient en traitement du signal, où elle consiste à admettre que l'évolution d'un signal aléatoire au cours du temps apporte la même information qu'un ensemble de réalisations. L’hypothèse d'ergodicité, est une hypothèse fondamentale de la physique statistique. Elle fut formulée initialement par Ludwig Boltzmann en 1871. Un système pour lequel l'hypothèse ergodique est vérifiée sera qualifié de système ergodique.