Internet est mort ! Vive la Blockchain  ! Internet était un système centralisé, basé sur des logiciels conçus par le détenteur des serveurs. La Blockchain  est complètement décentralisé et risque d’échapper à tout contrôle, y compris des états.
Cet article voudrait prendre du recul sur ces nouvelles technologies et réfléchir à ce qu’elles impliquent en matière d’écologie. Trois articles sont nécessaires à cette fin.
L’article (1/3) répondait aux questions suivantes :  qu’est ce que la Blockchain  ? Quels sont ses avantages, ses risques et ses dérives ?
(2/3) En quoi l’écologie est-elle impliquée ? De nombreuses applications de la Blockchain  ont la prétention d’apporter des solutions à la sauvegarde de la planète. La question se pose concernant la cause humaine des variations climatiques. Elle est considérée comme un acquit de la science. Cet article montre que non ! La Blockchain  peut-elle apporter des solutions en matière de certification du débat scientifique ? Il semble que non : la Blockchain  n’a qu’un but : sécuriser des transactions pour ce qu’elles sont. Elle n’est portée par aucun autre système de valeur : ni la vérité, ni la beauté, ni la bonté, ne sont pas de son ressort. Or, beaucoup de transactions se font au mépris de ces valeurs.
(3/3) Est-ce à dire qu’il faut se soumettre à cette nouvelle tour de Babel ? Comme aime à le dire Bertrand Vergely, le progrès était sensé éradiquer les méfaits de la fatalité. Le progrès serait-il désormais une fatalité tyrannique à laquelle on ne peut échapper ? Un peu de recul philosophique sera nécessaire dans ce dernier article, surtout pour qui n’a jamais entendu parler de ce mot barbare : la Blockchain  !

Dossier: "les2ailes.com"

 

Article 2/3

Article1/3
1- Qu’est ce que la Blockchain ?
2- Les avantages et les dérives d’une Blockchain
3- Les secteurs concernés par la Blockchain et ses caractéristiques
   3.1- La Blockchain , la monnaie et les crypto-actifs
   3.2- La Blockchain  veut impacter la vie quotidienne
   3.3- La Blockchain  et les consensus
   3.4- La Blockchain  et les fake news
   3.5- La Blockchain  et la rareté
   3.6- La Blockchain  et l’écologie
      a) L’impact dur les comportements individuels
      b) L’impact sur la responsabilité environnementale des entreprises

Article 2/3
4- Les variations climatiques : porter son regard vers les causes solaires et cosmiques.
   4.1- Les risques sur l’environnement local
      a) Les risques de type accidentels
      b) L’allégation d’un risque doit être fondé sur des études épidémiologiques.
      c) Un cas exemplaire sur la Blockchain: YUKA
   4.2- Les risques sur l’environnement planétaire
     a) Réflexions d’ordre méthodologique.
      b) Réflexions méthodologique sur le système climatique planétaire.
      c) Conclusion intermédiaire
5- La Blockchain  peut-elle contribuer à établir des théories scientifiques fiables et non falsifiables ?
   5.1- Le consensus, en sciences, n’est pas une preuve.
   5.2- La Blockchain  et les procédures de révision scientifique ?
 
  5.3- Mort annoncée du débat scientifique en écologie!

Article 3/3
6- Les déviations intrinsèques à la Blockchain
   6.1- Perspectives
   6.2- Regard philosophique sur la Blockchain
   6.3- Que faire ?
   6.4- Conclusion biblique

Ce second article veut montrer en quoi la cause humaine du réchauffement climatique n’est pas un acquit de la science . La question posée est de savoir si la technologie de Blockchain  peut apporter ou non un progrès dans le débat scientifique contradictoire

4- Les variations climatiques : porter son regard vers les causes solaires et cosmiques.

L'épistémologue autrichien Karl Popper rappelait que la scientificité d'un énoncé ne devrait pas dépendre de l'identité de celui qui s'en réclame, pas plus que la validité d'une expertise ou d'une certification ne dépendre des intérêts à l'oeuvre ou de l'origine de ses financements. Un énoncé scientifique doit toujours s'exposer à la réfutation.

4.1- Les risques sur l’environnement local

a) Les risques de type accidentels

Il ne s’agit pas de nier que les activités humaines, principalement des entreprises, puissent avoir des impacts sur son environnement (impact sur les espèces non humaines, etc...), ou sur lui-même (alimentation, nuisances directes,...).
Les exemples sont multiples dans le passé : Seveso, Bophal, Tchernobyl, Fukushima.
La mise en place de normes, dites Seveso, pesant sur les entreprises pour réduire la probabilité de ces types d’accidents n’ont malheureusement pas supprimé des risques qui, par nature,  relèvent de toute activité humaine. L’exemple de l’incendie survenu en octobre 2019 à l’usine de Lubrizol de Rouen a montré que le nuage de fumées avait eu des répercussions sur plus de 200 communes et 2000 agriculteurs. L’incendie du 3 juillet 2019 à l’usine Seine Aval du SIAAP à Achères, bien que beaucoup moins médiatisé, a eu des effets environnementaux peut-être plus graves encore.

b) L’allégation d’un risque doit être fondé sur des études épidémiologiques.

Tout ce qui  relève des risques alimentaires, des risques liés aux émissions hertziennes, à l’usage de pesticides en agriculture, sont des problématiques plus difficiles à évaluer.
Selon la gravité des enjeux, on peut avoir recours à plusieurs niveaux de méthodologie :

  • L’enquête d’opinion

L’expérience a montré, par exemple, qu’on ne peut tirer des conclusions scientifiquement fiables d’une enquête auprès d’habitants dans le voisinage d’émetteurs de téléphonie.

  • La compilation d’études

Ce n’est pas une étude scientifique mais simplement un recensement d’études. Celle publiée par un groupe de travail restreint de l’Organisation Mondiale de la Santé est arrivé à la conclusion que le glyphosate était « probablement cancérigène ». Reste à vérifier si ces monographies sont représentatives d’une vraie controverse scientifique ou si elles sont rassemblées à charge en fonction d’un objectif partiel.
Accessoirement, il n’est pas inutile d’aller vérifier si l’auteur de la monographie a déclaré ou non des conflits d’intérêt. Dans le cas cité, l’animateur qui avait conduit le groupe de travail de l’OMS sur le Glyphosate, Christopher J. Portier, n’avait pas fait état de ses activités précédentes dans l’ONG anti-pesticides américaine, Environmental Defense Fund (EDF), ni du contrat qu’il avait passé avec la firme juridique Weitz & Luxenberg chargée d’attaquer Monsanto.

  • Les études de laboratoire

Il s’agit d’un stade un peu supérieur. Mais il convient de vérifier les protocoles d’étude (a), de comparer le résumé de l’étude, pouvant être repris par les média de manière simpliste (b) avec la discussion interne aux auteurs de l’étude (c), de voir la qualité de la revue scientifique dans laquelle est publiée l’étude et la renommée de ses reviseurs (d).
Il n’est malheureusement pas rare qu’après publication, une étude soit contestée au point que la revue exige une rétraction de l’étude, contredisant ainsi, les conclusions du comité des pairs. Le cas exemplaire a été celui du retrait de l’étude d’un laboratoire connu qui avait allégué que les O.G.M. seraient cancérigènes. Les souches de rats retenus dans le protocole, Sprague Dawley, étaient connues pour développer spontanément des incidences de cancers élevées.  En sept 2019, la revue Nature a demandé à des océanographes de retirer leur article publié onze mois auparavant sur le réchauffement des océans. Ces auteurs étaient pourtant réputés[1]

  • Les études épidémiologiques

Il s’agit d’un stade encore plus élaboré au plan de la méthodologie. Elle est donc plus coûteuse. Mais si une question devient obsessionnelle d’un point de vue social, il faut avoir le courage d’y avoir recours.
Le mot épidémie suggère qu’il s’agit d’enquêtes auprès d’un échantillonnage très importants de personnes. Cela peut aller jusqu’à plusieurs dizaines de milliers de personnes. La multiplicité des facteurs possibles à comparer impose l’usage de questionnaires très détaillés sur l’alimentation des personnes interrogées, sur les sports pratiqués, leur profession, leur sexe, leur âge, leur degré de tabagisme, leur consommation éventuelle de stupéfiants, les traitements pharmaceutiques qu’ils suivent pour cause de maladie ou par confort, … Il faut retenir un maximum de critères, de façon à essayer de séparer les facteurs de risques à partir d’algorithmes mathématiques. Un sous échantillonnage des personnes enquêtées peut même être invité à subir un check-up devant un médecin.  L’étude épidémiologique doit, par ailleurs, être ce qu’on appelle longitudinale et non pas transversale. Une étude transversale consiste à observer des individus, à un moment donné. Elle sera longitudinale si l’enquête est reprise sur les mêmes personnes dix ans après par exemple.

Pour prendre des décisions relatives aux allégations-santé, il faut avoir recours à des protocoles adaptés aux degrés de gravité d’un problème. Tel ou tel type d’étude sera privilégiée selon qu’il s’agit d’un degré de gravité tangible, ou d’un degré de gravité sociétale. Faute de cela le subjectif non quantifié, ou l’émotionnel seront souvent imposés par des pouvoirs idéologiques divers et variés.
Certes le coût des études épidémiologiques peut être très élevé. Ceci étant, le coût cumulé pour toutes les entreprises d’un secteur soumis à des pressions irrationnelles peut être encore plus considérable si elles sont tenues de modifier inutilement leurs processus industriels. On pourrait recommander, voire subventionner des entreprises pour qu’elles cofinancent, en lien avec les experts universitaires, des études épidémiologiques digne de ce nom. Nous y reviendrons en conclusion.

c) Un cas exemplaire sur la Blockchain : YUKA

Qu’en est-il de l’application Yuka utilisée par les consommateurs pour vérifier la qualité diététique et la sécurité alimentaire de leurs achats ? Cet outil utilisé par 6 millions d’utilisateurs. Malheureusement les critères retenus en matière de sécurité alimentaire sont très alarmistes. Pour chaque substance chimique trouvée -et Dieu sait qu’avec les moyens d’analyse moderne, on trouve de tout dans tout - les créateurs, ont pratiqué ce qu’on appelle le  ‘cherry picking’, c’est-à-dire de choisir des études alarmistes qui vont dans le sens qui les arrange. Ce qui les arrange est, quoiqu’on en dise, d’inquiéter les usagers pour qu’ils poursuive l’usage de cet outil. Une telle application n’a le choix qu’entre une notation sur la base du consensus ou d’études alarmistes concernant des ingrédients. On finit par créer la peur là où elle n’aurait pas lieu d’être. L’algorythme est flou. Ainsi, Yuka recommande de s’écarter d’un produit qui contient un allergogène. Or un un allergène ne doit être évité que par la personne allergique.

4.2- Les risques sur l’environnement planétaire

a) Réflexions d’ordre méthodologique.

L’écologie planétaire est une science du complexe. Elle nécessite une forme de pluridisciplinarité qui  n’est pas sans poser des problèmes : dans certains domaines, il faut avoir recours à des milliers et des milliers de scientifiques. Ce recours est souvent mis en avant pour prétendre qu’il y a un consensus scientifique.  Mais un consensus, dit le Larousse, n’est qu’une « procédure d’accord » et ne qualifie pas le « contenu de l’accord ».
Sur la question  climatique, par exemple, qui sont ces milliers de scientifiques ?
Ce sont des gens aussi divers que des climatologues, des pédologues – parce que les sols stockent du CO2- et des agronomes, des glaciologues, des océanographes, des hélio-sismologues, des biologistes, des mathématiciens, des modélisateurs, des thermodynamiciens, des chimistes de l’atmosphère... Tous contribuent à la science de l’écologie, chacun avec sa discipline propre. Et la science écologique a besoin de toutes ces sciences, parce qu’on est face à un système complexe. Il ne s’agit pas ici de contester le sérieux de  chacune de ces sciences, et encore moins celui de chacun de ces scientifiques. Chacune, prise une par une, peut être considérée comme une pièce d’un puzzle. La question à se poser, est de savoir si des milliers de pièces du puzzle peuvent donner une cohérence à ce puzzle complexe et permettre d’énoncer une loi écologique. Quelle discipline va rapprocher le glaciologue qui étudie les fontes de glaciers, qui sont une des conséquences des variations climatiques, et ceux qui s’interrogent sur leurs causes comme le font les hélio-sismologues au niveau du fonctionnement du soleil ? Comment mettre au même niveau les thermo-physiciens qui réfléchissent aux lois de l’effet de serre, et les vulcanologues qui s’interrogent sur l’impact des éruptions sur le climat ? Chacune de ces disciplines est très sérieuse dans ses analyses. Mais les unes s’occupent des conséquences, les autres des causes. Qu’est ce qui va leur donner une cohérence suffisamment légitime pour énoncer une vérité scientifique ?
Il ne s’agit pas d’ériger  le « scepticisme » ou le doute, en système de pensée.  Il ne suffit pas, non plus de se contenter d’une « croyance », au sens de ceux qui commencent une phrase en disant, « je crois que… ». Il serait malsain que les opinions publiques ne soient réduites qu’à choisir entre des étiquettes très réductrices de climato-sceptique ou de climato-crédule !
Se référer à un consensus, autour de milliers de scientifiques qui « croient que… », relève de l’argument d’autorité. Mais l’autorité des arguments en est-elle pour autant renforcée ?  

Quelles sont donc les méthodologies existantes en matière de systèmes complexes planétaires ?

Étant donnée la complexité des systèmes en jeu, il faut bien construire des modèles. Les modélisateurs savent qu’un modèle n’est pas destiné à expliquer une complexité, mais à faire des prévisions à travers cette complexité. Il est classique de reprocher à des épistémologistes de vouloir interpréter tous les types de modèles à partir d’un seul type de modèle. C’est une tentative très courante. Malgré tout, des constantes dans tous les types de modèles sont décelables. Quelles sont ces constances ? Il est possible de les regrouper autour de cinq principes.

  • Les indicateurs

On peut aussi les appeler des signaux. Il faut en retenir qui soient indépendants du système et distinguer ce qui sont des signaux d’entrée, des causes, et d’autres qualifiés de sortie, c’est à dire des effets. Il faut, surtout, éliminer tout ce qui ressemblerait à des variables intermédiaires présupposant le résultat du modèle.

  • L’historique des données

Certaines problématiques peuvent se contenter de mesures sur des périodes courtes. Mais quelquefois, il faut être capable de recourir à des données sur des périodes longues. Dans ce cas, il peut être nécessaire d’avoir recours à des « reconstructions » de données. A cette fin, il est possible de recourir à des « proxys ». Un proxy est une mesure de substitution étroitement corrélée à une variable manquante dans une base de données. Ces reconstructions de données exigent de « corriger » des données dans le but de reconstruire et de raccorder des séries de données entre elles, tout en veillant à ne pas effacer des réalités, même si ces réalités ne sont pas cohérentes avec le résultat attendu d’une recherche.

  • La structure du modèle

Structurer les modèles consiste à retenir des lois simples et robustes et à paramétrer le dit-modèle. Il faut également veiller à ne jamais confondre une cause et un effet. Des boucles de rétroactions internes au système ne peuvent pas être assimilées à des causes.

  • Les tests d’hypothèses

Il s’agit de quantifier chaque hypothèse causale par des tests d’hypothèses. Une hypothèse est vérifiée en s’assurant que la prévision qui en ressort est conforme aux observations. La quantification ne se limite pas à retenir une hypothèse causale plus qu’une autre, mais va jusqu’au calcul des degrés de confiance à accorder à une relation de cause à effet. Un « test d’hypothèse » est une procédure statistique ayant pour but de fournir une règle de décision permettant, sur la base d’observations, de discriminer deux hypothèses statistiques.

  • Les prévisions et vérifications avec les réalisations

C’est le principe fondamental d’un modèle pour qu’il ne soit pas virtuel mais relié au monde réel. Certains imaginent qu’il est difficile de faire des prévisions au motif que les phénomènes observés relèvent d’une temporalité longue et qu’il n’est pas possible d’avoir recours à la méthode expérimentale en laboratoire. Or les statisticiens savent que la mathématique n’est qu’un langage et qu’elle n’a pas le sens du passé et du futur. Ils s’appuient donc sur ce qu’ils appellent « l’hypothèse d’ergodicité », utilisée depuis le 19ème siècle : elle permet de remplacer une série d’expériences par une seule, de durée suffisamment longue. Il suffit de traiter le passé comme un futur. C’est, en quelque sorte, une « rétro-prévision ».

b) Réflexions méthodologique sur le système climatique planétaire.

A titre d’exemple, parmi les multiples systèmes complexes planétaires, ces principes peuvent aider à prendre du recul sur les questions d’ordre climatique :

  • Les indicateurs climatiques

De manière assez unanime, et à part quelques climato-sceptiques peu crédibles, tout le monde retient la température globale terrestre, comme effet détecté, et comme facteurs causaux éventuels, l’irradiance solaire, les émissions de CO2 et l’activité volcanique. Vouloir prendre d’autres indicateurs comme celui de la hausse du niveau des océans risquerait d’être approximatif. Le niveau des océans est en effet impacté par d’autres facteurs internes au système : les mouvements de la tectonique des plaques qui peuvent faire varier le niveau des océans dans certaines régions (a), les variations de pressions atmosphériques colossales dans les régions du pacifique sud touchées par les phénomènes El Nino et El Nina (b), ou les mécanismes de la circulation thermo-haline qui sont si puissants qu’ont les qualifie de « tapis roulant » au cœur des océans (c).

  • L’historique des données climatiques

Le G.I.E.C. est-il légitime à se limiter à 150 ans d’observations[2] ? Ce type de pratique revient à occulter la période chaude médiévale puis le petit âge glaciaire du xve à la fin du xixe siècles au moment de la Bérézina. Pour expliquer ces variations, même un non spécialiste, avec son propre bon sens, peut comprendre qu’il est nécessaire de retenir un minimum d’observations sur mille ans.

  • La structuration des modèles climatiques

Presque tous les modèles climatiques utilisent des modèles à transfert d’énergie, (Energy Balance Model – E.B.M.) fondés sur les principales lois de la physique. Il en existe plusieurs types.  

Toute la question est alors de savoir à quel espace appliquer ces lois.
(a) La première possibilité est d’englober, en un seul système, la globalité de la mécanique climatique terrestre.
(b) Le G.I.E.C., quant à lui, l’applique à plus de deux cent mille sous-ensembles sous-forme de « planètes numériques » constituée de cubes d’océans de profondeur, de cubes de montagne, ou de toundras, des cubes de haute ou de basse atmosphère, etc …. Malheureusement, la complexité des transferts d’énergie d’un cube à l’autre est telle que les sources d’erreur augmentent, car   la complexité engendre l’imprécision.

Ajoutons qu’il ne suffit pas qu’une loi physique, par exemple l’effet de serre, soit vérifiée en laboratoire pour qu’elle suffise à structurer un modèle climatique. En effet, les perturbations colossales des masses d’air peuvent rendre plus complexes le phénomène de l’effet de serre : les masses d’air sont brassées avec une ampleur colossale par les mouvements verticaux des alizés dans les régions tropicales. Ils renvoient des masses d’air chaud, donc émettrice d’infra rouges, à des altitudes où les concentrations de CO2 sont plus faibles. C’est ce qui explique, paradoxalement, que c’est au niveau des tropiques, là où la planète est la plus chaude, qu’elle émet dans le cosmos le plus d’infra rouges[3] !
Par ailleurs, le G.I.E.C., lui-même, reconnait qu’il est conduit à éliminer certains facteurs pour limiter la complexité, en particulier le rôle des nuages : dans leurs modèles, le G.I.E.C.  ne retient que « des conditions de ciel clair[4] … ». Pourquoi cela? Parce que, dit le G.I.E.C., « l’introduction de nuages compliquerait grandement les objectifs de la recherche[5]. » Or la recherche devrait se fixer comme mission de faire des prévisions malgré la complexité du système ! Pourtant, tous les climatologues reconnaissent que la vapeur d’eau est également un gaz à effet de serre et que les nuages sont un facteur de rétroaction interne fondamental.
Ce n’est pas une raison pour introduire un phénomène comme El Nino[6] dans les facteurs causaux[7]. Or, il est connu que ces oscillations océano-atmosphériques du Pacifique sud ne sont que des boucles internes de la mécanique climatique, et ne sont pas la cause des variations longues.
Il faut, enfin, structurer le modèle en utilisant des calculateurs avec des algorithmes mathématiques. Le G.I.E.C. qualifie cette étape de « détection-attribution », c’est-à-dire la détection d’un effet et son attribution à une cause. Mais comment s’expliquer que le G.I.E.C. dise que cela « n’exige ni n’implique que chaque aspect de la réponse au facteur causal en question soit correctement simulé[8] » ?
Le G.I.E.C. aborde cette problématique de la « détection-attribution » en utilisant des modèles de planète virtuelle. Les modèles qui travaillent sur un seul système climatique global considèrent que les nuages font partie du système mais ne cherchent pas à expliquer les mécanismes interne de rétro-causalité. Ils s’attachent à l’essentiel : non pas expliquer les relations de cause à effet entre les signaux extérieurs au système, mais les quantifier pour faire des prévisions. 

  • Le paramétrage des modèles climatiques

Les modèles référencés par le G.I.E.C. introduisent des paramètres, par exemples, la sensibilité de la température à la variation d’émission de CO2 qu’ils exploitent ensuite dans leurs calculs, ou la viscosité des fluides dans les transferts d’énergie d’un cube à l’autre, ou encore des coefficients d’évaporation en fonction de l’état de la mer ou des vents.
Une première méthode consiste à faire des études théoriques et spécifiques pour estimer a priori ces paramètres et les introduire dans le système, avec des degrés d’imprécision qui s’accumulent.
Une autre méthode consiste à laisser le système calculer lui-même quelques-uns de ces paramètres sans aucun a priori,  à partir de l’observation des faits et non à partir d’études scientifiques préalables.
Le risque de l’approche des modélisateurs du G.I.E.C. est d’être partial. D’ailleurs un des théoriciens de la modélisation, faisant autorité dans la communauté du G.I.E.C., a fait une enquête et a reconnu que 22 des 23 principaux centres de modélisation climatiques qu’il a interrogés paramétraient leurs modèles « pour obtenir les propriétés souhaitées »[9] ! Pourtant, le principe d’une méthode scientifique est de ne pas préjuger des résultats. Les calculs menés par le G.I.E.C. sur ces paramètres sont d’ailleurs d’une très grande opacité. Il faut une solide expertise scientifique pour arriver à reconstituer certains paramètres comme les sensibilités climatiques retenues par le G.I.E.C.
A contrario, les modèles ne cherchant à identifier qu’un seul système global, parviennent, grâce aux tests d’hypothèses, à calculer les paramètres de sensibilité de la température au CO2, d’irradiance solaire ou d’activité volcanique. C’est ce qui explique que l’utilisation de modèles par identification conduit à des sensibilités complètement différentes de celles du G.I.E.C. Bien entendu, une modélisation sur 150 ans d’observation ne conduit pas aux mêmes sensibilités que celles calculées sur 1000 ans de données.

  • La quantification des relations de cause à effet en matière de climat

Nécessairement, ces différences d’approche de paramétrage vont permettre ou non des quantifications précises des relations entre les signaux retenus.
La modélisation alternative fondée sur l’identification d’un système unique global exploite avec rigueur ses tests d’hypothèses. Sa conclusion est que « l’hypothèse, selon laquelle l’activité humaine n’aurait pas d’effet significatif, ne peut pas être exclue... Avec un taux de certitude significatif de 90%...,  on doit considérer comme un fait établi que l’activité solaire, en tant que variable explicative causale, constitue l’explication première du « changement climatique »[10].
Le G.I.E.C., travaillant sur une planète numérique multicellulaire, invoque une probabilité de 95% que le réchauffement soit d’origine humaine. L’auteur de cet article a participé à un débat avec deux représentants du G.I.E.C. à qui il était demandé par écrit les références du calcul de 95%. La réponse écrite a été qu’il ne s’agissait pas d’une probabilité calculée mais d’une probabilité subjective. Les rapports du G.I.E.C. le confirment : « les probabilités "Objectives" et "Subjectives" ne sont pas toujours explicitement distinguées »[11]. Peut-on parler de chiffrage et de quantification avec de telles approches ? 

  • Les prévisions et les réalisations climatiques

Dire que la gravité et l’urgence des enjeux sont telles qu’on n’a pas le temps de vérifier si les modèles auront raison ou tort, relève d’une forme d’esquive. Il  suffit de faire, avec les modèles, des « retro-prévisions ». Il est possible de tester les sensibilités retenues par le G.I.E.C. à partir des observations faites sur 150 ans et de reconstruire sur 1000 ans l’histoire climatique antérieure à 1880. Le Giec a publié un résultat de ce type[12]. Il ne dégage qu’un flou effaçant les variations que l’histoire a connu pendant l’« optimum médiéval » du xe au xive siècle et le « Petit âge » glaciaire du xve au xviiie siècle. Ce n’est pas être provocateur que de dire que si un modèle n’est pas capable de restituer l’historique passé, c’est qu’il est inefficient à prévoir le futur.

c) Conclusion intermédiaire

Curieusement, des centaines de publications, chaque année, font état de travaux sur l’impact de l’activité solaire sur le climat mais ne sont pas référencées dans les rapports du G.I.E.C. Il est pourtant assez  aisé d’en prendre connaissance. Il suffit d’utiliser les  moteurs de recherche internet avec quelques mots clefs, de préférence en anglais, comme « Elsevier [13] », « soleil », « rayons cosmiques ». En deux heures de recherche, il est aisé d’avoir  accès à ces études et d’en  lire les protocoles et les conclusions.

L’analyse, menée ci-dessus sur la question climatique, pourrait aussi bien être détaillée sur ce que certains scientifiques appellent les « neuf limites planétaires »[14] : ozone, biodiversité, particules fines,  etc… La présente note n’a pas pour objet, de montrer l’absence de bien des indicateurs planétaires sur ces sujets, l’absence de lois permettant de structurer des modèles et l’absence totale de prévisions fournies par ces modèles. L’auteur de ces lignes restent à la disposition du lecteur pour élargir ce type d’analyse aux autres enjeux planétaires.

5- La Blockchain  peut-elle contribuer à établir des théories scientifiques fiables et non falsifiables ?

De nombreuses études scientifiques médicales, publiées parfois dans des revues prestigieuses, sont jugées par les professionnels de santé eux-mêmes insuffisamment fiables soit à cause d'une méthodologie médiocre ou discutable au plan de l'analyse statistique, ou de cohortes de patients trop petites.
D’un côté, l'intelligence humaine (IH) considère que près de 80% des articles scientifiques médicaux ne donnent pas de résultats suffisamment fiables, notamment parce que la méthodologie est imparfaite[15]

En théorie,  un énorme travail de sélection resterait à faire pour que l'Intelligence Artificielle (IA) puisse être utilisée en toute confiance. La banque américaine "Pubmed" contient quelques 28 millions d'articles scientifiques médicaux référencés. Il faudrait probablement en éliminer une vingtaine de millions pour que le traitement des données scientifiques de cette banque par l'IA donne des résultats fiables. Est-ce que les algorithmes puissants de l'IA, construits par l'IH, ont la capacité d'écarter de l'analyse les articles peu fiables au plan méthodologique ou de ne reconnaître que les articles fiables ? La question restera probablement sans réponse. en effet, l’Intelligence artificielle ne pourra s'appuyer que sur des données scientifiques que l'IH aura considéré comme fiables.

5.1- Le consensus, en sciences, n’est pas une preuve.

C’est le dissensus qui fait avancer la science par les questionnements qu’il suscite. C’est une des raisons d’être des procédure de peer-review (revision par les pairs) dans les grandes maisons d’éditions scientifiques. Les reviseurs ont la latitude de questionner les auteurs d’études scientifiques, de réclamer de petites modifications, voire de refuser leurs publications.
Malheureusement, la technologie Blockchain  répond profondément à la notion de « paradigme » en ce qu’elle fédère une communauté de chercheurs autour d’in consensus scientifique. Pourtant, l’épistémologiste Thomas Kuhn estimait qu’une science ne progresse que de manière fondamentalement discontinue, c’est-à-dire non par accumulation mais par rupture : les théories scientifiques ne rejetées seulement quand elles ont pu être remplacées.
Il n’est pas rare dans l’histoire que plusieurs écoles coexistent pour une même discipline scientifique, éventuellement dans une relation d’opposition et d’ignorance réciproque relatives. Malheureusement, les énoncés scientifiques ne sont plus évalués en tant que tels. Ils sont appréciés selon les intérêts avec lesquels ils se recoupent. L’exemple de la communauté climatologique du Giec est symptomatique. Il n’existe en son sein aucune école hélio-sysmique sérieuse pour défendre l’idée que l’astrophysique expliquerait l’essentiel des variations climatiques.

5.2- La Blockchain  et les procédures de révision scientifique ?

La technologie de la Blockchain  a-t-elle le potentiel de résoudre certains des problèmes les plus importants auxquels est actuellement confrontée la communication savante, comme le processus d'examen par les pairs ?

Digital Science[16] a lancé un projet pilote en ce sens. Il a la prétention de « d'élaborer un protocole dans lequel l'information sur les activités d'examen par les pairs sera stockée sur une Blockchain .. ..».
Le constat de départ est que le processus de soumission du manuscrit d'un auteur à l'examen minutieux d'experts dans le même domaine, est aujourd'hui confronté à des défis croissants : difficulté de trouver et d'identifier des examinateurs compétents et disponibles, manque de reconnaissance des examinateurs, fraude et manipulation, manque de transparence et diminution de la confiance dans ce processus.
Les auteurs  du projet regrettent que « le processus actuel d'examen par les pairs soit trop opaque. Il n'y a aucun moyen de vraiment savoir si l'examen par les pairs a réellement eu lieu… en ouvrant ainsi la boîte noire de l'examen par les pairs, nous pouvons coordonner le processus d'examen, mieux reconnaître les examinateurs et créer une piste de données fiable et indépendante du processus d'examen par les pairs qui le rend plus transparent et digne de confiance ».
L’initiateur du projet, Digital Science, a été rejoint par Catalysis, leader sur le marché avec sa revue « Science direct », puis par Taylor & Francis, Publons, Springer Nature, Trust & Karger et Cambridge University Press, avec Wellcome Trust, en tant que conseillers.
Un débat interne a pourtant eu lieu : certains partenaires suggéraient que toutes les revues publient des rapports anonymes d'examen par les pairs. De cette façon, le public pourrait établir l'existence et la qualité de l'examen par les pairs dans les revues. D’autres, qui ont eut gain de cause, ont opposé les raisons pour lesquelles la publication d'examens par les pairs pourrait ne pas être une bonne idée. Même dans le cas de l'anonymisation, le ton d'une conversation confidentielle entre les rédacteurs en chef et les réviseurs sera différent du ton - et éventuellement du contenu.
Plus important encore, la publication de rapports anonymes d'examen par les pairs ne résout pas les autres problèmes dont souffre l'examen par les pairs, par exemple en matière de reconnaissance des examinateurs. Elle ne traite pas non plus de la fraude et des comportements contraires à l'éthique, une question tout aussi importante. 

Dès lors, il a été décidé de ne pas « conserver les rapports d'examen eux-mêmes…. l'accès à toute partie confidentielle de cette information, par exemple les noms des examinateurs, les titres des manuscrits, ne seront accessibles qu'à des parties strictement sélectionnées, c'est-à-dire les examinateurs et les éditeurs pertinents grâce à un cryptage et un anonymat rigoureux ».

La Blockchain  risque, en la matière, de ne promouvoir que les organismes déterminés à travailler ensemble. Cela pourrait éliminer des revues à faible facteur d’impact, mais de grande qualité scientifique. La science, dès lors, aurait plus à perdre qu’à gagner devant le rouleau compresseur des procédures de la Blockchain .

5.3- Mort annoncée du débat scientifique en écologie!

Pourquoi, alors, parler de mort annoncée du débat scientifique en écologie? Force est de constater que les universités sont tenues à une forme de soumission au cadre imposé par le politique, puisqu’elles s’autocensurent en n’osant réclamer aucun budget de recherches sur les causes solaires des variations climatiques. La façon dont les thèses anthropiques envahissent toute la Blockchain ne va inciter ni les universités à risquer de briser la carrière de jeunes chercheurs en les lançant sur la piste d'une cause solaire, ni les entreprises à financer des budgets des recherches selon la procédure « red teams » et « blue teams ».  Ces procédures sont pourtant utilisées  couramment utilisées dans certaines universités, mais aussi dans  l’armée, ou dans certaines entreprises pour tester des stratégies. Il s'agit de compenser le fait que la totalité des budgets publics est toujours allouée à des « équipes bleues », la couleur du consensus. Les « équipes rouges », de la couleur de la dissidence ne sont jamais financées. Elles pourraient pourtant utilement rechercher les failles dans les travaux des équipes bleues.
Ce type de financement serait bienvenues dans les secteurs d’activité des entreprises, ne serait-ce qu’en contribuant à améliorer la culture interne. Par exemple :
- en matière d’allégation santé, des entreprises alimentaires pourraient financer des études épidémiologiques
- en matière de modèles climatiques, des sociétés énergétiques,  pourraient également le prévoir…

Les états pourraient exonérer les dites entreprises de l’obligation de provisionner des risques environnementaux qu’aux deux conditions expresses,
- que leur budgets de recherche sur ces questions respectent bien l’équilibre « red team » et « blue team », 
- que des débats publics et télévisés soient diffusés périodiquement

Ces coûts alourdiraient, bien sûr, le compte de résultat. Les consommateurs seraient toujours les contributeurs finaux de ce processus, mais, en contrepartie, ils pourraient bénéficier d’un surcroît de culture générale lors de la diffusion publique en prime time des débats entre les deux équipes retenues.

Faute de suivre cette idée, qui financera le débat contradictoire? Qui évitera la mort annoncée du dénat scientifique contradictoire en écologie? 


[1] Océanographe des universités de Princeton, Fudan à Shanghai, du Centre de recherche sur les océans de Kiel et du français L. Popp à  LMD/IPSL, ENS, PSL Research University, École Polytechnique, Sorbonne Université, CNRS, Paris, France. Ils ont reonnu qu’un commentateur externe, Nicholas Lewis, les avaient conduits à se « rendre compte d’incertitudes déclarées sous-estimées en raison de leur traitement de certaines erreurs systématiques … qui a considérablement affaibli les implications d'une révision à la hausse du réchauffement des océans et de la sensibilité climatique.» ! (source : https://www.nature.com/articles/s41586-019-1585-5, site consulté le 9.10.2019)

[2] GIEC-IPCC, WG1 Fifth Assestment Report, Chap. 10, Fig. 10.1, p. 107/131 www.climatechange2013.org/images/report/WG1AR5_SOD_Ch10_All_Final.pdf, (consulté le 28/08/19)

[3] Les cameras à  infrarouge (source : https://www.youtube.com/watch?v=f7QttjGu628 , consultée le 9.10.2019),  mesurant les émissions de la terre à partir de satellites, montrent précisément que c’est dans les zones tropicales que la terre émet le plus d’infrarouges.  L’effet de serre n’agit donc pas en réchauffant l’atmosphère par absorption du rayonnement infrarouge émis par la surface, comme on l’enseigne en classes de SVT, avec la bénédiction du GIEC. Au contraire, il agit en refroidissant l’atmosphère par émission d’infrarouges à haute altitude. Plus la concentration de GES est forte, plus l’altitude d’émission est élevée, et plus la surface doit être chaude pour générer une circulation atmosphérique capable de transférer à plus haute altitude un même flux énergétique à l’équilibre.  Conceptuellement, les climatologues prennent le problème à l’envers. Pour des raisons calculatoires, ils adoptent comme point de départ l’émission infrarouge de surface, et ils se focalisent sur le transfert radiatif à travers l’atmosphère, alors que le cheminement causal est inverse.

[4] Giec-IPCC “Most intercomparison studies on RF of greenhouse gases are for clear-sky” IPCC, WG1 Fifth Assestment Report,  § 8.3.1, p. 8-18/124, ligne 17, www.climatechange2013.org/images/report/WG1AR5_SOD_Ch08_All_Final.pdf (consulté le 28/08/19)

[5]The introduction of clouds would greatly complicate the targets of research”  ibid., ligne 18.

[6] Phénomène atmosphérique et océanique complexe et périodique observable dans les zones pacifiques tropicales. Son origine est assez mal connue.

[7] Giec-Ipcc, WG1AR5, Fifth Assessment Report, chapter 10, Fig 10.5, p 111/131 , www.climatechange2013.org/images/report/WG1AR5_SOD_Ch10_All_Final.pdf (consulté le 28/08/19)

[8]Attribution does not require, and nor does it imply, that every aspect of the response to the causal factor in question is simulated correctly”.

GIEC-IPCC, “Climate Change 2013 - The Physical Science Basis: Woking Group 1 contribution to the fith assesment report of the IPCC” , p. 873, www.ipcc.ch/site/assets/uploads/2018/02/WG1AR5_Chapter10_FINAL.pdf (consulté le 28/08/19)

[9] «22 of 23 groups reported adjusting model parameters to achive desired properties such as radiation balance at the top of the atmosphere”, source: Frédéric Hourdin, The Art and Science of Climate Model Tuning  (L’art et la science du réglage des modèles climatiques), American Meteorological Society , 9 juillet 2016, https://journals.ametsoc.org/doi/full/10.1175/BAMS-D-15-00135.1 , (consulté le 18/08/19)

[10] Publication, intitulée Earth climate identification vs. anthropic global warming attribution ( Identification du système climatique vs. détection et attribution » et référencée par « ScienceDirect », revue, dans les règles, par les pairs du comité de lecture de Annual Reviews in Control (ARC), une des sept revues scientifiques de l'IFAC, Fédération internationale qui regroupe des milliers d'experts en contrôle, automatique et identification des systèmes complexes. www.sciencedirect.com/science/article/pii/S1367578816300931?via%3Dihub (consulté le 28/08/19)

[11] Giec-Ipcc, “Objective and subjective probabilities are not always explicitly distinguished”. Cette affirmation est le titre exact de la section 2.6.2 du  Third Assessment Report of IPCC , “Contribution of the Working Group II: Impacts, Adaptation and Vulnerability”,  p. 129,  www.ipcc.ch/site/assets/uploads/2018/03/WGII_TAR_full_report-2.pdf (consulté le 28/08/19)

[12] Giec-Ipcc, AR5, Working Group 1, The Physical Science Basis, Report Graphics- Technical Summary- Box TS.5, fig 1-b,  http://www.climatechange2013.org/report/reports-graphic/ts-graphics/ (consulté le 28/08/19).

[13] Leader mondial de la diffusion des publications scientifiques soumises à ces comités de lecture.

[14] La revue Sciences express a publié le 15 janvier 2015, une prétendue étude scientifique intitulée : "Planetary Boundaries: Guiding human development on a changing planet". 

[15] http://www.telemedaction.org/437348190

[16] https://www.blockchainpeerreview.org/