Le protocole de Montréal a été adopté en 1987 et ni les médias, ni les politiques, n'ont pas profité de son 30ème anniversaire pour célébrer en célébrer les mérites, comme s'ils craignaient de relancer un débat scientifique qui n'a jamais eu lieu. Depuis quelques années, des historiens ont entrepris de comprendre comment, malgré cette absence de débat, le trou d’ozone avait pu devenir une véritable icône environnementale. Certes, la période concernée est récente allant des années 1960-70 à aujourd’hui : le travail historique donc périlleux. Par ailleurs, le lecteur de documents historiques doit décrypter la propre posture de l’historien : la plupart d’entre eux participent à cette forme de fascination pour le consensus qui a conduit au fameux Protocole de Montréal ; d’autres, comme Stéphane Frioux (2011), confondent histoire et positions personnelles par exemple en faisant rimer Trente Glorieuses avec « Trente Pollueuses »[1]. La thèse de l’École des Hautes Études en Sciences Sociales soutenue en 2014 par Régis Briday a le mérite de faciliter l’accès à des sources indispensables, mais d’autres historiens se sont intéressés à ce phénomène comme Paul Edwards (2010), Hélène Guillemot, Heymann (2010) et tant d’autres.
La lecture de ces documents permet de mettre en évidence les disputes scientifiques, le rôle des industriels américains, la prégnance politique américaine et l’effet inhibiteur sur les esprits, pour ne pas dire dévastateur, de l’attribution mythique d’un prix Nobel.
Le trou d’ozone s’étant véritablement ancré dans l’imaginaire collectif des opinions, il est utile de faire une étude critique historique et scientifique du sujet. Il en ressort une absence totale d'identification du système complexe de l'ozone. Les séries d'observations n'étaient pas suffisamment longue quand la cause dite anthropique du "trou d'ozone" s'est ancrée dans les esprits. Il est de plus en plus probable qu'une cause liée à l'activité solaire apparaîtra comme incontournable.

Citation du jour: "C'est une belle théorie, mais contient-elle une vérité ?" (Einstein)

Dossier: "les2ailes.com"

Le dossier est articulé selon le plan suivant:

1- Aéronomie : Les anciens et les modernes. 
1.1-  De l’aéronomie et de l’aérologie.
1.2- L’alibi des Supersoniques transatlantiques. 
1.3- Les premiers lanceurs d’alerte. 

2- Les controverses scientifiques. 
2.1- L’éternel déséquilibre entre les modèles trop simplistes…...
2.2- L’éternel déséquilibre entre les modèles trop simplistes… et leur excès de complexité.
2.3- Le recours au catastrophisme.
2.4- Le caractère unidimensionnel des modèles de l’époque.
2.5- Les réalisations qui ne confirment pas les prévisions.
2.6- Le consensus : argument d’autorité développé par Molina.
2.7- Le procès en conflit d’intérêt entre Molina et Rowland vis-à-vis de la NASA..
2.8- L’absence de recours à la discipline de la détection-attribution.
2.9- La problématique géographique.

3.- L’élaboration d’indices et de concepts hasardeux.
3.1- Les indicateurs relatifs à la couche d’ozone.
3.2- Les indicateurs faisant le lien entre l’ozone et le climat
3.3- Le concept de panier d’ODS.

4- La controverse inhibée par l’administration américaine et la stratégie Dupont de Nemours 
4.1- L’amendement au Clean-Air Act de 1977.
4.2-  Le changement de stratégie de l’industrie américaine des CFC..
4.3- La création de l’UNEP.
4.4- Le monopole américain des mesures satellitaires.
4.5- La fuite des « cerveaux » de l’ozone vers le GIEC..
4.6- La signature des accords internationaux.

5- Un temps de prises de décisions politiques.
5.1- Décisions politiques fondées sur des approximations.
5.2- La Convention de Vienne.
5.3- Le protocole de Montréal
5.4- La mise en place d’organes de gouvernance.
5.5- Une gouvernance érigée comme une « référence » pour le climat

6- Le Prix Nobel : une science inexacte !

7- La remise en cause de l’origine anthropique du « trou d’ozone ».
7.1- Les mécanismes de la biosphère.
7.2- Le rôle des rayons cosmiques sur la couche d’ozone.
7.3- Le rôle des volcans.
7.4- Le rôle de l'activité géomagnétique terrestre
7
.5- La vraie question des "modèles numériques"

8- Une opération de diversion : l’amendement de Kigali
8.1- L’extension de l’approche par « panier multiples » des ODP aux GES.
8.2- L’avenant de Kigali
8.3- La mise en place d’un nouvel organe : la  CCAC..

9- L’impact anthropique sur l’atmosphère : trois alibis ?
9.1- Un alibi pour justifier une fiscalité mondiale supplémentaire: le MultiLateralFinance
9.2- Un alibi pour la bio-ingénierie

9.3- Un alibi pour les malthusiens

10- Conclusion

1- Aéronomie : Les anciens et les modernes

1.1-  De l’aéronomie et de l’aérologie

L'aéronomie est l'étude des propriétés physiques et chimiques des parties de l'atmosphère où les réactions d'ionisation et de dissociation deviennent prédominantes par opposition à l'aérologie qui étudie les portions de l'atmosphère où les phénomènes de turbulences ont une importance majeure (Wikipedia)
Ce n’est que lorsque les modèles mathématiques, exploitant une troisième dimension de l’atmosphère, sa verticalité , qu’on a parlé d’aérologie. C’est Wladimir Köppen, qui a proposé en 1906 ce nom d’aérologie « pour l’étude de la haute atmosphère ».

1.2- L’alibi des Supersoniques transatlantiques

De nombreux débats avaient eu lieu dès les années 1965 à propos de l’accusation de détruire la couche d’ozone, accusation portée par un chimiste de Boeing, Halstead Harrison, contre les Supersoniques transatlantiques (SST). Il publie en 1968 un article intitulé “The Condensation and Sublimation of CO2 with H2O: Carbonic Acid on Mars?”[2] . Le modèle qu’il avait mis en place calcula qu’un « faible nombre d’avions supersoniques [pouvait] perturber la couche d’ozone de manière significative, du fait de leurs émissions de vapeur d’eau dans la basse stratosphère terrestre »[3]. Cette hypothèse sera reprise par Russel Train en 1970. Elle suscitera, comme nous le verrons, des vocations chez d’autres scientifiques, qui élaboreront de nouvelles théories de destruction de l’ozone par les SST à partir de 1971. Pourtant, racontera Halstead Harrison en 2003, il était pour sa part alors « pratiquement certain » que cette inquiétude au sujet de l’altération de la stratosphère par la vapeur d’eau des SST était « exagérée », que ce soit au moment de ses premières modélisations en 1966-67, ou en 1970- 71, au plus fort de la controverse sur les SST. En 2003, il se disait être convaincu que les SST n’avaient jamais eu effectivement d’impact significatif sur la composition de l’ozone. Harrison raconte qu’il mesurait tout à fait les limites de ses modélisations.
Lors d’une conférence scientifique, organisée devant le Congrès par Hirschfelder le 18.3.1971, le chimiste Berkeley-Harold Johnston était parvenu, lui aussi à son hypothèse sur la destruction de l’ozone par les NOx des SST.
Toutes ces polémiques avaient provoqué une réelle agitation dans l’opinion américaine sous la pression de pétitions dès 1974[4].

1.3- Les premiers lanceurs d’alerte

Le tournant des sciences de l’atmosphère vers des programmes environnementaux était déjà en marche.
Dans les années 1960-70, la modélisation informatique bouscule violemment les pratiques des scientifiques de l’atmosphère, en particulier sous l’impulsion notamment des programmes chapeautés par des météorologistes théoriciens, Carl Gustav Rossby, John von Neumann et Jule Charney. Leurs programmateurs informatiques avaient requis un pouvoir d’expert supérieur aux météorologistes et climatologues traditionnels . Comme l’a fait remarquer l’un des acteurs de l’expertise états-unienne de l’ozone dans les années 1970, Harold Schiff, rares sont les chercheurs des débuts de la recherche sur la destruction de l’ozone qui ont été des "membres de la clique de chercheurs qui avaient choisi la chimie stratosphérique comme spécialité… Leur statut institutionnel de petit groupe de scientifiques… a pu renforcer leur identité collective"[5].
L’historien Paul Edwards a montré que ce changement avait été "provoqué, non par des climatologues traditionnels, mais par des scientifiques rompus à la météorologie théorique et à la programmation informatique qui travaillaient au sein d’une poignée d’institutions dotées d’immenses ressources informatiques"[6].   

C’est dans ce contexte qu’émergent M. J. Molina et F. S. Rowland qui publient en 1974, dans Nature[7], leur étude "Stratospheric Sink for Chlorofluoromethanes: Chlorine Atom-Catalysed Destruction of Ozone". Leur raisonnement[8] partait des mesures de CFC (Chloro-Fluoro-Carbonés) atmosphériques de Lovelock et d’autres. Ils constataient le taux de production [important] de CFC par l’industrie chimique. S’appuyant sur des données spectroscopiques et chimiques compilées avec un œil critique dans des tables, ils mettent en œuvre des calculs informatiques, qui utilisaient des  "coefficients hypothétiques" ("assumed coefficients") extraite d'un modèle de "diffusion tourbillonnaire" ("eddy diffusion") à une dimension pour trouver l’altitude à laquelle les CFC seraient décomposés par les rayons UV. Ils comparent leur système CFC/chlore avec un système semblable N2O/NO sur lequel Paul Krutzen[9] avait travaillé quelques années avant. Ils font également appel à des modélisations faites par Kockarts et Brinkmann[9bis].  Molina et Rowland reconnaissent le caractère théorique de leur publication puisqu'ils utilisent en seulement 3 pages, 12 fois des expressions de type "estimated", "expected", "roughly","substantial uncertainties", "assumed", "presumabily", "believed", "it seems". Ils reconnaissent leur approximation en matière d'activité solaire: "Les intensités appropriée des UV solaires à une altitude de 30 km peuvent être incertaines par un facteur de 2 ou 3"!

Leur chaîne de réaction CFC/chlore s’appuie sur les trois réactions suivantes :
CF2CL2 + hv → CF2Cl + Cl- (photodissociation), puis:  Cl- + O3 → ClO+ O2,  puis: ClO- + O- → Cl- + O2.
La formation chimiste de M. J. Molina et F. S. Rowland peut expliquer la hâte qu’ils montrèrent à conclure à une destruction possible d’ozone stratosphérique, là où beaucoup d’aéronomes étaient alors moins prompts à admettre la vulnérabilité du grand monstre géologique qu’est la couche d’ozone – alors qu’ils connaissaient, eux aussi, les travaux récents sur la diffusion des composés chlorés vers la stratosphère, en particulier ceux de James Lovelock communiqués depuis 1970.

2- Les controverses scientifiques

Peu de critiques réussirent à se développer contre les hypothèses proposées par M. J. Molina et F. S. Rowland. En effet, les scientifiques étaient rares, à l’époque, à avoir une autorité à la fois en aéronomie et en chimie. :
- J.N. Pitts et J.A. Taylor (University of California) ;
- C. Sandorfy (University of Montreal) ;
- R.A. Rasmussen (Washington State University) ;
- Richard Segar Scorer, météorologiste et Professeur de mécanique théorique à l’Imperial College.

Par ailleurs, Du Pont de Nemours et les producteurs de CFC (Chloro-Fluoro-Carbonés), de manière maladroite, feront appel, financements à l’appui, aux rares scientifiques de l’atmosphère contestataires. Dès lors, dès qu’ils s’exprimaient, ils se faisaient accuser de conflit d’intérêt[10] :
- James Lovelock, avait été financé pendant quelques mois par DuPont au début des années 1970 pour ses travaux sur l’accumulation des CFC dans l’atmosphère (sans lien alors avec la destruction de l’ozone).
- Quant à Richard-Segar Scorer, il fut décrédibilisé en 1975 lorsque le journal Los Angeles Times révéla qu’il avait reçu un financement de Hill & Knowlton et donc indirectement du lobby industriel[11].
Malgré tout, dès l’été 1976, Richard Scorer publia  dans des revues à comité de lecture : c’est donc que les scientifiques de l’atmosphère ne pensaient pas que les objections scientifiques de Richard Scorer fussent ridicules .
Il n’empêche que, en réponse aux controverses, Rowland cru nécessaire de publier, dans le New Scientist du 2.10.1975, un « rapport d’étape » (status report) de 4 pages "Chlorofluorométhanes ans stratospheric ozone - a scientific staus report", courbes et équations à l’appui.

Nous évoquons ici les principales critiques qui seront mises en avant pendant près de 40 ans.

2.1- L’éternel déséquilibre entre les modèles trop simplistes…

Richard Scorer appela à se méfier des modèles de chimie-transport des années 1970. D’abord la puissance des ordinateurs était, à cette époque, beaucoup plus réduite qu’aujourd’hui. Par conséquent, « les compromis réalisés entre modélisation de la dynamique et modélisation des réactions chimiques sont nombreux », afin d’éviter de conduire les capacités des ordinateurs à saturation, et afin de réduire le temps de calcul à un nombre d’heures raisonnable.
En quoi les pratiques de modélisation atmosphérique des années 1970 consistent-elles ? L’historien des sciences, Matthias Heymann, écrit dans un article  intitulé « Lumping, testing, tuning : the invention of an artificial chemistry in the atmospheric transport modelling » : "Depuis la fin des années 1950, écrit Heymann, la simulation informatique a été utilisée pour l’étude du transport des polluants dans l’atmosphère"… Matthias Heymann distingue trois moments dans l’élaboration des équations… :
- une phase de "lumping" (littéralement regroupement) qui permet de réduire le nombre d’équations dans l’atmosphère réelle, soit en regroupant plusieurs équations en une seule, en assimilant plusieurs composés à un seul, sous prétexte de leur appartenance à une même famille chimique.
- une phase de "testing", c'est-à-dire de comparaison des données mesurées et des résultats des simulations… mais il faut préciser que "souvent les éléments individuels des modèles de simulation ne peuvent être testés indépendamment, dans la mesure où seul le résultat global est accessible", quantifiable[12] (p.  353)
- Une phase de "tuning" (réglage) qui mène en particulier à l’élaboration de ce que les scientifiques de l’atmosphère appellent des "paramétrages". Les paramétrages  sont des expressions mathématiques souvent simples et induites à l’aide d’une argumentation empirique après l’analyse du comportement physique de données collectées lors de diverses campagnes de mesure in situ. Elles suppléent aux équations théoriques déterministes lorsqu’il n’est pas possible de les élaborer à l’échelle de la maille du modèle, mais seulement à une échelle inférieure[13].
Ces trois phases de lumping/testing/tuning se sont imposées dans les pratiques de modélisation de la stratosphère, …mais, jusqu’aux années 1980, il semble que les communautés de la stratosphère et de la troposphère aient rarement échangé afin de développer leurs modèles numériques respectifs.

2.2- L’éternel déséquilibre entre les modèles trop simplistes… et leur excès de complexité

Les modèles à deux et trois dimensions ont été élaborés au cours des années 1980 ; le nombre d’équations chimiques pris en compte augmenta inexorablement : "Plus de 192 réactions chimiques et 48 processus photochimiques sont impliqués dans la destruction de la couche d’ozone causée par les CFC, mais, aucun modèle de les reflète tous"[14]. C’est ce que reconnaissait une des scientifiques influents de la chimie atmosphérique pourtant proche des thèses de Molina.
Les premiers modèles tridimensionnels "ont été développés au début des années 1980. Ils prenaient en compte les effets turbulents et divisaient la terre en un maillage" géographique qui combinait donc altitude, latitude et longitude. Toutefois, comme en atteste le grand rapport international WMO/UNEP/… « atmospheric Ozone » de 1985, les scientifiques de l’ozone comptaient peu sur les modèles 3-D au milieu des années 1980.
Le professeur Bernard Aumont, du laboratoire LISA, visualise très bien le concept de modèle en 3D [15].

L’historienne Hélène Guillemot  parlera  d’un consensus « pratiquement général » qui se construira, y compris sur les incertitudes ! Elle juge délicat le compromis qui s’établira entre,
-  d’une part, un tropisme des scientifiques pour une complexité croissante des modèles, tropisme "naturel" en phase de "science normale", et renforcé par l’augmentation spectaculaire du nombre d’études sur le changement climatique et par la puissance croissante des ordinateurs;
-  et, d’autre part, le risque d’accroître les incertitudes des résultats des modélisations, à mesure que l’on intègre de nouveaux paramètres et de nouveaux résultats de mesure[16].

2.3- Le recours au catastrophisme

Il s’agit d’une pratique assez courante chez certains scientifiques qui, faute de pouvoir faire la preuve d’une relation de cause à effet, joue du catastrophisme sur les conséquences du phénomène dont ils prétendent expliquer les causes.
Richard Scorer suspecta M. J. Molina d’avoir suggéré à un journaliste que "nous serions bientôt frits par les rayons UV-B qui atteindraient la surface de la terre après destruction de la couche d’ozone", avant d’ajouter quelques lignes plus loin : "les scientifiques sont certainement tentés d’effrayer ceux qui tiennent les cordons de la bourse de la recherche, et de nombreux scientifiques m’ont dit qu’utiliser la peur pour obtenir des financements étaient de toute évidence une bonne tactique"[17].
Ceci étant, les adversaires de M. J. Molina usaient d’arguments tout aussi émotionnels comme celui de Lovelock pour remettre en cause les études sur le trou d’ozone : "Si trop d’UV pourrait vouloir dire : cancer de la peau, trop peu signifie très probablement : rachitisme … De faibles niveaux d’UV pourraient être bénéfiques à d’autres espèces d’une manière que nous ne connaissons pas encore"[18].
Comme souvent, certains analystes prétendent observer les conséquences d’un phénomène pour prouver son existence, même si ce raisonnement n’apporte aucun élément sur son origine causale. Malgré tout, un chercheur de l’Université d’Arizona, James McDonald, s’étonna des prétendus liens entre cancer et Ozone. En 1970, des médecins croyaient que les radiations ultraviolettes causaient certaines formes de cancer de la peau. Or, disait James McDonald, "la couche d’ozone nous protège de ce type de radiations. S’il y avait déplétion, le nombre de cancers de la peau augmenterait. Pour James McDonald, le facteur amplificateur était en effet de 6 : chaque % de réduction de la concentration d’ozone produirait 6% d’augmentation de cancers de la peau". McDonald rendit compte de ces effets devant le Congrès en mars 1970.

2.4- Le caractère unidimensionnel des modèles de l’époque

La critique de Richard Scorer porta principalement sur le caractère unidimensionnel des modélisations qui ne prenaient donc pas seulement en compte la dimension verticale des masses d’air. Les processus d’advection, qui se déploient dans les deux autres dimensions du référentiel atmosphérique, manquaient à l’appel. Il pointa du doigt la dynamique atmosphérique trop simpliste de ces modèles. Les rapports officiels ont d’ailleurs confirmé la critique : « L'incapacité des modèles unidimensionnels et bidimensionnels à reproduire l'ozone stratosphérique supérieur et les différences significatives parfois observées entre les modèles… sapent notre confiance dans l'évaluation à long terme » (rapport WMO/UNEP 1985, introduction, p. 18).

2.5- Les réalisations qui ne confirment pas les prévisions

Un chimiste britannique, Robert Watson créa en 1986  un « Ozone Trends Panel », composé de 21 membres[19]. Ce panel devait chercher à résoudre le conflit entre les mesures antarctiques  des masse surfacique de l'ozone, exprimées en Dobsons[20], et celles du satellite instrumental « Total Ozone Mapping Spectrometer  (TOMS) ». Le Panel conclut que les données satellites donnaient bien, comme les ‘Dobson’, une destruction d’ozone dans les latitudes moyennes en hiver. Toutefois, même après de nouvelles analyses, en 1988, les tendances à la baisse que l’on pouvait dégager avec les données de TOMS étaient toujours "deux fois plus importantes que celles prédites par les modèles théoriques"[21]. Il est symptomatique de voir que le futur prix Nobel, F.S. Rowland, était signataire de ce rapport et avait donc conscience des écarts entre prévisions et réalisations. 

Les scientifiques convaincus de la pertinence de l’hypothèse de Molina-Rowland hésitèrent à lancer de nouveaux appels à légiférer. La première raison tenait au fait que, sur la base de nouvelles mesures (réalisées notamment à l’aide de LIDAR et de détecteurs de micro-ondes), un consensus s’est dégagé à la fin des années 1970 sur le fait que les chlores agissaient surtout autour de 40 kilomètres d’altitude. Par conséquent, les émissions anthropiques de composés chlorés engendreraient une destruction d’ozone moindre que prévue auparavant, pour des altitudes plus faibles, plus riches en ozone. Pour cette raison d’altitude et d’autres raisons scientifiques, la destruction d’ozone prédite par la plupart des modèles diminua de manière générale entre 1979 et 1983, par rapport aux prédictions antérieures.
Les prédictions de destruction de la couche d’ozone passèrent de 15% (CCOL n°3 ; Paris, 1979) à 10% (CCOL n°4 ; Bilthoven, 1980), puis à 5-10% (CCOL n°5 ; Copenhague, 1981) et à 3-5% (CCOL n°6 ; Genève, 1983)[22]. Or, à cette époque, les décisions politiques d’interdiction des CFC (Chloro-Fluoro-Carbonés) ne pouvaient pas avoir eu d’effet, d’autant moins que les experts reprochaient une longue durée de vie de ces composés dans la stratosphère. 

Le rapport officiel de 1985 reconnaissait d’ailleurs que « Notre confiance dans les modèles (en particulier à des fins d'évaluation) dépend de la «validation» satisfaisante de ces modèles par rapport aux données disponibles. C'est trop souvent un exercice extrêmement subjectif  ». (rapport WMO/UNEP 1985, Vol. 1, introduction, p. 17).
Dix ans après, les rapports admettaient que l’incertitude n’était pas levée : « Des modèles tridimensionnels et bidimensionnels ont été utilisés pour simuler la chimie des nuages stratosphériques polaires (PSC) dans le vortex et comment le transport vers l'équateur de l'air polaire perturbé chimiquement peut affecter l'ozone à mi-altitude. Notre manque de compréhension des mécanismes détaillés de la dénitrification, de la déshydratation et des processus de transport réduit notre confiance dans ces prévisions du modèle » (rapport WMO 1994, Stratospheric models § 6.1, p. 261).
Dans ce contexte d’édulcoration du risque et de forte instabilité de la science de l’ozone, les industriels états-uniens allaient réclamer "plus d’expertise scientifique", et surtout "plus de mesures d’ozone in situ et de données de laboratoire"[23]
Avec le temps, les prévisions ne se réalisèrent toujours pas : vers 1990, les "preuves empiriques" d’une destruction anthropique d’ozone importante au-dessus de l’Antarctique mirent à mal la théorie chimique de l’ozone, que les auteurs du grand rapport de 1985 pensaient être parvenus à stabiliser. Des campagnes de mesures indiquèrent qu’un trou "se creusait" aussi en Arctique d’une année sur l’autre, le phénomène étant de moindre ampleur qu’en Antarctique, toutefois). Les scientifiques proposeront en particulier une théorie complexe de chimie hétérogène pour les nuages polaires stratosphériques (ou PSC, pour ‘Polar Stratospheric Clouds’) [24].
Comment les prévisions des modèles pourraient-elles se réaliser quand on lit que « les projections futures n'incluent pas l'influence des éruptions volcaniques ou des variations du cycle solaire » (Rapport WMO 2010, rapport pour les décideurs, fig. ES2 §d).

2.6- Le consensus : argument d’autorité développé par Molina

Charles Scorer reproche ce recours à l’idée de consensus : "On a dit que, puisque plusieurs modèles à une dimension faits par des personnes différentes avaient donné des résultats semblables, il existait par conséquent un consensus [souligné en gras par Scorer] à l’intérieur de la communauté scientifique … Or l’accord survint parce que tous les scientifiques avaient utilisé le même modèle défaillant et obtenu la même réponse erronée"[25].

2.7- Le procès en conflit d’intérêt entre Molina et Rowland vis-à-vis de la NASA

Plus tard, à Kyoto, les deux chercheurs insistèrent sur le chlore d’origine volcanique comme destructeur potentiel de la couche d’ozone, parce que la NASA leur aurait demandé de ne rien dire à propos de la navette spatiale.

2.8- L’absence de recours à la discipline de la détection-attribution

a) L’identification des systèmes climatiques complexes.

Nous verrons au § 7 que, près de quarante ans après l’étude publiée par M. J. Molina et F. S. Rowland, des chercheurs se sont intéressés à l’impact des variations de rayons cosmiques sur la couche d’ozone. D’autres se sont interrogés sur l’impact éventuel de l’activité volcanique.
La détection d’un effet, l’épaisseur de la couche d’ozone, et son attribution à une de ces causes nécessitent l’appel à de multiples disciplines : des climatologues, aérologues, aéronomes, chimistes, physiciens, hélio-sismologues, géographes, médecins, … Comment mettre d’accord toutes ces disciplines ? L’identification des systèmes complexes est la seule qui permet de quantifier des relations de cause à effet et de donner une cohérence scientifique à des disciplines aussi diverses, dont certains s’occupent des causes et les autres des conséquences.
Cette discipline nécessite de définir une structure simple du modèle d’identification, d’observer, sur une longue durée, le comportement du système, d’identifier quelques paramètres essentiels du système et d’évaluer a posteriori la validité du modèle.

b) Les difficultés de la « détection - attribution » dans les années 1970-2000

Malheureusement, pendant les années 1970 à 2000, la communauté scientifique ne disposait pas de mesure séculaire, ce qui est un minimum. Les premières données sur l’ozone stratosphérique datent seulement des années 1930.  S. Larsen et T. Hendrikson ont analysé les données accumulées depuis 1935 à Oslo et Trömso sur l'ozone du cercle arctique et publié des résultats dans Nature en 1990. La concentration en ozone serait restée constante, si on exclut la baisse des années 1958 à 1962, époque où les CFC n'étaient pas encore utilisés à grande échelle. Quatre études[26] américaines, qui portent sur les années 1970 à 1984, donnent une variation de la concentration d'ozone stratosphérique qui va de -0,26 à +1,5, variation insignifiante et qui reste dans les limites de l'erreur de mesure.

C’est ce qui a amené beaucoup de scientifiques à remettre en cause l’approche de M. J. Molina et F. S. Rowland sur plusieurs critères :

- le paramétrage de leurs modèles
Lorsqu’ils ont pris en compte des aspects dynamiques, les modélisateurs de la chimie stratosphérique s’en sont jusqu’alors tenus au mieux à des paramétrages très grossier des mélanges de polluants dans l’atmosphère.

- la collecte des mesures
Nombreux sont les scientifiques de l’atmosphère qui concédèrent les grandes limitations de la modélisation numérique des variations de concentration d’ozone stratosphérique en fonction de l’apport en polluants  parce que les simulations étaient très imparfaitement soutenues par les mesures atmosphériques physiques et chimiques[27].

- l’absence de prise en compte des variations naturelles
Dès 1978, un article publié dans la revue Nature par Jack Fishman et Paul Crutzen “The origin of ozone in the troposphere”, contesta le fait que, comme le pensent la plupart des atmosphériciens de l’époque, la première source d’ozone troposphérique provienne de la stratosphère, en descendant massivement au niveau des hautes latitudes moyennes de chaque hémisphère. Les deux chercheurs du National Center for Atmospheric Research (NCAR) arguaient que, puisqu’il y a beaucoup plus de terre dans l’Hémisphère nord, et par conséquent plus de captation d’ozone atmosphérique (car les vitesses de déposition d’ozone atmosphérique sont plus importantes au niveau des terres que des océans), on aurait dû observer un déficit d’ozone dans l’Hémisphère nord. Les mesures n’indiquaient rien de tel[28].
Il faudra donc attendre les années 2005 pour que des observations sur des durées suffisantes permettent de retenir d’autres causes des variations de la couche d’ozone. (cf § 7)

c) Ni quantification ni calcul de probabilité !

Quand il n’y a pas de quantification des relations de cause à effet, il n’y a pas, bien sûr, de calculs de probabilité qui pourraient préciser les degrés de confiance que les scientifiques accordent à leurs allégations. Dans les rapports officiels de 1985, il est même précisé que « le déséquilibre significatif de l'ozone dans la région photochimiquement contrôlée de la moyenne atmosphère limite la confiance que l'on peut accorder aux prédictions du modèle des futurs changements d'ozone en réponse aux augmentations à long terme des concentrations atmosphériques de gaz sources (chlorofluorocarbones, protoxyde d'azote, méthane) » (rapport UNEP/WMO 1985, Vol. 1, introduction, p. 14).

Et quand le même rapport chiffre à 95% le degré de confiance, il ne s’agit pas de la probabilité de relation de cause à effet, mais d’un simple degré de précision de la mesure des observations de taux d’ozone : « L'examen du programme de mesure satellitaire NOAA SBUV-2 indique que si le système fonctionne comme prévu, il est capable de détecter les tendances de l'ozone dans la stratosphère moyenne à supérieure, ainsi que l'ozone total, à environ 1,5% sur une période d'une décennie au niveau de confiance de 95% ». (Rapport WMO/UNEP 1985, Vol. 1, introduction, p. 20)

2.9- La problématique géographique

Les scientifiques s’interrogent également sur la raison pour laquelle le « trou d’ozone » se trouverait surtout au dessus de l’Antarctique, où, à l’évidence, les émissions de gaz industriels sont les plus faibles. Or les vents polaires majoritaires poussent les masses d’air vers les latitudes faibles et non vers les pôles. Pourquoi ces gaz, surtout émis par l’hémisphère Nord exerceraient-ils leur ravages dans l’hémisphère sud ?Certes, les nuages convectifs tropiques peuvent même aller jusqu'à entraîner des gaz se trouvant au niveau du sol jusqu'à la partie stratosphérique, mais les courants de haute altitude oscillent essentiellement d’est en ouest et vice versa (Oscillations Quasi Biennales - QBO) ; les vents d’altitude  de la Cellule de Ferrel, c'est-à-dire dans les zones tempérées et donc les plus industrielles, sont orientées des pôles vers l’équateur et non l’inverse. Ces turbulences ne plaident donc pas pour des accumulations de gaz industriels sur les pôles.
La question se pose d’autant plus que des mesures faites à 30 km d'altitude montrent qu'on n'y trouve pas de CFC[29], là où les baisses les plus fortes d’ozone sont enregistrées. Ces molécules lourdes ont plutôt tendance à tomber sur le sol, à s'y infiltrer dans les fissures, à être adsorbées sur les argiles et l'humus et à être détruites par des bactéries anaérobies friandes de cette substance. Ou bien elles tombent sur la surface des lacs et des mers et y sont dissoutes dans l'eau et détruites par les micro-organismes et les algues. La végétation absorbe également de grandes quantités de fréons comme l'ont montré les analyses de fumées de forêts.

3.- L’élaboration d’indices et de concepts hasardeux

3.1- Les indicateurs relatifs à la couche d’ozone

En 1981, et à la demande de l’US Environmental Protection Agency (EPA), Donald Wuebbles[30] introduit une notion de « potentiel relatif de destruction d’ozone des gaz » (ODP). Celle-ci est une estimation quantifiée du potentiel relatif de destruction d’ozone des halocarbones par rapport à un gaz référent, l’un des deux CFC les plus libérés dans l’atmosphère (avec le CFC-12), le CFC-11. « Les valeurs d'ODP ont toutes été basées sur les changements d'ozone calculés dans une atmosphère modélisée » (rapport WMO 1989, § 4.3.4.2). Cette atmosphère modélisée exclue tout effet éventuel des rayons cosmiques.
D’autres indicateurs seront introduits dans les débats sur l’ozone peu après l’ODP :
- La "charge en chlore (‘chlorine-loading’) »
- et le "potentiel de charge en chlore (‘chlorine loading potential’ (CLP)" de la stratosphère.
Pourtant, étant donné l’absence de quantification rigoureuse de relation de cause à effet entre le CFC-11 et la couche d’ozone, il est hasardeux de comparer de manière très théorique les effets d’autres molécules par rapport à ce CFC-11, dont, en définitive, aucune preuve définitive de l’effet n’a été apportée. C’est pourquoi plusieurs controverses auront lieu au sujet des conséquences politiques de l’utilisation, soit de l’ODP, soit de la charge en chlore stratosphérique. On fera, en particulier, remarquer que certains ODS n’ont pas le même ODP selon la composition de l’air où ils se trouvent.
Il n’empêche : des tableaux comparatifs de l’ODP est largement diffusé aux négociateurs. C’est ainsi que l’ODP et la "charge en chlore" joueront  un rôle décisif de médiation entre les décideurs politiques et l’industrie, et entre les négociateurs nationaux.
Comme l’a montré Karen Litfin[31], en 1989, les scientifiques de l’ozone jugeaient qu’ils avaient établi le lien entre trou de la couche d’ozone et CFC sur la base de leurs mesures de terrain. Mais, la théorie du trou de la couche restait quant à elle seulement embryonnaire. Dans une telle situation où les modèles étaient impuissants à rendre compte du phénomène, écrit K. Litfin, l’utilisation de la charge en chlore de l’atmosphère comme indice était « la stratégie discursive » la plus crédible pour formuler des propositions de nouvelles réglementations, dans la mesure où un calcul fiable d’ODP nécessitait une théorie physico-chimique qui n’existait pas encore.

3.2- Les indicateurs faisant le lien entre l’ozone et le climat

a) Invention et contenu des indicateurs
Au milieu des années 1980, des scientifiques décident d’élaborer un "Global Warming Potential" (GWP) sur le modèle de l’ODP. On ajoutera[32] un indicateur "Halocarbon Global Warming Potential" qui est le GWP spécifique aux halo-carbones. La référence est à nouveau celui du CFC11 = 1.
Quand le Giec sera créé en 1987, ses experts retiendront le CO2 comme gaz de référence en remplacement du CFC11. Des collègues aéronomes-climatologues demanderont alors à Donald Wuebbles de développer un GWP pour le GIEC, qui serait « un pouvoir de réchauffement climatique » relatif au pouvoir de réchauffement du CO2 (avec GWP (CO2) =1)[33]

Les inventeurs de ces indices se drapent derrière un paravent de formules mathématiques qui les rendent crédibles.

Ce n’est que sept ans après son invention que l’indicateur est évoqué dans les rapports Mais ces rapports donnent des tableaux comparatifs des ODP/GWP. Il y est simplement indiqué que « des modèles atmosphériques globaux unidimensionnels et bidimensionnels ont déterminé des ODP pour un certain nombre d'halocarbures, y compris des CFC, d'autres composés chlorés, plusieurs hydrohalocarbures de remplacement potentiels et plusieurs composés bromés » (rapport WMO 1989, résumé pour les décideurs, p. xxix), or, ce sont précisément ces modèles que les mêmes auteurs jugent comme relevant d’un « exercice extrêmement subjectif  » !  (cf ci-dessus § 2.5). En tout état de cause, la « discussion » n’est pas à l’ordre du jour, puisque dans le cœur du rapport WMO de 1989, il est simplement dit : « Le concept de potentiel relatif d'appauvrissement de la couche d'ozone (PDO), introduit par Wuebbles (1981), a été adopté comme référence ou référence rapide pour estimer le potentiel relatif de destruction de l'ozone stratosphérique par les CFC et autres halocarbures. … Ce concept joue un rôle important dans la mise en œuvre des politiques de réglementation pour les CFC entièrement halogénés adoptés dans le Protocole de Montréal » (rapport WMO 1989, § 4.3, p. 424). Qu’importe le contenu du « concept » (sic) pourvu qu’on ait l’ivresse de pouvoir en tirer des « politiques de réglementation ».
Qui plus est, il semble que les valeurs chiffrées découlent « du modèle de DuPont » (rapport WMO 1989, § 4.3, p. 425, fig. 4.3.1) ! Que penser d’indicateurs comparant des substituts de CFC quand ils sont élaborés par l’industriel produisant les dit-substituts ?

Le GWP (‘Global Warming Potential’) est-il  moins apte à corréler les émissions à des changements de température que le GTP (‘Global Temperature Potential’) ?
"La plupart des problèmes avec le GWP et le GTP ne sont pas intrinsèques aux métriques elles-mêmes, renchérissent les auteurs, mais à l’imposition d’une unique échelle de temps pour calculer la métrique"[34]. C’est pourquoi les auteurs ont proposé à Kyoto, au lieu d’utiliser uniquement un GWP100 à horizon 100 ans,  d’utiliser un GWP25 (forçage radiatif sur 25 ans, par rapport à l’action d’une même quantité de CO2), et les impacts à horizon 50 ans, à l’aide d’un GWP50. Tout cela ne donne pas plus de fondement scientifique à un GWP100 qui n’en n’avait pas ! 
Les inventeurs de ces indices reconnaissent que « de nombreuses incertitudes subsistent. L'établissement d'un critère strict pour estimer l'incertitude globale dans les ODP calculés n'est pas une tâche simple. Il existe encore de nombreuses incertitudes associées au traitement des processus chimiques, radiatifs et dynamiques de l'atmosphère dans les modèles actuels. L'incertitude la plus importante est peut-être qu'aucun des modèles utilisés pour calculer les ODP n'inclut les processus chimiques et dynamiques à l'origine des pertes saisonnières d'ozone associées au trou d'ozone au-dessus de l'Antarctique » (rapport WMO 1989, § 4.34, p. 430)[34bis]. « Incertitude » ! On est en plein euphémisme quand, dans les programmes du secondaire, on enseigne déjà qu’un ratio n’est pas déterminable quand le dénominateur n’est pas déterminé. Or l’« identification des systèmes complexes » permet de considérer que le soleil est la principale cause des variations climatiques et qu’il n’est pas exclu que l’effet du CO2 soit nul. Dès lors comment fonder des calculs de GWP autour du CO2 ? Il en est de même pour l’élaboration d’un indicateur ODP. Dès lors que les variations de rayonnement cosmiques, ou de volcanismes n’ont jamais fait l’objet d’une véritable quantification par détection/attribution, toute élaboration d’un tel indicateur par rapport au CFC11 ne peut être que théorique.

b) Utilisation des indicateurs ODP et GWP

Les inventeurs de ces indicateurs ont réussi la performance d’entraîner tous les négociateurs et experts sur ce terrain sans chercher à en vérifier la crédibilité. Il n’empêche que des tableaux comparatifs des ODP et GWP seront diffusés partout, tant dans les instances de gouvernance que dans l’industrie.
Tous ces indicateurs n’ont pas plus de sens que toute une litanie d’autres indicateurs : ADP (Abiotic depletion potential),  AETP (Aquatic ecotoxicity potential), AP (Freshwater acidification potential), CED (Cumulative energy demand), EP (Eutrophication potential), HTP (Human toxicity potential), POCP (Photochemical ozone creation potential), TETP (Terrestrial ecotoxicity potential), WD (Water demand).  Ces outils évoquent des pollutions multiples, plus locales que planétaires, mais dont il ne faut pas lier l’existence. Malgré tout, les conditions locales sont trop différentes pour que ces indices aient un sens global. Ils sont probablement élaborés par une société civile qui rêve de réglementation, de normes à imposer pour créer, pense-t-elle, une "croissance dite verte".

c) La critique interdite sur ces indicateurs

L'un des inventeurs du test de QI se fit, dit-on, prendre à partie un jour sur la définition du QI. A chaque tentative de réponse, son interlocuteur lui montrait que les caractéristiques mesurées par ce test ne correspondaient pas à une véritable intelligence des choses. A la fin excédé, il répondit: "Vous voulez vraiment savoir ce que c'est que le QI? Hé bien c'est ce que mesure mon test". On n'est pas loin de cette boutade avec les paramètres d'ODP et GWP. Dans les deux acronymes, on trouve le "P" de "Potentiel". Dans un cas comme dans l'autre, on part d'hypothèses sur un mécanisme (de dégradation de l'ozone, ou de réchauffement climatique). Puis, on compare entre eux ce que seraient les effets de divers produits selon ces hypothèses. La démarche a l'avantage d'être cohérente, ce qui ne veut pas dire qu'elle corresponde à une réalité. Elle n'a que l'intérêt d'analyser les impacts potentiels de telle ou telle politique de restriction des produits incriminés. Dans ce sens, ces outils peuvent être utiles pour une application du principe politique de précaution, qui n'a rien à voir avec le principe de prudence. Cela nécessite de garder un regard critique sur la validité des hypothèses sous-jacentes, laquelle conditionne la validité de l'ensemble de la démarche. Là où le bât blesse, c'est que cette critique est interdite, et qu'on présente comme vérités révélées les hypothèses sous-jacentes.
Moralité: le serpent se mord la queue. Pour positiver, on peut se réjouir qu'il y ait, pour encore combien de temps?, dans ces acronymes le P de "Potential", et non le E de "Effect".

3.3- Le concept de panier d’ODS

Au fur et à mesure que les industriels proposent des substituts aux CFC, certains d’entre eux ne sont pas jugés anodins au regard de leurs prétendus ODP. On assiste, dès lors, à la mise en place vers 1989, d’une logique de paniers multiples[35]. Ce sont essentiellement Susan Solomon, John-S. Daniel,  Mack McFarland et leurs collègues qui ont imaginé que chaque groupe de substances destructrices d’ozone (ODS), ou panier, devait être réglementé séparément.
- un premier panier regroupe les CFC (CFC-11, -12, -113, -114, et -115)
- le second panier se limite pour ainsi dire aux HCFC
- le troisième panier rassemble  le tétrachlorure de carbone
- le quatrième panier se limite au méthylchloroforme
- le cinquième panier rassemble les divers halons dans un cinquième, etc. .. 
Les divers halons ont probablement été mis en dernier car, il n’y a aucun substitut pour le Halons@R utilisé pour la lutte contre les incendies sur les aéronefs et les data-centers. Le tétrachlorure de carbone est considéré comme « artificiel », comme les CFC et est interdite en vertu du protocole de Montréal, alors que le tétrachlorure de carbone est émis par le gigatonne de volcans, sources hydrothermales et altération la biomasse (voir Gordon Gribble-Dartmouth).
Les négociations de réduction de production et de consommation ce font pour chaque panier, mais pas entre paniers[36].
Cette  approche sera étendue aux gaz à effet de serre lors du protocole de Kyoto, mais en accordant plus de flexibilité aux GES que le protocole de Montréal n’en avait accordé aux émetteurs d’ODS.
Quand on sait le peu de fondement scientifique des ODS, on comprend qu’on est en plein concept politique voire commercial. D’ailleurs, les initiateurs de la méthode parlent de "choix trading"[37]  ou de "cap-and-trade" pour les émetteurs d’ODP. 

4- La controverse inhibée par l’administration américaine et la stratégie Dupont de Nemours

Les historiens parleront d’une forme d’armistice entre les parties. Ceci ne signifie pas, comme on va le voir, que les véritables arguments aient été étudiés en profondeur. Mais force est de constater que les controverses des années 75-80 vont s’éteindre assez naturellement pour plusieurs raisons.

4.1- L’amendement au Clean-Air Act de 1977

Le Clean Air Act (CAA) était une loi fédérale introduite en 1963 traitant de la pollution de l’air. L’amendement au Clean Air Act de 1977 décida d’interdire la vente sur le sol états-unien des produits contenant des CFC dans les secteurs de l’alimentation, des médicaments, des appareils ménagers et des produits cosmétiques (à l’exception des inhalateurs doseurs), puis l’arrêt de toute production manufacturée de propulseurs aérosols aux CFC dans le pays[38].
Pourtant l’amendement stipule que "la preuve empirique de la destruction de l’ozone n’était pas requise pour activer une action réglementaire". Cette loi n’a donc pas été fondée sur une preuve d’un lien entre la couche d’ozone et les CFC. Malgré tout, ce texte rendait un peu stérile la poursuite de la controverse

4.2-  Le changement de stratégie de l’industrie américaine des CFC

L’étouffement de la critique scientifique sera également le résultat d’un changement graduel d’attitude de l’industrie des CFC qui finira par prend acte de l’inéluctabilité d’un abandon à court terme de tout CFC au vu de la mobilisation médiatique et politique pour la sauvegarde de la couche d’ozone au milieu des années 1980.
ar ailleurs, elle avait entamé, dès 1975 un processus de développement de substituts aux CFC (p 429). Les produits de substitution aux se devaient se vendre 15 fois plus chers que les CFC d’origine. Certains s’interrogent même sur le financement des ONG environnementales par des industriels : Edgar Bronfman, un des actionnaires principaux de Dupont de Nemours aurait fait de substantielles donations aux associations vertes aux États-Unis. Un des principaux héritiers de la famille ICI en Angleterre, Lord Peter Melchett, est directeur de Grenpeace dans ce pays[39].
Les industriels iront jusqu’à développer une recherche scientifique privée sur les impacts des CFC qui allaient plutôt dans le sens des experts internationaux. 
En 1989, lorsque les substituts au CFC se développent et commencent à être, à leur tour suspectés d’être également nocifs, 15 industries productrices d’ODP utilisent la même stratégie en constituant un consortium « Alternative Fluorocarbon Environmental Acceptability Study » (AFEAS)[40]. Ce consortium produit une étude sur les dangers  des substituts. Leur souci est, à l’évidence, de ne pas reproduire leur erreur antérieure, mais de générer une plus grande confiance des industriels dans la théorie de la destruction anthropique de l’ozone. Ils ont compris, par ailleurs, que c’était une stratégie efficace pour gagner la bataille mondiale de la production de substituts à « pouvoirs de destruction » (ODP) faibles.
Cette confiance amène d’ailleurs les États-Unis à souhaiter "harmoniser" par le haut les réglementations des CFC. Ils veulent amener Allemands, Français, Britanniques, Japonais, Soviétiques, etc. à s’aligner sur les objectifs de réductions nord-américains.  Or, il faudra pour cela que l’expertise de l’ozone se présente comme une science "universelle", "neutre", et non une science nord-américaine. Des scientifiques de certains pays sont donc invités aux ‘Workshops’ bien que les américains savent très bien que leur contribution sera marginale. On espère qu’ils pourront mobiliser leurs pays sur l’ozone, « adoucir les préjugés nationalistes » et servir d’ambassadeurs. Il s’agit, d’autre, de créer un sentiment d’appartenance à une élite, autour de la rédaction d’un grand rapport international soutenu par l’ONU. Des rencontres scientifiques internationales sur l’ozone qui se déroulent de manière ritualisée à partir de 1976-77 ont une fonction sociale évidente. Elles sont financées  par  l’ONU ou même parfois par la NASA elle-même.

4.3- La création de l’UNEP

Une nouvelle institution de l’ONU, le Programme des Nations unies pour l’Environnement (UNEP) est créé le 15.12.1972. En mal de reconnaissance, l’UNEP organise, à Washington en mars 1977, la première grande rencontre transnationale et "hybride" sur la couche d’ozone.
Il s’agit, non seulement d’aboutir à une standardisation accrue des instruments de mesures, mais également de "standardiser", d’homogénéiser, de faire converger les savoirs sur l’ozone. Ce but est imparfaitement atteint. A la fin des années 1970 et au début des années 1980, les projections de destruction anthropique d’ozone à l’aide de modèles numériques donnent des résultats souvent difficilement conciliables. Il en va de même au sujet des mesures spectroscopiques d’ozone (au sol, depuis l’espace). Tous ces ‘Workshops’ internationaux génèrent un sentiment d’appartenance à une communauté internationale et "écologique".
Les américains attirent des scientifiques aux ‘Workshops’ en faisant ressortir leur valeur professionnelle, déclarant que « les meilleurs scientifiques du monde s’y trouveraient »[41], et que ces rencontres donneraient naissance à "un document dont ils pourraient tous être fiers".  L’aspect vertueux d’un travail contribuant à la protection de l’environnement est bien sûr mis en avant et contribue à la procédure de consensus. Tout cela ne laisse plus de place au dissensus.

4.4- Le monopole américain des mesures satellitaires

L’avantage pris par la recherche états-unienne est patent : d’abord, en matière de développement des modèles numériques, qui impliquent de posséder des ordinateurs puissants, que l’on trouve notamment au LLNL et au NCAR ; ensuite et surtout, sur un plan instrumental, puisque la recherche états-unienne se trouve en capacité de déployer des technologies multiples, dont les plus coûteuses, pour mesurer par satellite les paramètres importants dans la science de l’ozone. Tout cela ne facilite pas l’émergence d’équipes pour contester les travaux de la NASA et de  la NOAA.

4.5- La fuite des « cerveaux » de l’ozone vers le GIEC

Au cours des années 1970-80, des chimistes de l’ozone se familiarisent avec la problématique du changement climatique. Lorsque le GIEC sera constitué, en 1988, certains d’entre eux, comme Susan Solomon, Robert Watson et Donald Wuebbles vont compter parmi les auteurs du premier rapport AR1 du GIEC.
D’autres scientifiques de l’ozone, révélés par l’expertise "à succès" de l’ozone, surent mettre à profit la nouvelle force qui était la leur, pour proposer des voies politiques à suivre en matière de réductions de GES, de géo-ingénierie, de pollution dans les villes, d’environnement global. C’est le cas de Paul Crutzen, de Mario Molina, de Susan Solomon, de Ralph Cicerone, ou encore de Michael McElroy.
Les rares experts qui contestent les modèles sur l’Ozone se retrouvent isolés et s’emploieront à utiliser leurs compétences pour contester l’inefficacité des modèles sur l’effet des Gaz à effet de Serre.
D’une certaine manière, le combat cessa faute de combattants. Cela ne servait pas vraiment l’émergence de la vérité scientifique sur les causes de variations de la couche d’ozone.

4.6- La signature des accords internationaux

Les controverses scientifiques au sujet de la destruction anthropique de l’ozone stratosphérique s’apaisent au début des années 1990. Jugeant que la gouvernance de l’ozone a été actée, en Occident, les médias, les « marchands de doute » et les scientifiques de l’atmosphère s’intéresseront de moins en moins à l’ozone et s'orienteront, faute de budgets, vers des études sur le changement climatique. Cela ne facilitait pas la poursuite de la controverse.

5- Un temps de prises de décisions politiques

5.1- Décisions politiques fondées sur des approximations

- Même dans le grand rapport international mis en place par la Convention de Vienne sur l’Ozone, WMO/UNEP/…, 1985, on pouvait lire que « aucune tendance "statistiquement significative" ne peut être dégagée des mesures par spectrophotomètres Dobson au sol dans la période 1970-1983, ni des mesures par ballons-sondes, ni des satellites. la menace d’une destruction (globale) d’ozone repose alors sur des modélisations numériques utilisant notamment l’hypothèse de Molina et Rowland. Par contre, ajoutent les experts internationaux, une preuve récente a été présentée, qui indiquait une diminution considérable de la colonne d’ozone antarctique printanière depuis 1968 ».
Il est symptomatique de voir que, même après que la signature de la convention de Genève sur l’ozone, qui prenait donc des décisions politiques en la matière, les rapports officiels reconnaissaient l’absence (WMO/UNEP, 1985)[42], de "tendance statistiquement significative". Ces rapports qualifient de simple "hypothèse" les travaux de Molina et Rowland. C’est pourquoi  ils ont recours à "une preuve récente a été présentée, qui indiquait une diminution considérable de la colonne d’ozone". Or un tel recours à l’observation des conséquences (épaisseur de la couche d’ozone) ne dit rien de la cause (CFC ou rayons cosmiques)

- Seuls les modèles post-1985 calculeront les destructions dites du trou d’ozone, aux pôles, mais également des destructions jugées beaucoup moins rapides, au niveau des moyennes et basses latitudes. Or, ce n’est que dans les années 2010 que Stephen Wilde constatera, parallèlement aux Oscillations Arctiques (AO) du Jet Stream, des oscillations de teneur en ozone en haute altitude au niveau de l’équateur et d’expliquer cette variation en fonction de l’activité solaire : quand le soleil est actif, on constate une phase positive de l’ozone stratosphérique à l’équateur et l’inverse en phase solaire inactive[43].

5.2- La Convention de Vienne

Elle est signée le 16.9.1987. Ses organes scientifiques sont essentiellement américains : le  CIAP[44] et la NAS (National Academy of Sciences)

5.3-  Le protocole de Montréal

Le "Protocole de Montréal relatif à des substances qui appauvrissent la couche d'ozone" est signé le 22.3.1985. Cette signature et celle de ses amendements ne se fit pas dans le contexte idéal qui a souvent été dépeint, mais toujours dans un climat de controverse scientifique.

5.4- La mise en place d’organes de gouvernance

Les groupes d’évaluation furent les piliers du régime de protection de l’ozone dès le début de la mise en œuvre du Protocole de Montréal :
A partir de 1989, les groupes d’experts internationaux soutenus par l’ONU prendront leur forme définitive, en trois groupes :

  1. Le Scientific Assessment Panel (SAP), en français Groupe de l’évaluation scientifique (GES). Il mesure l’appauvrissement de la couche d’ozone et passe en revue les questions dont il y a lieu de tenir compte du point de vue des sciences de l’atmosphère. Il publie les ‘Scientific Assessments of Ozone Depletion
  2. L’Environmental Effects Assessment Panel (EEAP), en français Groupe de l’évaluation des effets sur l’environnement (GEEE), évalue les effets divers de l’appauvrissement de la couche d’ozone
  3. Le Technology and Economic Assessment Panel (TEAP), en français, Groupe de l’évaluation technique et économique (GETE).

Il est l’organe consultatif des Parties au Protocole de Montréal pour les questions techniques et économiques. Il produit des rapports annuels.
Le Groupe fonctionne à l’aide de six Technical Options Committees (TOCs), en français Comités des choix techniques (CCT) :
- le Comité des choix techniques pour les produits chimiques, (CTOC)
- le Comité des choix techniques pour les mousses souples et rigides, (FTOC)
- le Comité des choix techniques pour les halons, (HTOC)
- le Comité des choix techniques pour les produits médicaux, (MTOC)
- le Comité des choix techniques pour le bromure de méthyle (MBTOC)
- et le Comité des choix techniques pour la réfrigération, la climatisation et les pompes à chaleur (RTOC)

5.5- Une gouvernance érigée comme une « référence » pour le climat

En 1988, l’OMM et l’ONU décide de constituer le GIEC. Dès lors, la chimie atmosphérique a intégré les rapports du GIEC
La gouvernance de Montréal est immédiatement recopiée pour le GIEC :
- Le GIEC  est lui aussi composé de trois groupes : un groupe "scientifique" (‘Working Group I’), un groupe sur les "impacts, l’adaptation et la vulnérabilité" (‘Working Group II’) et un groupe sur les moyens d’ "atténuer" le changement climatique (‘Working Group III’).
- On parle de Gaz à effet de Serre (GES, comme on parlait des composés destructeurs d’ozone (ODS, ‘Ozone Depleting Substances’)
- Les trois groupes d’experts du GIEC rédigeront des rapports, publiés conjointement tous les sept ans (AR1 1990, AR2 1995, AR3 2001, AR4 2007, AR5 2014), de la même manière que les rapports « Assessments of Ozone Depletion » étaient publiés régulièrement (NASA/UNEP/WMO/…, 1985; WMO/…, 1989; WMO/…, 1992; WMO/…, 1994; WMO/…, 1999; WMO/…, 2003; WMO/…, 2007; WMO/…, 2010)[45]
- Comme on l’a vu, l’indice ODP (‘Ozone Depletion Potential’), a servi de modèle au GWP (‘Global Warming Potential’)
- On vit même la mise en place similaire de courbes induisant le sentiment d’urgence : la courbe en "crosse de hockey", de la même manière qu’il y avait eu la courbe dite en forme de "pistolet qui fume (‘smoking gun’)"[46] établie en 1989 par Anderson.
La courbe "smoking gun", faisait allusion à l’expression anglo-saxonne qui évoque le pistolet fumant comme étant l’élément essentiel “qui prouve un crime”. Mais cette courbe n’apporte aucune preuvePerpetrators of financial crimes have a reputation of destroying paperwork because doing so reduces the possibility that authorities will find a smoking gun. puisqu’elle ne donne pas les teneurs en Ozone et en ClO, échelonnées dans le temps, mais ne rapporte que des résultats de détection géographique. On voit que leurs auteurs voulaient évoquer l’idée d’un “crime“ contre l’ozone.
Quant à la courbe en cross de Hockey, proposée en 1998  par le climatologue américain Michael E. Mann, elle fut complètement discréditée par le GIEC lui-même.
- Le GIEC mit en place les mêmes réunions périodiques que celles des organes de Montréal : les MOP (‘Meeting of the parties’), les "forums hybrides", lieux de négociations entre signataires de Conventions internationales ; les COP (‘Conference of the parties’).

6- Le Prix Nobel : une science inexacte !  

Mario-José Molina[47], Paul-Josef Crutzen et Frank-Sherwood Rowland, se sont vus attribué, en 1995, le Prix Nobel de Chimie "pour leurs travaux sur la chimie de l'atmosphère, particulièrement en ce qui concerne la formation et la décomposition de l'ozone".
Il s’agit là d’une consécration sociale, mais qui aurait du laisser la porte ouverte à la poursuite du débat. En effet, un prix Nobel n’est pas une preuve. Plusieurs exemples le démontrent.
- Les historiens des sciences citent volontiers le cas de l'Espagnol Santiago Ramon y Cajal à qui fut attribué le Prix Nobel de médecine en 1906 pour ses travaux sur "l'existence des neurones et la structure du système nerveux". De cette date est né un dogme que l'on a longtemps cru intangible : le cerveau s'apparentait à une superbe machine, avec des zones parfaitement câblées entre elles. Une fois arrivé à maturité, on ne pouvait plus y toucher et, si l'une de ses parties était détruite, il n'y avait plus rien à faire. Progressivement, ce prix Nobel s’est fait contredire avec les découvertes ultérieures sur l’extraordinaire élasticité du cerveau et sa capacité à régénérer des neurones.
- En 1926, le prix Nobel est attribué au danois Johannes Fibiger pour la découverte de Spiroptera carcinoma, un ver nématode sensé être capable de provoquer le cancer. On le sait aujourd’hui, il s’agissait d’une erreur intégrale.
- En 1938, le chercheur italien Enrico Fermi obtint la distinction suprême de physique pour sa découverte de nouveaux éléments radioactifs, dont les numéros d’ordre sont 93 et 94. Mais, plusieurs mois plus tard, des scientifiques répétant ses test réalisent que l'italien n'avait créé aucun nouveau produit.
Un autre prix Nobel Derek Barton a même déclaré, à propos de l’ozone :  "Il y a tant de propagande médiatique autour du trou d'ozone, que j'en deviens sceptique"[48].
Le Monde a eu raison de titrer en 2017: "Le prix Nobel, science inexacte"[49].

7- La remise en cause de l’origine anthropique du « trou d’ozone »

7.1- Les mécanismes de la biosphère

a- Le rôle des composés azotés

Dès le début des années 1970, Crutzen avait démontré pour la première fois que les transformations microbiologiques dans le sol affectaient directement l'épaisseur de la couche d'ozone, dans la stratosphère, à 30 km au-dessus de la Terre[50]. L'oxyde nitreux, N2O, est produit dans le sol par activité biologique et pourrait atteindre la stratosphère. Sous l'action de la lumière du soleil, il se désintégrerait alors pour former les oxydes d'azote NO et NO2. Ces oxydes d'azote réagiraient alors eux-mêmes avec l'ozone stratosphérique (O3).  Ils le feraient de manière catalytique, ce qui signifierait que même s'ils appauvrissent la quantité d'ozone, ils seraient eux-mêmes inchangés par la réaction et chaque molécule d'oxyde d'azote pourrait donc éliminer de nombreuses molécules d'ozone.

b- Les composés halogénés naturels

Il est faux d’affirmer qu’il n'y a pas de source naturelle de composés halogénés organiques. Il est maintenant admis par tout le monde que la principale source de bromure de méthyle, composé halogéné jugé pouvoir être encore plus dangereux pour la couche d'ozone que les CFC, est l'océan qui produit aussi de grandes quantités de chlorure de méthyle ainsi que du chloroforme, du trichloréthylène et du tétra-chlor-éthylène[51]. Le rapport officiel de 1994 du protocole de Montréal reconnait d’ailleurs que « le bromure de méthyle continue d'être considéré comme un important composé appauvrissant la couche d'ozone…. il existe des incertitudes significatives dans la quantification du puits océanique pour le bromure de méthyle atmosphérique ». (WMO 1994, résumé pour les décideurs, p xv)
Le CO2 et le méthane participent également à la chimie de l'ozone et une étude de 1983 a montré que ces gaz contribuent à la génération de l'ozone[52]. Ces auteurs montrent également que si l'ozone est détruit dans les couches supérieures de la stratosphère, les rayons UV-B peuvent pénétrer dans les couches plus basses où toutes les conditions sont requises pour une génération massive d'ozone. Le système se maintiendrait de cette façon en équilibre. Des mesures ont été faites par des avions de ligne circulant dans la troposphère qui montrent que la concentration de l'ozone à des altitudes de 10 à 12 kilomètres est extrêmement variable et qu'elle est sans doute due à des échanges massifs entre troposphère et stratosphère. C'est surtout dans la troposphère au-dessus des tropiques qu'on a trouvé ces concentrations extrêmement élevées[53]. Les éclairs des orages génèrent par année 10 à 15 millions de tonnes de NOx et c'est particulièrement dans les tropiques que ce gaz peut participer à la production d'ozone[54].
Il faudrait vérifier s'il existe des comparaisons entre les quantités naturellement émises de ces produits (pondérées par leur "ODP"), avec l’équivalent d’émissions anthropiques. Certains articles évoquent:
* les émissions naturelles[55] . 
* les émissions anthropiques : rapports du Protocole de Montréal 
* les valeurs des "ODP"[56].
Si les émissions naturelles pondérées sont largement supérieures aux émissions anthropiques, ce ne serait pas, pour autant, une preuve de déséquilibre planétaire. Il existe, au niveau planétaire, de multiples, cycles et de boucles de réactions internes à l'origine de corrections de toutes sortes de déséquilibres planétaires. La planète aurait-elle une résilience plus considérable qu’on ne l’imagine ?

7.2-  Le rôle des rayons cosmiques sur la couche d’ozone

a- Les travaux de Professeur Canadien Qin-Bin Lu

Qin-Bin Lu, professeur de physique et d'astronomie à l'Université de Waterloo au Canada (Ontario), pense également que le trou de l'ozone doit tout ou presque, aux rayons cosmiques[57]. Dans une étude, parue dans la revue" Physical Review letters"[58] du 20.3.2009, il s’appuie sur des données satellitaires fiables couvrant la période 1980-2007 couvrant deux cycles complets de rayons cosmiques de 11 ans. Il montre clairement la corrélation entre les rayons cosmiques et l'appauvrissement de l'ozone, en particulier sur l'Antarctique. 
« Cette conclusion va en contradiction avec la théorie photochimique largement acceptée », a déclaré Qin-Bin Lu.
Les recherches de Qin-BinLu sont financées par les instituts de recherche en santé du Canada (IRSC) et le Conseil Canadien de sciences naturelles et de recherche en génie (CRSNG).

b- Les travaux de la NASA

Un article publié par la PNUE/OMM[59] fait état d’une courbe qui prouverait que "La couche d’Ozone est en voie de guérison" à l’horizon 2040-2080. Curieusement, l’étude  n’explique pas les variations de la période 1960-2000 qui, de manière flagrante, sont corrélées aux cycles de 10 ans du soleil.  Cette courbe confirme la référence de Qin-Bin Lu à un minimum d’ozone en 2009.
Or, la Nasa explique[60] qu’un rapport du CNRC (Conseil National de Recherches du Canada), financé en particulier par "NASA’s Living with a Star Program",  avait réuni  des dizaines d’experts de nombreuses disciplines lors d’un atelier unique. Un des participants, Greg Kopp, du Laboratoire atmosphérique et physique de l’espace à l’Université du Colorado, avait fait observer que les rayonnements solaire dans la bande des UV varie de 10%, lors des cycles de 11 ans, contre environ 0.1% dans l’ensemble du spectre.  Ceci peut fortement affecter la chimie et la structure de la structure thermique de l’atmosphère supérieure. Rube-Goldberg  expliquait que ce n’est pas parce que quelque chose est compliqué que cela  signifie que ce n’est pas vrai.

c) Les travaux de B. Soukharev de l’Université de St-Petersbourg

B.Soukharev[61] de l'Université de St.Pétersbourg ne trouve pas non plus de diminution de la concentration d'ozone stratosphérique au-dessus de la Russie. Le cycle des tâches solaires joue un rôle majeur les variations de concentration annuelles et décennales.

d) Les travaux du WCRP

Le programme mondial de recherche sur le climat (WCRP), a mené un projet scientifique dénommé SPARC (Stratosphere-troposphere Processes and their Role on the Climate), Il conclut qu’un Soleil actif augmente l'ozone dans la stratosphère: "Les variations de l'irradiance spectrale ultraviolette solaire modifient directement le taux de production de l'ozone dans la stratosphère supérieure[62] et il est donc raisonnable de s'attendre à une variation de la quantité d'ozone en fonction du cycle solaire. Les enregistrements mondiaux d'ozone par satellite depuis 1979 montrent des signes d'oscillation décennale de l'ozone total avec une amplitude maximale (~ 2%) aux basses latitudes"[63].

e) Les publications de Stephen Wilde

Jeanne Nova, est une rédactrice scientifique enseignant à l’université nationale australienne. Le 2 janvier 2015, elle a mis en ligne un article vulgarisant l’impact du soleil à la fois sur l’ozone et sur le climat. Elle s’appuie sur des publications de Stephen Wilde, membre de la Royal Meteorological Society.
La théorie solaire du délai de rajustement (Notch-Delay)[64] de David Evans est que le TSI est un indicateur avancé, et après que les taches solaires auront atteint un pic, les températures sur Terre suivront avec un pic d’environ 11 ans (ou un cycle solaire). Mais quel est ce mécanisme ? Stephen Wilde a une théorie. Suivons la chaîne de causalités potentielles qu’il propose:
Soleil → UV ou particules chargées → ozone → courants polaires → nuages ​​→ températures de surface.
Stephen Wilde a présenté la première version de cette hypothèse en 2010.[65]

f) Une reconnaissance des faits par les organes du protocole de Montréal

Dix ans après l’adoption du protocole de Montréal, un rapport officiel de son organe de gouvernance a d’ailleurs reconnu l’impact des variations de rayons UV : « Des augmentations locales des UV-B ont été mesurées en 1992/93 aux latitudes moyennes et élevées de l'hémisphère Nord. Les signatures spectrales des améliorations impliquent clairement l'ozone anormalement bas observé au cours de ces années, plutôt que la variabilité de la couverture nuageuse ou de la pollution troposphérique. De telles corrélations renforcent la capacité de lier les changements d'ozone aux changements d'UV-B sur des échelles de temps relativement longues » (Rapport WMO 1994, résumé pour décideurs, p. xx). C’est confirmé dans le cœur du rapport : « Les variations du flux ultraviolet solaire (UV) peuvent affecter les quantités et profils d'ozone de la colonne, les changements les plus importants se produisant dans la haute stratosphère (Hood et al., 1993, Brasseur, 1993, Fleming et al., 1994). » (Rapport WMO 1994, § 4.16, p.210). Mais aucune conclusion pratique n’a été tirée de ces observations. Y a-t-il une réelle volonté de comprendre ? Dans le rapport de 2010, tout un chapitre est consacré à l’hypothèse solaire, mais la conclusion est « L'origine d'une telle réponse dynamique au cycle solaire n'est pas totalement comprise » (rapport WMO 2010, § 2.4.3.2).

g)  La confusion entre cause et conséquence

Dans toute approche d’identification d’un système complexe comme celui des mécanismes stratosphériques en matière d’ozone, il convient de ne jamais confondre les causes et les conséquences.
- Dans l’hypothèse d’une causalité anthropique de la destruction de l’ozone que Mario-José Molina et Frank-Sherwood Rowland ont imaginé, les produits chlorés émis par l’homme entreraient en réaction chimique avec l’ozone qui se disloquerait en oxygène. Dès lors, Molina énonçait le risque que les quantités d’ozone soient, dès lors, insuffisantes pour protéger l’homme des effets cancérigènes des rayons UV.
Pour entrer dans le détail de cette hypothèse, il faut comprendre que l’énergie des UV est suffisamment élevée pour provoquer une dislocation des liaisons moléculaires et le transformer en ozone. C’est précisément cette destruction qui réduit la pénétration des UV à travers la stratosphère.
- Dès lors, on peut comprendre une causalité solaire, et non anthropique : plus le soleil est actif, plus son champ magnétique dévie les rayons cosmiques, denses en UV, en les éloignant du champ terrestre. Mais en même temps, les vents solaires augmentent avec l’activité solaire. Dès lors, la destruction de l’ozone sera différente de ce qu’elle serait quand le soleil est moins actif. 

C’est donc bien la forte destruction d’ozone qui, en fonction de l’activité solaire,  protège  l’homme des effets des UV, et non l’homme qui détruisant la couche d’ozone rendrait l’homme vulnérable aux effets des UV. Quand on confond les causes et les conséquences, on occulte l’idée que le bombardement de la terre par les UV cosmiques et des vents solaires n’est pas constant.

h) Le rôle des longueurs d'ondes des UV sur l'Ozone

L'ozone se forme dans la stratosphère à une altitude supérieure à 30 km où le rayonnement UV d'une longueur d'onde inférieure à 240 nm dissocie lentement l'oxygène: O2 + UV → O- + O- + KE (KE est l'énergie cinétique). La présence d'autres radicaux chimiques R peut favoriser la formation d'ozone: 
 O- + O2 + M → O3 + M + VE.  (VE est l'énergie de résonance, c'est à dire la quantité d'énergie nécessaire pour la stabilisation de la molécule).
En haut de la stratosphère, l'air peut atteindre des températures proches de O°C. Cette élévation de température est provoquée par l'absorption des rayons UV du soleil.   
C'est sous l'impact d'UV de longueurs d'ondes supérieures, de 240 à 320 nm, que l'ozone peut être dissocié: 
O3 + UV → O2 + O-+ KE . L'ozone peut également réagir avec l'atome d'oxygène pour redonner de l'oxygène O3 + O- → O2 + O2 + KE 
La quantité d'ozone dans la stratosphère résulte donc d'un équilibre complexe entre formation et destruction naturelles

7.3- Le rôle des volcans

Le célèbre vulcanologue, Haroun Tazief, écrivait[66] : "Je me demande si l'on n'accuse pas les CFC de détruire la couche d'ozone pour des raisons plus économiques, qu'écologiques. Car il y a énormément d'argent à gagner. Mais les sommes investies dans des batailles gigantesques contre des pollutions imaginaires ne sont plus disponibles pour lutter contre des pollutions réelles"[67].
On sait que les volcans émettent des CFC mais aussi de grandes quantités d’acide fluorhydrique (HF), l’acide chlorhydrique (HCl) et acide hydrodrobromic (HBr) qui transportent jusqu'à la stratosphère. (Ian Plimer, et al.).
Or, on a mis en évidence des "trous d’ozone" dans la troposphère au dessus du volcan du Spitzbergen et aux alentours de la Sibérie[68].
On peut citer d'autres cas: 
- Le volcan antarctique Erebus, en éruption permanente depuis 1972, émet plus de 1.000 tonnes de gaz chlorhydrique par jour et ce gaz reste dans l'air parce qu'il n'y a pas de pluies pour le ramener par terre.
- Pourquoi avoir si peu parlé de l'éruption du mont Hudson au Chili en août 1991 alors qu'elle contribuait manifestement à la formation du trou d'ozone d'octobre 1991[69] ? La "réparation" du trou s'ozone serait-elle liée à l'atténuation de l'activité de ce volcan?
Les dernières 15 années ont été caractérisées par une série d'éruptions volcaniques exceptionnelles.
- On estime qu'en 1982 l'éruption de El Chichón en 1982 a causé une réduction de l'ozone de 1 à 2 %, et même de 7 % à 24 km d'altitude[70].
L'éruption du Pinatubo aux Philippines en 1991 est la plus forte éruption enregistrée au XXe siècle de par la quantité d'aérosols stratosphériques produite. Le sommet du nuage a atteint une altitude de 40 km.  
Le volcan de l'île de Satsuma Iwojima, au sud du Japon déverse, lui aussi, chaque jour dans l'atmosphère quelque 135 T/jour de chlore. Les augmentations de chlore dans la stratosphère au cours des dernières 20 années pourraient en grande partie être expliquées par ces éruptions.
Le dernier rapport officiel de l’accord de Montréal sait tout cela et reconnait que « les mécanismes de ces changements sont qualitativement compris, mais certaines incertitudes demeurent quant à leur quantification » (Rapport WMO 2010, prologue, p. xwiii). Ce n'est pas étonnant étant donné que le rapport ne pratique aucune quantification comparée des divers impacts éventuels comme pourrait le faire un traitement "par identification". 

7.4- Le rôle de l'activité géomagnétique terrestre

Dans la revue "Avances in Meteorolgy", des chercheurs chinois, Fuxiang Huang, Cong Huang et Xiaoxin Chang ont publié en janvier 2017 un article dans lequel ils faisaient  le constat que "la précipitation des particules énergétiques (PPE) a des répercussions importantes sur l'appauvrissement de la couche d'ozone dans l'atmosphère moyenne polaire au cours de l'activité géomagnétique. Il est bien connu que le rayonnement ultraviolet solaire (UV) joue un rôle important dans la production d'ozone". Par conséquent, il leur parut intéressant de comparer les contributions de l'EPP et de l'UV solaire aux changements d'ozone dans la haute atmosphère polaire. Leur étude "montre que les contributions de l'activité géomagnétique ne sont pas négligeables et sont d'un ordre de grandeur similaire au rayonnement UV solaire dans la haute atmosphère polaire".
C'est ce qui fait dire à certains observateurs que le trou d’ozone ne se fermera jamais en permanence. Le trou d’ozone présente l’empreinte magnétosphérique. Les deux pôles sont les 2 portes dans la serre que nous appelons la terre et sont contrôlées par l’interaction entre le vent solaire et le champ magnétique terrestre.

7.5- La vraie question des "modèles numériques"

Dans aucun des rapports « Assessments of Ozone Depletion » étaient publiés régulièrement (NASA/UNEP/WMO/…, 1985WMO/…, 1989; WMO/…, 1992; WMO/…, 1994; WMO/…, 1999; WMO/…, 2003; WMO/…, 2007; WMO/…, 2010), on ne trouve l'établissement de la preuve que les variations de CFC puissent constituer l'explication causale de la réduction de l'appauvrissement de l'ozone stratosphérique. 
Le rapport de l'agence américaine NOAA ne parle que de "modèles numériques" pour répondre à la question: "Des modèles informatiques ont été utilisés pour examiner l'effet combiné du groupe de réactions connues qui se produisent dans la stratosphère. Ces modèles simulent la stratosphère en incluant la multitude des agents chimiques, les vents, l'air et les changements quotidiens et saisonniers de la lumière du soleil.  Ces analyses montrent que, dans certaines conditions, le chlore et le brome réagissent dans des cycles catalytiques dans lesquels un atome de chlore ou de brome détruit plusieurs milliers de molécules d'ozone. Les modèles sont également utilisés pour simuler les quantités d'ozone observées dans les années précédentes comme un test solide de notre compréhension des processus atmosphériques et pour évaluer l'importance des nouvelles réactions trouvées dans les études de laboratoire. Les réponses de l'ozone aux changements futurs possibles de l'abondance des gaz traces, les températures et d'autres paramètres atmosphériques ont été largement explorés avec des modèles informatiques spécialisés" (NOAA, 20 questions et réponses sur l'ozone § II,6).

Quels sont les éléments retenus dans le paramétrage de ces modèles? Quelles sont les sensibilités retenues de l'ozone
- aux variations de doses de CFC ? 
- aux variations de doses de chlorure de méthyle, de chloroforme, de trichloréthylène ou de tétra-chlor-éthylène, dont la littérature scientifique dit que les océans sont de gros émetteurs ?
- aux variations de radiations solaires dans le spectre des UV ?
Si le rapport NOAA évoque des études de laboratoire, aucune référence n'est donnée. On peut imaginer qu'il s'agit de réactions chimiques fondamentales, mais qui, en aucun cas ne permettent de fournir des calcul de probabilité et des intervalles de confiance. En sciences, la confrontation des modèles numériques théoriques doit toujours être confrontée au réel. Or, le CERN, par exemple, dispose d'un immense cylindre de trois mètres de diamètre et cinq de haut permettant de simuler un volume d’atmosphère avec des concentrations variables en ozone. Pourraient y être insufflés les différents gaz suspectés et à des doses variables. Pour simuler l’action des rayons cosmiques, les physiciens du CERN savent diriger sur leur réservoir un faisceau de particules issu d’un des accélérateurs du CERN et des rayonnements ultra-violets de longueurs d'onde variable. On pourrait faire varier à la fois l'intensité des rayonnements et les températures du système, jusqu'à -80°C, pour vérifier la nature des réactions chimiques entre CFC et ozone aux très faibles températures. Ce dernier point parait pertinent puisque la théorie Molina-Auckland se fonde sur les réactions Cl- + O3 → ClO+ O2,  puis, ClO- + O- → Cl- + O2. Or, jusqu’à présent, les modèles astrophysiques rendant compte de la chimie à l'intérieur des nuages interstellaires ignorent encore, pour une large part, les réactions impliquant les ions négatifs. "La valeur des coefficients d'attachement électronique aux très basses températures sera nécessaire pour élaborer de nouveaux modèles de cinétique des réactions complexes en phase gazeuse", explique l'astro-chimiste Ghassen SAIDANI. Rowland et Molina se contentaient d'affirmer dans leur étude de 1974 que "aux températures stratosphériques ClO- réagit avec O- six fois plus vite que réagit NO2 avec O-" [70 bis]
Pourquoi aucun budget n'a-t-il été proposé pour vérifier la responsabilité des CFC ? 

8- Une opération de diversion : l’amendement de Kigali

8.1- L’extension de l’approche par « panier multiples » des ODP aux GES

La stratégie de regroupement des ODS par « paniers », affirment les scientifiques de l’ozone que sont Susan Solomon, John-S. Daniel,  Mack McFarland, a été décisive dans le succès politique du Protocole de Montréal… A présent qu’eux et leurs collègues ont démontré les vertus de l’approche dite « à paniers multiples » pour la gouvernance de l’ozone (tout le moins pour les CFC et HCFC), ils ont souhaité la décliner pour servir les réductions de GES dans la gouvernance climatique. Qu’en a-t-il été à Kyoto ? « Les discussions sur les réglementations des GES se sont généralement focalisées sur des négociations à l’intérieur d’un même « panier », déplorent Solomon et ses collègues. « Les pays signataires doivent atteindre des objectifs globaux, généraux de réduction de leur potentiel de réchauffement. Ils peuvent pour cela choisir parmi les six GES dits "de Kyoto" – le dioxyde de carbone (CO2), le méthane (CH4), l’oxyde nitreux (N2O), les hydrofluorocarbures (HFC), les hydrocarbures perfluorés (PFC) et l’hexafluorure de soufre (SF6) –, dont le potentiel de réchauffement est rendu commensurable à l’aide de la métrique GWP100 – c’est-à-dire à un potentiel de réchauffement global ramené à un horizon de 100 ans »[71].
Quelle pourrait être la composition des paniers de GES, et quelles métriques seraient pertinentes pour établir les paniers ? Kyoto a retenu deux paniers :
- un premier panier englobant les GES à durée de vie courte : CO2, CH4 et N2O
- un second panier avec les hydrofluorocarbones (HFCs), les perfluorocarbones (PFCs) et le Sulfure hexafluoride (SF6)
Mais il y avait trop d’incertitudes scientifiques pour s’engager dans une multiplication des paniers. C’est même pour cela que Solomon et ses collègues s’en sont tenus, à ce stade, à deux paniers[72].

8.2- L’avenant de Kigali

Les négociations sur le climat ne parvenant pas à prendre des mesures contraignantes sur les GES, c’est dans le cadre des négociations sur le protocole de Montréal qu’a été adopté, en octobre 2016, l’amendement de Kigali destiné à réduire à court terme des HFC, à cause d’un effet supposé à court terme sur le climat.
Il s’agit, en réalité, d’une opération de diversion très subtile prenant en compte plusieurs réalités :
- le GIEC avait bien été obligé de reconnaître l’existence d’un « hiatus » dans l’évolution du réchauffement climatique depuis 2000,
- les thèses héliocentriques démontraient de plus en plus qu’il était fort probable que le réchauffement baisserait et que, donc, l’objectif de ne pas dépasser le seuil d’augmentation de 2° depuis l’époque industriel serait probablement atteint très "naturellement" avec le cycle solaire en cours
- L’accord de Paris ayant habilement proposé de ramener le seuil à seulement 1,5° de hausse
L’idée a consisté à faire croire que l’interdiction des HFC permettrait de gagner 0,5°C.. Il ne s’agit pas, dans l’idéal, de simplement "gagner du temps", de gagner plusieurs décennies dans l’attente qu’une voie soit trouvée vers une économie décarbonée, expliquent les auteurs d’un article “Atmospheric Composition, Irreversible Climate Change, and Mitigation Policy” (2013). L’idée  a été de « Tailler / raboter le pic (‘trimming the peak’) » de réchauffement à court terme afin de ne pas excéder le seuil critique de « +2°C ».
De plus, précisent-les inspirateurs de l’accord de Kigali, "les retards dans la limitation des agents de forçage de courtes durées de vie impliqueront une séquestration de chaleur plus grande dans l’océan profond ; ainsi, l’utilité de raboter le pic sera grandement tributaire du moment où les limitations seront mises en œuvre. Le plus tôt les émissions seront réduites, les plus grands seront les bénéfices du rabotage du pic"[73].
La diversion est décidément habile car cette idée de séquestration de chaleur n’est pas fondée. Le GIEC prétend que « la quantité de chaleur accumulée par les océans depuis 1950 se traduirait par "une variation de température de 0,1° par décennie pour les couches de surface et de 0,01° pour les couches à 700 m de profondeur". Ce à quoi l’identification des systèmes complexes répond qu’ "on ne peut pas croire qu’il soit possible de mesurer des variations de température si minimes et de façon très précises, compte tenu de la masse des océans, et de leurs profondeurs.  Les périodes d’observations sont trop courtes pour prétendre à quelque détection attribution que ce soit. Pour retenir une cause d’une telle accumulation thermique océanique, il faudrait dater et chiffrer un état initial des océans ce dont on est incapable"[74].
Avec l’accord de Kigali, les  chimistes de l’ozone venait indirectement au secours des climatologues du Giec. En jouant de discours alarmistes, ils prétendaient que cette mesure  permettrait d’éviter ce que les auteurs appellent l’« irréversibilité du changement climatique », c’est-à-dire le franchissement de "points critiques (‘tipping points’)" vers un climat global totalement différent de celui qui a vu l’humanité s’épanouir jusqu’à présent, et sans espoir de retour à l’état antérieur[75].

8.3- La mise en place d’un nouvel organe liant les problématiques ozone/climat

a) La coalition pour le Climat et l'air pur (CCAC)

L’accord de Kigali a, en réalité, été inspirée par des groupes de travail d’une structure dénommée Climate and Clean Air Coalition. Elle a été fondée en 2012 par six pays et le Programme des Nations Unies pour l'Environnement (PNUE) en se fixant comme objectif de réduire la présence de quatre principaux polluants climatiques de courte durée de vie : le méthane, les hydrofluorocarbures (HFC), le carbone noir et l'ozone troposphérique. En septembre 2015, la coalition comptait 109 partenaires : 49 pays, 44 ONG et 16 organismes internationaux. 
Ils affirment , en s'appuyant sur des données assez suspectes de l'OMS que, au-delà de la protection du climat, leurs initiatives auront également un impact dans bien d’autres secteurs, par exemple d'éviter plus de 2,4 millions de décès prématurés par an à cause des émissions de carbone noir. Il s’agit d’objectifs très politiques qui ne sont pas plus fondés scientifiquement que les autres. La fameuse étude sur les limites planétaires, présentée à Davos en 2015[76], reconnait d'ailleurs que "la connaissance définitive des sources ou caractéristiques des spécificités de particules fines PM25 qui seraient en corrélation à long terme avec la mortalité fait défaut ….  En conséquence, les estimations des causes de morbidité attribuées à la pollution de l’air ambiant dans ces endroits, ont dû être fondées sur des extrapolations"

b) Le concept de "polluant climatique de courte durée" (SLCP)

Dans son rapport annuel 2016-2017, le CCAC explique « qu’une atténuation des émissions de CH4, de BC et d'O3 …combinée avec celle des SLCP réduirait le réchauffement cumulatif depuis 2005 de 50% à 2050 et de 60% à 2100 des scénarios d'atténuation de CO2, réduisant significativement le taux de réchauffement et abaissant la probabilité de dépasser le seuil de réchauffement de 2°C au cours de ce siècle ». Ce propos est assorti d’une note de bas de page n° 10 expliquant la source de ces chiffres. Il s’agit d’une une publication[77] de 2013 intitulée « The role of HFCs in mitigating 21st century climate change » dont les quatre auteurs sont Y. Xu , D. Zaelke, G. J. M. Velders, and V. Ramanathan. Mais cette étude n’est qu’une étude économique consistant à faire des scénarios de croissance des PNB. Elle fait référence à un présumé acquit de la science tel qu’exprimé dans une autre étude, de, publiée en 2010 (« RX10 »). L’introduction y fait référence 7 fois ! Mais cette étude a les mêmes auteurs : Ramanathan, Veerabhadran et Yangyang Xu. On imagine trouver là des fondements scientifiques, mais les auteurs, dès le résumé, affichent la nature politique de leur papier : « Cette étude … identifie les contraintes imposées aux responsables politiques »[78]. En définitive, toutes ces études font appel à un petit nombre d’auteurs qui se font référence les uns aux autres et qui tous, pour tout fondement, raisonnent à partir des indicateurs ODP et GWP dont nous avons vu le caractère théorique, sans référence à une quantification sérieuse de relations de cause à effet avec l’épaisseur de la couche d’ozone ou avec les variations climatiques.

 9- L’impact anthropique sur l’atmosphère, trois alibis:

9.1- Un alibi pour justifier une fiscalité mondiale supplémentaire: le MultiLateralFinance

De la même manière qu'a été mis en place un "Fonds vert pour le climat" rattaché à la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC), il a été créé en 1991 un Fonds MLF pour aider les pays en développement respectent leurs engagements de protocole de Montréal. Il est géré par un Comité exécutif comptant des membres égaux de pays développés et en développement. Le Secrétariat du fonds à Montréal assiste la Commission dans cette tâche. Depuis 1991, le Fonds a approuvé des activités, y compris la reconversion industrielle, assistance technique, formation et renforcement des capacités d’une valeur de plus US $ 3,6 milliards.
Peut-on faire confiance à la gérance de telles sommes ?

a) Le cas de la Chine
La chine est le leader mondial de construction de climatiseurs. Elle produit plus de 100 millions d’unité par an, soit 81,1 unités de climatisation pour 1000 habitants, contre 4,8 unités de climatisation dans le reste du monde.
- DAIKIN a construit en 2012 sa plus grosse usine en Chine à Suzhou avec une capacité de 1.5 millions d'unités par an avec un investissement de 15 milliards de yens (plus de 153 millions d'€uros)
- GREE  est classée comme le Top 10 des sociétés innovantes de Chine.   Il a construit en 2003 une usine à Nanchang de 5 millions d’unités par an.
Or, en 2013, le MLF a pris la décision de fournir à la Chine 385 millions de dollars américains pour l'élimination totale de sa production industrielle de substances appauvrissant la couche d'ozone d'ici 2030. Le MLF indique que « la Chine a non seulement accepté de retirer sa capacité actuelle de production de HCFC, mais aussi de supprimer les capacités de production excédentaires actuellement non utilisées ». C'est potentiellement le plus grand projet approuvé jusqu'à présent par le Fonds multilatéral depuis sa création. Il est prévu que la Chine recevra 95 millions de $ d'ici 2013 et de 10% d'ici 2015 et que « la structure transparente et responsable du Fonds multilatéral garantira que la performance de la Chine dans le cadre du PGEPH sera vérifiée avant la publication de nouvelles tranches annuelles ». Malgré les engagements pris, on ne trouve pas sur le site de MLF le compte rendu de ces contrôles.  
Une chose est sûre : quand on consulte le catalogue de la société Gree, qui arrivait en 2017 à la conquête du marché français, on s’aperçoit que le gaz réfrigérant de sa gamme de base "Sapphire" est toujours le R410A qui est un mélange de HFC. On peut imaginer que la Chine, d'un côté reçoit des subventions, mais que, de l'autre, elle ne les utilise pas pour transformer des usines dans lesquelles elle vient d'investir. La Chine n'est probablement pas un modèle de transparente dans l’utilisation des subventions qu’elle reçoit !
Par ailleurs, on ne sait rien des ressources de MLF. A-t-il recours à l’emprunt ? Ce ne serait pas étonnant puisque la Chine est  aujourd’hui le principal créancier du monde.

b) Le problème de la flotte de navires frigorifiques
Nul doute que le MLF devra insuffler des sommes considérables dans les pays en voie de développement qui seront obligés de démanteler toutes leurs flottes de navires frigorifiques utilisés pour la pèche ou pour le transport de la viande. Qui financera ?
On ne peut s’empêcher de dire que le principal gaspillage mondial est financier avant les ressources naturelles et alimentaires. Quand un problème est mal posé, comme celui de l’ozone, ce sont les ressources financières qui sont gaspillées !

9.2- Un alibi pour la bio-ingénierie ?

Il n’est plus besoin de redire à quel point l’alarmisme, tant sur le trou d’ozone que sur les variations climatiques, n’est pas fondé.
Cet alarmisme a permis à des courants transhumanistes de plaider non plus pour que l’humanité répare l’homme, mais également puisse réparer la planète. C’est ce qu’on appelle le géo-ingénierie.
Ce qui très symptomatique, c’est de voir que les plus actifs sur ces idées de géo-ingénierie ont été les chimistes de l’atmosphère qui avaient obtenu une gouvernance effective sur l’ozone.
Un volume de la revue scientifique Climatic Change, en partie consacré à la géo ingénierie, est signé par deux des chimistes de l’atmosphère les plus influents :
- Le premier est Ralph Cicerone, le Président de l’Académie des Sciences des États-Unis, dont la réputation scientifique est assise sur ses travaux des années 1970 sur la destruction de l’ozone stratosphérique.
-  Le second est le Prix Nobel Paul Crutzen et il a été nommé en 1996 académicien pontifical des sciences.
Dans les années qui suivent 2006, Cicerone et Crutzen réitèrent leur appel du pied pour promouvoir la recherche sur la géo ingénierie.
Mais, d’autres sources de l’‘Assessment of Ozone Depletion’ de 2010 sont plus "compromettantes" encore que la référence à Paul Crutzen. Le rapport cite un article signé, entre autres, de la main d’Edward Teller (1908-2003) en personne (Teller et al., 1997). Teller n’est pas seulement un physicien influent, qui a fait ses armes dans le sérail scientifique du complexe universitaire-militaire-industriel états-unien des décennies 1950-60. Teller n’est pas seulement le Père de la Bombe H,… On ne s’étonne donc guère de retrouver, à la fin des années 1990, MacCracken, Caldeira et leur Pygmalion Edward Teller, dissertant ensemble des usages possibles d’un éventail de particules d’aluminium réfléchissantes pour contrebalancer le changement climatique sans endommager la couche d’ozone. Les experts de l’ozone indiquent, par ce biais, que les impacts environnementaux de ce type de technologie n’ont toujours pas fait, en 2010, l’objet d’études sérieuses. On peut alors sérieusement questionner la pertinence d’en parler dans un tel rapport.
La grande majorité des auteurs en Sciences Humaines et Sociales font part de leur stupéfaction face à l’idée de déployer des technologies dangereuses de géo-ingénierie. Pourtant, non seulement les modélisations sur la géo-ingénierie sont relayées par les experts de l’‘Assessment of Ozone Depletion’, mais l’idée de mener des expériences de terrain, à petite échelle dans un premier temps, fait également rapidement son chemin. Une ONG canadienne de veille technologique et environnementale, l’ETC Group, a répertorié treize essais significatifs d’ensemencement ‘in situ’ des océans par injection de fer, presque tous effectués par des laboratoires privés ou sous partenariat public-privé[79]

9.3- Un alibi pour les malthusiens

Sans donner dans les procès d'intention,on ne peut s'empêcher d’admirer l’esprit de méthode des malthusiens quand ils utilisent l’arme de la nourriture pour contenir la croissance démographique. En effet, quels sont les principaux concurrents que rencontre l’espèce humaine quand elle cherche à se nourrir ? Parmi les concurrents de l'homme, il y a les adventices et les ravageurs. Aussi, bien entendu, depuis qu’il existent, les écolos ont inscrits parmi leur priorités le sabotage de la lutte contre les adventices et les ravageurs. Mais les malthusiens, avec le  protocole de Montréal se sont penché sur un troisième problème, celui de la déperdition d’une partie de la nourriture restante que la filière du froid pourrait limiter : rationner ou un enchérir le prix des gaz à usage frigorifique, au moyen de normes ad hoc légitimées par des théories ad hoc est très habile.
Sans tomber dans le procès d'intention, disons pour le moins que tout se passe un peu comme si... Quoi qu'il en soit, le problème devient d'autant plus critique que les pays en développement, en plus de leur (éventuelle) croissance démographique, font face à une urbanisation galopante qui rend la chaîne du froid de plus en plus indispensable du fait de l'éloignement entre la production et la consommation. Le gaspillage alimentaire, par négligence dans les pays développés mais par défaut de chaîne du froid ailleurs, est donc un problème majeur, et il est bien coupable de se voir mettre des bâtons dans les roues dans ce domaine.
La question se pose aussi pour la climatisation. On s'étonne que Laudato si ait classé "l’augmentation croissante de l’utilisation et de l’intensité des climatiseurs" dans la catégorie des "habitudes nuisibles de consommation" (§ 55) sans plus d'analyse. En effet, quoi qu'il en soit des abus occasionnels, la 'clim' n'est pas seulement une question de confort, mais aussi de santé (conservation des vaccins, limitation des hécatombes lors "épisodes de canicule", etc), et d'efficacité au travail: qui peut travailler efficacement dans des bureaux ou ateliers à 30 ou 35° ou plus! Dans les pays en développement (qui sont en général les pays chauds), les jeunes rêvent de 3 choses: une mobylette pour pouvoir se déplacer, une 'clim' pour pouvoir dormir la nuit, et un frigo pour ne pas passer leur vie au marché à acheter des trucs à consommer impérativement au repas suivant sous peine de tout jeter ou de s'empoisonner.
Les bâtons dans les roues sur les fluides frigorigènes ne sont d'ailleurs que la partie émergée de l'iceberg: les nécessaires développements de la climatisation et de la chaîne du froid dans les pays chauds seront gros consommateurs d'énergie; ces secteurs consomment déjà environ 15% de la production mondiale d'électricité, avec des besoins qui ne peuvent que partir fortement à la hausse; ceci d'autant plus que les nouveaux systèmes sont non seulement plus chers, mais aussi (fréquemment) moins efficaces énergétiquement. Or en même temps, tout est fait pour brider l'accès à une énergie abordable dans ces pays. Donc, tout va bien; "on" a la situation en mains !

10- Conclusion

Tout observateur de bonne volonté peut être amené à conclure, à la lecture de cette analyse, que n’étant pas spécialiste de ces questions, il lui est impossible de conclure. Chacun devrait se poser cette question : N’y a-t-il pas dans cette forme de repli dans ce refus de prendre parti, et de ne prendre parti que par la confiance qu'il fait dans le consensus?
Or, même sans être spécialiste, il est possible de juger de la qualité d’un débat. Il faut oser se dire que l’argumentation sur les phénomènes atmosphériques a besoin d’être examinée tant par des scientifiques que par des personnes non initiées. L’intérêt d’une critique historique et scientifique est de juger de ce qui s’est passé, des intérêts qui ont présidé aux décisions, de l’existence ou non de véritables débats contradictoires.
La conclusion paraît alors évidente que l’impact anthropique sur le trou d’ozone finira rapidement par être renversée par une cause héliocentrique.
On peut d’ailleurs se référer à ce qu’expliquait Paul Crutzen, un des pères spirituels du Protocole de Montréal et qui a reçu le prix Nobel : "lorsque des prévisions apocalyptiques furent avancées, on ne connaissait pas exactement l'ampleur de la détérioration de la couche d'ozone. Maintenant on sait que les dégâts sont très faibles. La démonstration a été faite que la couche d'ozone se détériore à un rythme fort ralenti" (Le Monde du 30 janvier 1997).

 

 

[1] Cf. son intervention au Colloque de l’EHESS « Une autre histoire des "Trente glorieuses" », 12 septembre 2011, Paris.

[2] (Harrison et al., 1968, Planetary and Space Science ; avec D.M. Scattergood et M.R. Shupe)

[3] Harrison, 2003, pp. 13-14

[4] L’ONG de Thomas Stoel, le NRDC (Natural Rsources Defense Council), fait circuler des pétitions aux États-Unis, contre l’utilisation des CFC, dès novembre 1974… A partir de 1977, es états, pays scandinaves et Canada en tête, ont montré l’exemple à suivre en réglementant  les bombes aérosols.
Source : p. 418 dans la these de doctorat de Regis Briday : https://core.ac.uk/download/pdf/46813277.pdf 

[5] Source : Dotto Lydia & Schiff Harold, 1978, the Ozone War, Garden City, New York: Doubleday, pp. 11-16

[6]  Paul Edwards « A Vast Machine Computer Models, Climate Data and the Politics of Global Warming » (2010, p. 139

[7]  Vol. 249, 28 juin 1974, p. 810-812 - (https://www.nature.com/articles/249810a0) 

[8] Résumé : Les chlorofluorométhanes sont ajoutés à l'environnement en quantités toujours croissantes. Ces composés sont chimiquement inertes et peuvent rester dans l'atmosphère pendant 40-150 ans, et les concentrations peuvent atteindre 10 à 30 fois les niveaux actuels. La photodissociation des chlorofluorométhanes dans la stratosphère produit des quantités significatives d'atomes de chlore et conduit à la destruction de l'ozone atmosphérique.

[9] En 1970, Crutzen a montré que les oxydes d'azote accélèrent le taux de réduction de l'ozone. L'Académie royale suédoise des sciences a noté qu'une autre menace pesant sur la couche d'ozone venait des avions supersoniques prévus dans les années 1970, qui seraient capables de libérer des oxydes d'azote au milieu de la couche d'ozone, à des altitudes de 20 km.
En 1974, Molina était stagiaire postdoctoral au laboratoire du professeur Rowland à l'Université de Californie à Irvine. Molina a été l'auteur principal de leur étude sur la menace pour la couche d'ozone des gaz ou fréons chlorofluorocarbonés (CFC), utilisés comme propulseurs dans les bombes aérosols, comme moyen de refroidissement dans les réfrigérateurs. et les climatiseurs, et dans les mousses plastiques. Leur prédiction de l'appauvrissement significatif de la couche d'ozone sur une période de plusieurs décennies "a créé une énorme attention", a déclaré l'Académie royale suédoise des sciences.
 "Beaucoup ont critiqué les calculs de Molina et Rowland, mais d'autres encore étaient sérieusement préoccupés par la possibilité d'une couche d'ozone appauvrie. Aujourd'hui, nous savons qu'ils avaient raison dans tous les éléments essentiels. Il s'est avéré qu'ils avaient même sous-estimé le risque", a dit l'Académie royale suédoise des sciences.
Deux membres du Congrès américain ont présenté en septembre 1995 une législation visant à reporter la mise en œuvre de l'interdiction des produits chimiques appauvrissant la couche d'ozone.

[9bis] Les études en question sont: 
- Crutzen P.J., J. geophys. Res, 30, 7311 (1971)
- Kockarts G. in Mesopheric Models and Related Experiments (Edit. by Fiocco G.), 168, Reidel, Dodrrecht (1971)
- Brinkmann R., ibid, 89

[10] Source : Andersen & Sarma, 2002, p. 459

[11] Il se fera financer une brève « tournée américaine » médiatique par la ‘Chemical Specialties Manufacturer’s Association’, au début de l’année 1975.

[12] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, p. 353, https://core.ac.uk/download/pdf/46813277.pdf 

[13] [Heymann, 2010, p. 219 & 223-230]

[14] Guy Brasseur 1987 :7 (cité par  Liftin, 1994, chap. 3, p 11 of 18)

[15] Bernard Aumont, chimiste de l’atmosphère au LISA (Laboratoire Interuniversitaire des Systèmes Atmosphériques) de Créteil (CNRS/Paris 12) 5-3-2014, « Introduction à la modélisation de la chimie atmosphérique », http://www.lisa.u-pec.fr/~aumont/contenu/enseignement/M2_SGE/modelisation_short.pdf

[16] Guillemot, 2007(b), pp. 93- 94

[17] Scorer, 1997, p. 618

[18] Lovelock 1979 (2000), pp. 37-38 & 71

[19] Sous la présidence de Robert T. Watson, ses membres étaient : D.Albritton, J. Barnett, P. Bloomfield, R. Bojkov, R.J. Cicerone, D. Ehhalt, S. Fels, P. Fraser, J. Gille, D. Hartmann, R. Hudson, I.S.A.Isaksen, H. Johnston, M.J. Kurylo, J. Mahlman, J.J. Margitan, M.P. McCormick, M. McFarland, M. McIntyre, G. Megie, M. Prather, H. Rodhe, C. Rodgers, F.S. Rowland, A. Schmeltekopf, M. Schoeberl, R. Stolarski, N. Sundararaman, R. Turco, G. Visconti, S. Wolsy

[20] L'unité Dobson tient son nom de Gordon Dobson, qui était chercheur à l'Université d'Oxford et qui, dans les années 1920, a construit le premier instrument permettant de mesurer l'ozone.
Une unité Dobson correspond à une couche d'ozone qui aurait une épaisseur de 10 µm dans les conditions normales de température et de pression. Une unité Dobson est équivalente à 2,69 × 1020 molécules d'ozone par m²

[21] https://www.esrl.noaa.gov/csd/assessments/ozone/1988/report.html

L’Ozone Trends Panel comptait en son sein un chimiste de la DuPont Corporation.

[22] Andersen & Sarma, 2002, pp. 51-66

[23] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, p. 509, https://core.ac.uk/download/pdf/46813277.pdf 

[24] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, p. 530, https://core.ac.uk/download/pdf/46813277.pdf 

[25] Scorer, 1997, p. 614

[26] A.Wildavsky, But is it true, Harvard Univ.Press, 1995,p315.

[27] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, page 357 https://core.ac.uk/download/pdf/46813277.pdf  -

[28] Source : Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, page 470 https://core.ac.uk/download/pdf/46813277.pdf  -

[29] L'Actualité Chimique, janvier/février 1993. et [www.cis.ohio-state.edu/ozone-depletion]

[30] D. Wuebbles, du ‘Lawrence Livermore National Laboratory’ (LLNL)

[31] Litfin Karen, 1994, Ozone Discourses. Science and Politics in Global Environmental Cooperation, Columbia Press, “chapter 5”, pp. 10-12 of 42

[32] WMO/…, 1989 (1), “Chapter 4. Halocarbon Ozone Depletion and Global Warming Potentials”, pp. 401-465

[33] IPCC (WGI)/…, 1990, pp. 58-61

[34] Solomon et al., 2013, p. 434

[34bis] Extrait du rapport WMO 1989, chap 4.3 sur le calcul des ODP
4.3.4.1- « Aucun des calculs de l'ODP ne prend en compte l'effet potentiel de la chimie hétérogène dans la basse stratosphère, en particulier dans le tourbillon de circulation se produisant à l'un des deux pôles à la fin de l'hiver et au début du printemps. Actuellement, l'inclusion de tels effets dans les calculs d'ODP est prématurée puisque la modélisation de la chimie hétérogène en général, et des phénomènes polaires en particulier, n'en est qu'à ses débuts... 
4.3.5… Bien que les ODP calculées conviennent raisonnablement bien parmi les modèles, de nombreuses incertitudes subsistent. Aucun des modèles utilisés pour calculer les ODP n'inclut les processus chimiques et dynamiques responsables des pertes saisonnières d'ozone au-dessus de l'Antarctique. Une autre incertitude réside dans l'OH calculé par le modèle, qui est une source majeure d'incertitude pour les durées de vie et les ODP des HCFC.
En raison du traitement et de la dynamique du chlore spécial apparent dans le vortex polaire d'hiver, les ODP antarctiques locaux devraient être plus importants que ceux dérivés. Dans la mesure où les distributions de traceurs à longue durée de vie observées, comme le CFC-1 I dans le vortex polaire, suggèrent qu'une grande partie du chlore total est disponible, une limite supérieure pour les ODP antarctiques peut être déterminée en calculant les quantités relatives de chlore transporté à travers la tropopause par les différents gaz. Ces CLP déterminées en utilisant des durées de vie de référence supposées (qui sont généralement en accord avec celles des modèles utilisés ici) peuvent être aussi grandes qu'un facteur de deux à trois fois les valeurs ODP dérivées. Les ramifications de l'appauvrissement de la couche d'ozone polaire pour les PDO globaux ne sont pas claires à l'heure actuelle.
Et sur le calcul du GWP
4.4.4-  Il existe un certain nombre d'incertitudes dans la modélisation du réchauffement de la serre. Celles-ci concernent les propriétés radiatives du système surface-atmosphère de la Terre, telles que les changements dans la surface et la couverture de glace des albédos, et les changements dans la couverture nuageuse et la composition. Les changements dans la structure de la température de l'atmosphère affecteront les schémas convectifs et la chimie de la stratosphère. Le couplage des océans (en tant que réservoirs thermiques) et des courants océaniques aux changements de température de surface affectera également le moment et l'emplacement du réchauffement. Des recherches sont en cours pour comprendre ces questions, qui s'appliquent à tous les gaz qui affectent l'équilibre radiatif futur de la Terre.

[35] Une approche gaz par gaz a un grand potentiel d’efficacité, mais elle ne laisse aucune flexibilité aux émetteurs. Elle passe par des interdictions gaz par gaz décidées en négociation.
L’approche par PANIER SIMPLE assure un maximum de flexibilité pour les émetteurs mais l’efficacité est faible). Cette approche les aux émetteurs le soin de choisir quel gaz abattre.
L’approche par PANIER MULTIPLES  laisse à la fois un certain degré de flexibilité aux émetteurs tout en permettant des progrès d’efficacité.
Cette  approche est utilisés avec une pondération des divers paniers décidés par des négociations.
Elle est utilisée par les émetteurs pour choisir le gaz à abaisser dans les paniers.

[36] Daniel et al., 2012, pp. 241-242

[37] Daniel et al., 2012, p. 242

[38] Source : Andersen Stephen & Sarma Madhava, 2002, Protecting the Ozone Layer – the United Nations History, UNEP “Earthscan”, p. 376

[39] https://plutgen.wordpress.com/2007/09/page/7/

[40] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, p. 518, https://core.ac.uk/download/pdf/46813277.pdf 

[41] Litfin, 1994, Chapter 4, p. 4 of 30

[42] Atmospheric Ozone 1985 Assessment of our Understanding of the Processes Controlling its Present Distribution and Change (3 volumes)

[43]Stephen Wilde (http://joannenova.com.au/2015/01/is-the-sun-driving-ozone-and-changing-the-climate/) s’appuie sur les travaux de
- Hood et McCormack, 1992,
- Chandra et McPeters, 1994,
- Hood, 1997
Source : p. 504 dans la these de doctorat de Regis Briday : https://core.ac.uk/download/pdf/46813277.pdf 

[44] The Climatic Impact Assessment Program (CIAP) du  Department of Transportation.
Alors que dans le cas du Climate Change, dans les années 1990-2000, il existe un organe d’expertise référent, le GIEC, attaqué de l’extérieur, un tel organe n’existe pas dans les années 1970 pour l’Ozone. Le CIAP est un organe monté dans l’urgence, dont l’autorité tient beaucoup au fait que la National Academy of Sciences (NAS) fut l’un de ses instigateurs et modérateurs. Il possède très peu d’autorité en dehors des Etats Unis ; (p. 370)
En 1976, "conversion environnementale" de la NASA, qui succède au CIAP comme organe référent de la science sur l’ozone aux Etats-Unis  (p.  465)
En 1976, le Congrès accorde à la NASA de mener le programme national de recherche sur l’ozone stratosphérique. (p. 469)
Source : https://core.ac.uk/download/pdf/46813277.pdf

[45] Les experts français cités dans le résumé pour les décideurs du rapport « Évaluation scientifique de l'appauvrissement de la couche d'ozone »  de 2014 sont entre autres :
* Auteurs du rapport :  Slimane Bekki (CNRS) et  Sophie Godin-Beekmann (CNRS)
* Contributeurs et reviewers :  Cathy Clerbaux,  Alain Hauchecorne, Nathalie Huret,  Philippe Keckhut,  Katharine S. Law,  Franck Lefèvre,  Bernard Legras,  Jean-Pierre Pommereau
* représentant à l’UNEP :  James S. Curlin et  Benedictine Desbois

[46] La courbe dite en forme de « pistolet qui fume (‘smoking gun’) », à la fin des années 1980 sera présentée comme la preuve la plus fiable de l’existence d’une corrélation entre niveaux élevés de chlore et faibles niveaux d’ozone. (p.  530 - https://core.ac.uk/download/pdf/46813277.pdf)

[47] Le Dr Molina a commenté: «En ce qui concerne les sceptiques, il n'y a qu'un très petit groupe de scientifiques qui ne sont pas d'accord avec ce que je crois être un consensus international assez étonnant. Il ne fait aucun doute que ce sont les CFC qui causent [] l'appauvrissement de la couche d'ozone en Antarctique, ce qui est dû en grande partie aux personnes qui n'ont pas vraiment étudié les preuves.(source : http://news.mit.edu/1995/chemnobel)

[48] R.Salawitch, Nature, 392, 551, April 1998

[49] http://www.lemonde.fr/prix-nobel/article/2017/10/01/le-nobel-science-inexacte_5194474_1772031.html

[50] C’est cette distance que Crutzen avait reproduit dans  la bulle au sommet du croquis dans lequel il était s’était drapé, photo reproduite dans une exposition intitulée « sketches of science »  http://www.mediatheque.lindau-nobel.org/laureates/crutzen

[51] Source : Dalhousie University, Department of Oceanography, https://www.dal.ca/faculty/science/oceanography.html

[52] Brasseur and De Rudder, 'Agents and Effects on Ozone Trends', p23.

[53] Frankfurter Allgemeine Zeitung, 24.9.1997.

[54] D.Röhrlich, Die Welt, 12. Mai 1997.

[55] Source : M.A.K. Khalil, R.M.Moore et autres, « Natural Emissions of Chlorine-Containing Gases: Reactive Chlorine Emissions Inventory », Portland State University  20 avril 1999

[56] Source : http://www.epa.gov/Ozone/science/ods/classone.html

[57] Comment pourrait s’expliquer ce lien entre les rayons cosmiques et la destruction de la couche d’ozone ?
Nous n'avons pas la prétention, ici, de vouloir vulgariser la science cosmique. Chaque lecteur peut intervenir dans les commentaires pour faire état d'une description scientifique erronée ou mal formulée:
La matière cosmique
La matière garde encore de nombreux mystères quant à sa constitution. Les connaissances actuelles distinguent des particules élémentaires :
- Les électrons
- Les quarks et antiquarks. Ceux-ci, en fonction de leurs interactions constituent des « hodrons » dénommés,
* Mesons ou Bosons quand les quarks sont en nombre pairs (on distingue les Pions, Kaons, Eta, Rho, Phi, etc..;)
* Baryons ou fermitons quand les quarks sont en nombre impairs. Parmi eux, on classe les nucléons (protons et neutrons) parce qu’ils constituent le noyau des molécules autour desquels tournent les électrons.
On modélise les interactions de ces particules en disant que leur énergie est transportée:
* par les gluons (interaction nucléaire forte)
* par les photons (interaction électromagnétique)
* par les bosons lourds (interaction nucléaire faible)
* par des gravitons encore imaginaires parce que non découverts (gravitation)
Ces quatre concepts sont donc des "quantum d'énergie" associés aux ondes électromagnétiques (allant des ondes radio aux rayons gamma en passant par la lumière visible), qui présentent certaines caractéristiques de particule élémentaire, sans en être vraiment puisque leur masse est nulle.
Le rayonnement cosmique
Toutes ces particules traversent le cosmos en tout sens à la suite d’explosions de supernovas ou plus simplement d’éruptions solaires. On modélise ces rayonnements en essayant d’observer leurs transformations en fonction des obstacles rencontrés ou des perturbations électromagnétiques qu’elles subissent. Ces transformations s’accompagnent de transferts d’énergie.
Les modèles utilisés pour décrire ces transformations sont ceux de la théorie ondulatoire.
L’énergie E d’une particule dépend de sa fréquence v liées par la constante de Planck :
E = 6,6x10-34 x v
L’effet des rayons cosmiques sur l’ozone
L’ozone, comme chaque gaz de l’atmosphère peut faire l’objet de chocs de particules. Sous ces effets, deux mécanismes peuvent entrer en jeu :
la photo-ionisation : Un atome peut voir son niveau d’énergie augmenter lors d’un choc avec un photon. Pour cela, il faut que le photon ait un niveau d’énergie qui le permette. C’est sa longueur d’onde qui va en décider. Si l’atome est soumis à un rayonnement de longueur d’onde inadaptée, l’atome n’interagira pas avec les photons.
L’atome sera transparent au reste du rayonnement.
Au niveau de rayonnement de 310 nm, l’ozone sera soumis à une force d’arrachement d’un électron qui le compose. C’est à partir de ce seuil appelé « énergie d’ionisation », qu’un photon d’énergie supérieure provoquera l’ionisation de l’atome par éjection d’un électron . En pratique, dès que la longueur d’onde des photons incidents sur l’ozone est supérieur à 310 nm la réaction d’ionisation suivante se déclenche: 
O3 + photon → O2 + O.
Ce mécanisme pourrait expliquer la destruction des "couches d’ozone".  Plus l’activité cosmique serait importante, plus elles se détruiraient.
la photodissociation : Si l’énergie du photon incident est supérieure ou égale à l’énergie des liaisons au sein de la molécule, alors on peut observer la rupture d’une liaison. Dans le cas de l’oxygène, l’énergie requise pour la dissociation d’une liaison covalente entre deux atomes est de l’ordre de 100 kJ.mol-1, ce qui correspond à un rayonnement de longueur d’onde 1180 nm qui se situe dans l’infrarouge qui sont émis essentiellement par le soleil.
En pratique, dès que la longueur d’onde des photons incidents sur l’ozone est inférieure à 1180 nm la réaction de dissociation suivante se déclenche : 
O2 + O → O3.
Ce mécanisme pourrait expliquer la reconstitution des "couches d’ozone". Plus l’activité solaire serait importante, plus elles se reconstitueraient.
Le rôle repoussoir du soleil sur les rayons cosmiques
Plus l'activité solaire est grande, plus le magnétisme solaire dévie les rayons venant du reste du cosmos. C'est ce qui expliquerait que la couche d'ozone se reconstitue quand l'activité solaire ralentit et inversement.
Il se trouve que le soleil émet surtout des UV courts. Quant aux rayons galactiques ou intergalactiques, leur énergie est d’autant plus considérable que leur origine est éloignée. Les particules de rayons X ou de rayons gamma sont dissociés à leur contact avec l’atmosphère et transformés en mésons, en pions, ou en photons d’énergie inférieure, plus proche de celle des rayons UV longs. On parle d'une "gerbe de particules". Cette quantité considérable de rayons UV longs pourraient alors expliquer les cycles de destruction de la couche d’ozone. Lorsque l’activité solaire est importante, les effets magnétiques dévient une proportion importante de rayons galactiques, tout en émettant plus de rayons UV courts. Cette double conjonction favoriserait le déplacement de l’équilibre O2 ↔ O3 pour reconstituer la couche d’ozone.
Comment les rayons cosmiques absorbent-ils les rayons UV?
C’est la photodissociation qui est responsable de l’absorption d’une partie des UV-A.
Ainsi, l’ozone serait donc au cœur d’un équilibre dynamique au sein duquel il est continuellement créé et détruit. C’est ce qu’on appelle le cycle de Chapman : La production de l’ozone dans l’atmosphère est assurée par la photodissociation du dioxygène O2 sous l’effet des UV courts. L’ozone peut être dissocié par des UV plus longs (l<310nm) que ceux qui provoquent la dissociation de l'O2.
Le rôle d’atomes catalyseur ?
La théorie anthropique de la couche d’ozone voudrait que le chlore joue un rôle de catalyseur dans ces mécanismes. 
Les scientifiques qui ont apporté leur soutien au rôle du Chlore –comme Paul Crutzen, avant qu’il ne change, semble-t-il, d’avis– ont développé des modèles mathématiques complexes qui démontraient - nous disait-on - que les CFC rejetés par l’homme détruisaient inexorablement la couche d’ozone. Mais ces modèles étaient en réalité fondés sur des bases expérimentales extrêmement fragiles et incomplètes. En effet, la séquence des réactions chimiques invoquées n'a jamais été observée en laboratoire : Cl- + O3 + O- → Cl- + 2O2.

[58] https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.102.118501

[59] Source : https://www.popsci.com/article/science/ozone-layer-mend#page-2 et https://www.dkrz.de/projects-and-partners/projects/focus/escimo

[60] Source : https://science.nasa.gov/science-news/science-at-nasa/2013/08jan_sunclimate
Le rapport du CNRC élargit ses réflexions au-delà de l’ozone mais à l’ensemble de la question de la période chaude contemporaine.
Le rapport reprend certaines déclarations :
« Gerald Meehl, du National Center for Atmospheric Research (NCAR) a présenté une preuve convaincante que la variabilité solaire laisse une empreinte sur le climat, en particulier dans le pacifique. Selon le rapport, lorsque les chercheurs regardent les données de température de surface de la mer pendant les années de taches solaires importantes, le pacifique tropical montre un modèle de type El Nina prononcé, avec un refroidissement de presque 1°C dans l’Est du pacifique équatorial. En outre, « il y a des signes de précipitation accrue dans la Zone de Convergence intertropicale (ZCIT), et la Zone de Convergence du Pacifique Sud (ZCPS), mais aussi de pression de niveau de la mer au dessus de la normale dans les latitudes moyennes du Nord et du Pacifique Sud », en corrélation avec les cycles de taches solaires.
Les signaux de cycles solaires sont si forts dans le Pacifique que Meehl et ses collègues ont commencé à se demander si quelque chose, dans le système climatique du pacifique agissait en les amplifiant. « Un des mystères concernant le système climatique de la terre… est celui de savoir comment les fluctuations relativement faibles du cycle solaire de 11 ans peuvent produire l’amplitude des signaux climatiques observés dans le Pacifique tropical ». A l’aide de modèles de supercalculateurs du climat, ils montrent que les interactions atmosphère-océan des mécanismes, non seulement descendants mais aussi ascendants, sont tenus pour amplifier le forçage solaire à la surface du Pacifique.
Ces dernières années, les chercheurs ont envisagé la possibilité que le soleil joue un rôle dans le réchauffement climatique…. Le rapport du NRC suggère toutefois que l’influence de la variabilité solaire est plus régionale que mondiale. La région du Pacifique n’est qu’un exemple.
Gaspar Amman, du NCAR, a noté dans le rapport que « lorsque le bilan radiatif terrestre est altéré, comme dans le cas d’un changement de forçage de cycle solaire, tous les endroits ne sont pas touchés également. Le pacifique central équatorial est généralement plus frais, les eaux de ruissellement des rivières au Pérou sont réduites et des conditions plus sèches touchent l’ouest des États-Unis.
Raymond Bradley, de l’UMass, qui a étudié des documents historiques de l’activité solaire reconstruits par radio-isotopes dans les anneaux des arbres et des carottes de glace, dit que la pluviométrie régionale semble être plus touchés que la température. « S’il y a effectivement un effet solaire sur le climat, il se manifeste par des changements dans la circulation générale ». Cela doit être rapproché de la conclusion des rapports précédents de  l’IPCC et du CNRC selon lesquels la variabilité solaire n’est pas la cause du réchauffement de la planète au cours des 50 dernières années.
Beaucoup a été fait sur le lien probable entre le minimum de Maunder,  un déficit de 70 ans de taches solaires à la fin du 17° et au début du 18° siècle et la partie froide du petit âge glaciaire pendant laquelle l’Europe, l’Amérique du Nord ont été soumis à des hivers glacials. … Lubin, de la Scripps Institution of Oceanography, a souligné l’importance de regarder les étoiles semblables au soleil, ailleurs dans la voie lactée, pour déterminer la fréquence des grands minimas similaires. « Les premières évaluations de fréquence de grand minima dans les étoiles de type solaire sont de l’ordre de 10 à 30% ce qui implique que l’influence du soleil pourrait être accablante . Des études plus récentes à partir de données Hipparcos, un satellite astronomique de l’Agence spatiale européenne, permettant de comptabiliser correctement la métallicité des étoiles donne une estimation de moins de 3%. Ce n’est pas un chiffre élevé, mais il est significatif.
En effet, le soleil pourrait être maintenant à l’aube d’un évènement de type mini-Maunder. Le cycle 24 du soleil en cours est le plus faible depuis plus de 50 ans. En outre, il y a des preuves (controversées) d’une tendance à long terme d’affaiblissement dans l’intensité magnétique des taches solaires. Matt Penn et William Livingston, de l’Observatoire solaire National, prédisent que le temps que le cycle solaire 25 arrive, le champ magnétique du soleil sera si faible que peu ou pas de taches solaires se formeront. Des lignes indépendantes de recherche, impliquant l’hélio-sismologie et les champs de surface polaire, tendent à étayer leur conclusion… « Si le soleil entre vraiment dans une phase non familière du cycle solaire, alors nous devons redoubler d’efforts pour comprendre le lien soleil-climat », note Lika Guhathakurta  de « NASA’s Living with a Star Program », qui a contribué à financer l’étude de la NRC. « Le rapport offre quelques bonnes idées pour savoir comment commencer »….
… Le rapport complet « les effets de la variabilité solaire sur le climat de la terre » est disponible à partir de « National Academies Press sur http://www.nap.edu/catalog.php?record_id=13519

[61] B.Soukharev, Ann.Geophysicae, 15, 1595, 1997.

[62] Source : Brasseur, 1993

[63] Sources : Hood et McCormack, 1992; Chandra et McPeters, 1994; Hood, 1997).

[64] Il y aurait un délai dans le changement des variations de TSI et de  la variation correspondante des températures de surface d’environ 11 ans ou d’un cycle solaire
Voir : « Evidence-based climate science : data opposing CO2 emissions as the primary source of global warming  - chap. 19, p. 337)

[65] Résumé de l'hypothèse de Stephen Wilde
En substance: Le Soleil affecte la couche d'ozone par des changements dans les UV ou les particules chargées.
Lorsque le Soleil est plus actif, il y a plus d'ozone au-dessus de l'équateur et moins sur les pôles, et vice versa. Une augmentation de l'ozone réchauffe la stratosphère ou la mésosphère, ce qui pousse la tropopause vers le bas. Il y a donc un effet de bascule induit par le soleil sur la hauteur de la tropopause, ce qui fait que les zones climatiques se déplacent vers l'extérieur de l'équateur, déplaçant les courants-jets et les transformant des courants «zonaux» en flux «méridionaux». Lorsqu'ils sont méridionaux, les courants du jet se déplacent dans les boucles plus au nord et au sud, ce qui se traduit par des lignes plus longues de mélange de la masse d'air aux limites de la zone climatique, ce qui crée plus de nuages. Les nuages ​​reflètent la lumière du soleil vers l'espace, déterminant combien le système climatique est chauffé par le rayonnement solaire entrant presque constant. Ainsi, les UV et les particules chargées du Soleil modulent le chauffage solaire de la Terre…
Aux pôles, les réalités tournent autour d’une singularité
Aux pôles nord et sud, les lignes de champ magnétique convergent, la Terre entraîne l'atmosphère autour d'un seul point, la tropopause est plus basse et les inversions de température sont fréquentes. Les tourbillons polaires se produisent lorsqu'une zone de basse pression repose sur le pôle de rotation d'une planète. Cela fait en sorte que l'air descend en spirale dans l'atmosphère, comme l'eau qui coule dans un drain. (Les tourbillons polaires ne doivent pas être confondus avec le jet circumpolaire autour des pôles, qui porte souvent le même nom dans les médias).
Toute cette action remarquable signifie qu'au-dessus des pôles même la haute mésosphère affecte la hauteur de la tropopause. Dans les tourbillons polaires, le flux descendant aspire l'air de la mésosphère, à travers la stratosphère jusqu'à la tropopause.
La présence d'une couche d'ozone dans la stratosphère est la cause de l'inversion de température qui se forme à la tropopause. Cette couche d'ozone est chauffée directement par le rayonnement solaire entrant. Il est plus chaud que l'air qui monte de la surface inférieure, donc il met effectivement un couvercle sur la convection.
Les variations d'ozone affectent la température de la stratosphère, ce qui affecte à son tour la hauteur de la tropopause. Citons la page 14 de Zangl et Hoinka : " Supposons, par exemple, que la température de surface et le gradient de température troposphérique soient donnés et que la température de la stratosphère varie. Alors, une stratosphère froide sera associée à une haute tropopause (basse pression tropopause) et une stratosphère chaude correspondra à une tropopause basse (pression tropopause élevée) ».
Si la tropopause monte ou descend, cela provoque un changement dans le gradient de la hauteur de la tropopause entre l'équateur et les pôles. Cela fait que, à son tour, le flux de jet se déplace vers le nord ou le sud, car il pousse autour des zones climatiques sous la tropopause. Une tropopause inférieure limite l'espace disponible pour la libre circulation de l'air horizontalement en dessous. Ainsi, lorsque le Soleil est moins actif, un abaissement de la tropopause au-dessus des pôles, (comme l’indique le papier d'Andersson et al), serre l'air dans les zones climatiques troposphériques vers l'équateur. Nous avons vu que cela se produisait sous la forme d'une poussée vers le sud du jet depuis environ 2000, le niveau de l'activité solaire diminuant dans la transition du cycle solaire actif n°23 au cycle solaire beaucoup moins actif n°24. C'est la raison de l'observation des incursions plus fréquentes et intenses d'air polaire à travers les latitudes moyennes ces dernières années.
Le monde est divisé en zones climatiques permanentes, qui s'alignent le long des lignes de latitude dues à la rotation de la Terre. Ces zones peuvent se déplacer vers le nord ou l'équateur, en réponse aux changements dans le bilan énergétique de la Terre. Un déplacement de ces zones vers les pôles a été observé au cours du réchauffement de la fin du 20 e siècle et il est bien connu qu’elles se sont déplacées vers l'équateur durant le Petit Âge Glaciaire.
L'hypothèse de Stephen Wilde est un mécanisme possible selon la théorie solaire du délai de rajustement (Notch-Delay), dans laquelle la TSI entraîne des températures de surface après un retard d'un cycle solaire (~ 11 ans) et qui explique potentiellement la plupart des variations de température au cours des quelques dernières années. Cela se produirait si l' ultraviolet extrême qui entraîne la création et la destruction de l'ozone et les effets de la précipitation d’électrons énergétique constatés par Andersson et al. sont tous deux le fait des tendances de la TSI en masse (lumière visible et UV normal) d'un demi-cycle solaire complet (~ 22 ans).

[66] http://www.mitosyfraudes.org/Francia/OzoLut.html

[67] Süddeutsche Zeitung, 1 Okt. 2002

[68] Frankfurter Allgemeine Zeitung, 26.5.1997.

[69] D.J. Hofmann et al., Nature 359,283.1992

[70] J.Cl.André, La Vie des Sciences, Comptes rendus, 11-1,1,1994.

[70bis] Rowland et Molina se fondent sur: 
- Bemand P.P., Clyne M.A.A, and Watson R.J., Chem. Soc. Faraday, 1, 69, 1356 (1973)
- Hampson R. et al, Chemical Kinetics Data Survey VI, National Bureau of Standard Interim Report 73-207, (1973)
- Stolarski R.S. and Cicerone R.J., International association of geomagnetism and aeronomy (Kyoto, Japan, 1973) - voir aussi Can J. Chem (in the Press)

[71] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, p. 631

[72] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, p. 632

[73] Solomon et al., 2013, pp. 432- 434

[74] Source : Stanislas de Larminat « Climat, et si la vérité nous rendait libre » (TerraMare, p. 73)

[75] Solomon et al., 2013, p. 434

[76] "Planetary Boundaries  (PB): Guiding human development on a changing planet". (revue Sciences Express, publiée le 15 janvier 2015) - Dix neuf auteurs- Présentée à Davos les 21-24 janvier 2015

[77] Source : « Le rôle des HFC dans l'atténuation des changements climatiques du 21ème siècle », par Y. Xu 1 , D. Zaelke 2 , GJM Velders 3 , and V. Ramanathan 1 Y. Xu, D. Zaelke, GJM Velders, et V. Ramanathan, publiée le 26.6.2013 dans Atmos. Chem. Chem. Phys., 13, 6083– 6089, 2013 Phys., 13, 6083-6089
 Résumé.
Il existe un intérêt international croissant pour l'atténuation du  du changement climatique au début du siècle en réduisant les émissions de polluants climatiques à courte durée de vie (SLCPs), en plus de la réduction des émissions de CO 2 . Les SLCPs comprennent le méthane (CH 4 ), les aérosols de charbon noir (BC), le méthane (CH4), l’Ozone troposphérique (O 3 ) et les hydrofluorocarbures (HFC). Des études récentes ont estimé qu'en atténuant les émissions de CH4 , de CB et O 3 utilisant les technologies disponibles, environ 0,5 à 0,6°C de réchauffement pourrait évité au milieu du XXIe siècle. Nous montrons aussi que, éviter la production et l'utilisation de HFC à GWP (Potentiel de Réchauffement global) élevé, peut éviter un réchauffement de la planète en utilisant, pour répondre à la demande mondiale croissante, des substituts à faible GWP peut éviter un autre réchauffement de 0,5° C d'ici la fin du siècle. Cette atténuation combinée des SLCPs réduirait le cumul le réchauffement climatique depuis 2005 de 50% d’ici 2050 et de  60% d’ici 2100 par rapport à des scénarios d’une réduction limitée au CO2, réduisant ainsi significativement le taux de réchauffement et abaissant la probabilité de dépasser le seuil de réchauffement de 2°C au cours de ce siècle.
1. Introduction
Les substances qui appauvrissent la couche d'ozone (SACO) [par exemple les chlorofluorocarbones (CFC), les hydrochlorofluorocarbones (HCFC)], les halons et les HFC font partie d'une famille de gaz appelés halocarbures. Les halocarbures sont utilisés comme réfrigérants, agents propulseurs, agents nettoyants et gonflants, extincteurs, etc. Molina et Rowland (1974) ont identifié les effets destructeurs de l'ozone stratosphérique des CFC. Cela a été suivi, pendant la même année, par la découverte de l'effet de serre puissant des halocarbures CFC-11 et CFC-12 (Ramanathan, 1975). De nombreuses études ont confirmé ce résultat et estimé le potentiel de réchauffement planétaire (PRP) des CFC11 et CFC-12 (avec un horizon temporel de 100 ans) à 4750 et 10 900 respectivement, résumé par le quatrième rapport d'évaluation du Groupe d'experts intergouvernemental sur l'évolution du climat (Forster et al., 2007). Ramanathan (1975) a ouvert la voie à l'identification de nombreux autres gaz à effet de serre (GES) autres que le CO2 dans l'atmosphère, tels que CH4 et O3 (voir Wang et al., 1976 et Ramanathan et al., 1985a). La première évaluation internationale des effets des gaz autres que le CO2 sur le climat a été réalisée en 1985 (Ramanathan et al., 1985b) et a conclu que le CO2 était le facteur dominant du forçage des gaz à effet de serre.
La plupart des HFC actuellement utilisés, ainsi que le CH4, l’O3 et  les BC (aérosols de carbone noir), ont une durée de vie relativement courte dans l'atmosphère par rapport aux GES à longue durée de vie, tels que le CO2 et le N2O (oxyde nitreux) (voir par exemple Smith et al., 2012), et sont donc appelés polluants climatiques à courte durée de vie (SLCPs). La durée de vie de BC est de plusieurs jours à plusieurs semaines, l'O3 troposphérique est de quelques mois et le CH4 d'environ 12 ans. La durée de vie moyenne mondiale, pondérée par la production des divers HFC actuellement utilisés commercialement, est d'environ 15 ans, avec une fourchette de 1 à 50 ans (tableau 1). Parce que la durée de vie des SLCPs est beaucoup plus courte que celle du CO2, dont une partie importante demeure dans l'atmosphère pendant des siècles ou des millénaires, le forçage radiatif des SLCPs diminuera significativement en quelques semaines à quelques décennies après la réduction de leurs émissions.
Motivés par des études de modélisation (par exemple, Ramanathan et Xu, 2010, Shindell et al., 2012), les décideurs politiques s'intéressent de plus en plus aux stratégies d'atténuation rapide du climat qui ciblent les SLCP (Wallack et Ramanathan, 2009, Molina et al.). Ramanathan et Xu (2010) (ci-après RX10) ont conclu qu'un réchauffement de 0,6 ◦C peut être évité d'ici le milieu du XXIe siècle en utilisant les technologies actuelles pour réduire les quatre SLCPs, l'atténuation des HFC contribuant à environ 20% (0,1 ◦C) à le réchauffement évité d'ici 2050. En outre, RX10 a également montré que le dépassement du seuil de réchauffement de 2 ◦C peut être retardé de trois à cinq décennies au-delà de 2050 par ces efforts. Sur la base d'une évaluation internationale commandée par le Programme des Nations Unies pour l'environnement (PNUE) et l'Organisation météorologique mondiale (OMM) (PNUE et OMM, 2011), Shindell et al. (2012) ont utilisé un modèle climatique tridimensionnel pour tenir compte des réductions des émissions de CH4, O3 et BC (mais pas de HFC) en utilisant des scénarios d'atténuation similaires à ceux employés dans RX10. Le PNUE et l'OMM (2011) ainsi que Shindell et al. (2012) ont calculé que le réchauffement évité serait de 0,5 (± 0,05) °C d'ici 2070. Cette estimation est cohérente avec RX10, ce qui donnerait également un réchauffement évité de 0,5 ◦C si seulement CH4, O3 et BC étaient atténués. Les trois études ont calculé que la mise en œuvre complète des mesures d'atténuation pour ces trois SLCPs peut réduire le taux de réchauffement de la planète de près de 50% au cours des prochaines décennies. De plus, le réchauffement de l'Arctique peut être réduit des deux tiers au cours des 30 prochaines années par rapport aux scénarios de statu quo (PNUE et OMM, 2011).
Cependant, à l'exception de l'étude RX10, les HFC n'ont jusqu'à présent pas été inclus dans les analyses du bénéfice de l'atténuation de la température de l'atténuation des SLCP. Même RX10 n'a pas reconnu le plein potentiel de l'augmentation du forçage radiatif, comme l'ont montré récemment Velders et al. (2012), en raison d'une utilisation sans contrainte des HFC vers la fin du siècle. Par conséquent, ce qui manquait dans les études précédentes est l'augmentation potentiellement importante de l'utilisation de HFC. La présente étude s'appuie sur RX10 pour mieux prendre en compte les nouvelles projections des émissions de HFC et fournit une analyse détaillée de l'implication de l'atténuation des HFC sur la température globale
2- Méthodes
 2.1- Projection des émissions de HFC
En raison de leur destruction catalytique de l'ozone stratosphérique, la production et la consommation de CFC, HCFC et autres SAO sont progressivement éliminées dans le cadre du Protocole de Montréal (Andersen et Sarma, 2002, Andersen et al., 2007). Avec l'élimination des CFC dans le cadre du Protocole de Montréal en 1996 dans les pays développés et en 2010 dans les pays en développement (PNUE, 2010) et avec l'élimination des HCFC prévue en 2030 dans les pays développés et 2040 dans les pays en développement ( PNUE, 2007), les HFC sont de plus en plus utilisés comme solutions de rechange dans les applications qui utilisent traditionnellement les CFC, HCFC et autres SAO pour répondre à une grande partie de la demande en réfrigération, climatisation, chauffage et mousse thermos isolante (Velders et al., 2012). Les HFC ne détruisent pas la couche d'ozone (Ravishankara et al., 1994) mais sont de puissants GES (Velders et al., 2009).
La demande de HFC devrait augmenter dans les pays développés et en développement, en particulier en Asie, en l'absence de réglementation, tout comme la demande de HCFC pour les matières premières (Velders et al., 2009). Les HFC sont les GES les plus dynamiques aux États-Unis, où les émissions ont augmenté de près de 9% entre 2009 et 2010, comparativement à 3,6% pour le CO2 (EPA, 2012). Globalement, les émissions de HFC augmentent de 10 à 15% par an et devraient doubler d'ici 2020 (OMM, 2011, Velders et al., 2012). La présence de HFC dans l'atmosphère résulte presque entièrement de leur utilisation comme substituts aux SACO (Tableau 1)
The future HFC projection in this study is estimated us- La projection future des HFC dans cette étude est estimée en utilisant les taux de croissance du produit intérieur brut (PIB) et des populations du Rapport spécial sur les scénarios d'émissions (SRES) (GIEC, 2000) et (2) les modèles de remplacement des SACO avec les HFC et les technologies non-aimables observées ces dernières années dans les pays occidentaux. Nous avons supposé que ces modèles de remplacement resteront constants et qu'ils s'appliqueront aux pays en développement. Le règlement de l'Union européenne (842/2006) visant à s'éloigner des HFC à fort PRG est également inclus dans les projections HFC utilisées ici. Les lecteurs sont référés à Velders et al. (2009) pour plus de détails sur le développement de scénarios HFC (par exemple, les émissions par substance, région et années). Étant donné que le forçage projeté du HFC-23 est beaucoup plus faible que celui des HFC produits intentionnellement, il n'est pas inclus dans cette étude. En dépit de fortes augmentations potentielles du HFC-23 provenant de la production continue de HCFC-22 comme matière première, le forçage du HFC-23 en 2050 est de 0,014 W m-2 (Miller et Kuijpers, 2011) et le réchauffement associé est d'environ 0,01 ◦C.
 2.2- Autre projection d'émission
Les futurs scénarios d'émission de CO2 sont repris de la base de données Représentation Concentration Pathway (RCP, van Vuuren et al., 2011). Nous prenons RCP 2.6 (van Vuuren et al., 2007) comme cas d'atténuation et RCP 6.0 (Hijioka et al., 2008) comme cas de BAU pour le CO2. Les émissions de CO2 dans le scénario d'atténuation diminueront de moitié au milieu du XXIe siècle, tandis que les émissions de CO2 du BAU devraient continuer à augmenter jusqu'en 2080. La concentration maximale de CO2 dans l'atmosphère est respectivement de 660 et 440 ppm. Nous notons que les scénarios de CO2 selon les RCP 6.5 et 2.6 peuvent avoir des hypothèses différentes en ce qui concerne les secteurs d'émission et, par conséquent, la différence entre ces deux voies peut ne pas représenter directement l'effet des efforts d'atténuation. Les projections SLCP, à l'exception des HFC, sont conservées à partir de RX10. Selon un scénario BAU, les émissions de CH4 devraient augmenter de 40% en 2030, et les émissions de la Colombie-Britannique devraient augmenter de 15% d'ici 2015 pour ensuite se stabiliser. Les scénarios d'atténuation suivent les recommandations d'études de l'Institut international d'analyse des systèmes appliqués (IIASA) (Cofala et al., 2007) et de la Royal Society (2008) selon lesquelles les réductions maximales possibles de la pollution atmosphérique peuvent entraîner une réduction de 50% du CO 30% d'émissions de CH4 d'ici 2030, ainsi que des réductions de 50% des émissions de la Colombie-Britannique d'ici 2050.
2.3 Modèles
Le modèle utilisé dans RX10 est un modèle de bilan énergétique intégré du carbone et du rayonnement. Il adopte le modèle de géochimie du CO2 de Berne (Joos et al., 1996) pour estimer la concentration de CO2 dans l'atmosphère à partir des émissions. Le modèle relie les émissions de polluants à leurs concentrations atmosphériques et à la variation du forçage radiatif. Le modèle carbone-géochimie est ensuite intégré à un modèle climatique bilan énergétique avec une couche océanique mixte de 300 m et une sensibilité climatique de 0,8 (0,5 à 1,2) /C / (W m-2) pour simuler l'évolution temporelle de la surface moyenne globale Température. Le modèle tient également compte des variations historiques du forçage radiatif global attribuable au système attribuables aux facteurs naturels, aux GES et aux polluants atmosphériques, notamment les sulfates, les nitrates, le monoxyde de carbone, l'ozone, la CB et les carbones organiques. Le modèle est capable de simuler les variations de température historiques observées (figure 2), ainsi que la concentration historique en CO2 et la teneur en chaleur des océans (encadré 1 dans RX10).
 3-  Résultats et discussions
 3.1- Forte augmentation du forçage HFC
Le forçage radiatif des HFC en 2008 était faible à moins de 1% du forçage total des GES à vie longue (OMM, 2011). Cependant, sans une action rapide pour limiter leur croissance, le forçage radiatif des HFC pourrait passer de près de 0,012 W m -2 en 2010 à jusqu'à 0,4 W m -2 en 2050 (BAU élevé sur la figure 1). Le 0,4 m m-2 équivaut à près de 30 à 45% de CO2 forçant d'ici 2050 (si le CO2 suit les scénarios BAU et d'atténuation, voir la section 2.2 pour les descriptions de scénarios), ou à peu près le même forçage provoqué par les émissions actuelles de CO2 du secteur des transports (AIE, 2011). Dans les scénarios examinés ici, la demande de HFC pour la période 2050 à 2100 est supposée se maintenir aux niveaux de 2050 (en supposant une saturation complète du marché), ce qui entraîne une augmentation des HFC et un forçage radiatif après 2050 0,8 W m-2 en 2100 (BAU élevé sur la Fig. 1).

Nous calculons également le forçage des HFC à partir des données d'émission fournies par la base de données RCP et les comparons avec nos projections de forçage. Des comparaisons similaires des émissions et des forçages futurs sont également présentées à la figure 5.5 de l'évaluation de l'OMM (2011). Cependant, une comparaison directe est difficile, car à l'exception de RCP 8.0 (Riahi et al., 2007), les scénarios incluent diverses politiques d'atténuation comme hypothèses et ne peuvent donc pas être considérés comme des scénarios «BAU». Le groupe GCAM (Global Change Assessment Model) qui produit le RCP 4.5 (Wise et al., 2009, Thomson et al., 2011) met cependant à disposition un scénario «BAU» (GCAM baseline sur la Fig. ne pas inclure d'actions d'atténuation explicites (Smith et al., 2011). Par conséquent, le forçage HFC est deux fois plus important dans le scénario de référence GCAM que dans le scénario RCP 4.5 associé. Les projections de HAU BAU utilisées dans cette étude sont sensiblement plus élevées à long terme que les projections d'autres études, y compris RCP 8.0 et GCAM base. Dans la ligne de base du GCAM, par exemple, l'augmentation du forçage des HFC à partir de 2005 est inférieure à 0,2 W m -2 en 2100, contre 0,5 à 0,8 W m -2 dans nos scénarios BAU.
Il y a plusieurs raisons aux écarts dans les projections de HFC. (1) Les scénarios HFC n'ont pas reçu beaucoup d'attention dans le développement de la base de données RCP. Des groupes de modélisation d'évaluations intégrées individuelles ont adopté diverses hypothèses et techniques pour l'élaboration de ces projections de RCP et des scénarios de référence associés. Cependant, les descriptions détaillées de la projection des HFC dans les PCR et les scénarios de référence associés ne sont pas disponibles dans les documents pertinents, qui sont davantage axés sur les GES à longue durée de vie. (2) La plupart, sinon la totalité, des scénarios de PCR pour les HFC ont été élaborés avant 2007. Par conséquent, ils n'ont pas pris en compte l'élimination accélérée des HCFC dans les pays en développement et développés convenue par les parties à la 19ème réunion du Parties au Protocole de Montréal en septembre 2007, ce qui permettra de réduire les futures émissions de HCFC et d'augmenter les émissions de HFC (Meinshausen et al., 2011). (3) Au moins certains scénarios RCP n'ont pas pris en compte la forte croissance observée de l'utilisation des HFC et des concentrations atmosphériques depuis 2000 (OMM, 2011). La croissance linéaire des scénarios RCP (figure 1 et également figure 3.22 de Clarke et al., 2007) est nettement différente des hypothèses d'un marché en croissance dans les pays en développement, qui était la base de notre scénario HFC. (4) Enfin, un autre scénario récent de HFC jusqu'en 2050 (Gschrey et al., 2011), qui comprend une analyse détaillée du marché, montre également des émissions beaucoup plus élevées que les RCP, mais plus faibles que les nôtres. Les plus petites émissions de Gschrey et al. (2011) par rapport aux nôtres sont le résultat de deux hypothèses: premièrement, une fraction plus importante d'alternatives non fluorocarbonées dans plusieurs secteurs; et deuxièmement, la saturation du marché dans plusieurs secteurs après environ 2030, 10 ans plus tôt que dans nos scénarios, qui considéraient la saturation de la consommation pour quelques secteurs à 2040 (figure 1b de Velders et al., 2009) et une saturation complète. après 2050. On notera que les émissions de HFC continueront d'augmenter pendant une courte période après la saturation du marché à 2050, et que le rapport de mélange et le forçage du HFC augmenteront encore vers la fin du XXIe siècle (figure 1). Nous reconnaissons que certains modèles RCP projettent le HFC dans une méthode détaillée (par exemple, par gaz et par secteur, en fonction de l'évolution de plusieurs facteurs dans le temps, y compris la demande du véhicule, l'utilisation du climatiseur, etc.). Certains modèles RCP et Gschrey et al. (2011) ont également supposé que certains facteurs d'émission ne sont pas à l'échelle du PIB à long terme en raison des effets de saturation (par exemple, la surface des bâtiments), ce qui pourrait être encore plus important à l'échelle du siècle. Les différences dans la prise en compte des effets de saturation peuvent être une raison pour laquelle nos projections produisent des émissions plus importantes.
En conclusion, les différences dans les scénarios HFC résultent de grandes différences dans leurs hypothèses sous-jacentes et du niveau qu'ils prennent en compte les informations récentes. Les projections de HFC dans certains scénarios RCP n'utilisent pas les informations plus récentes comme dans Velders et al. (2009) et Gschrey et al. (2011). Les scénarios de Velders et al. (2009) reposent sur des hypothèses similaires à celles du GIEC-SRES en ce qui concerne les taux de croissance du PIB et de la population, mais ont incorporé de nouvelles informations récentes sur 1) les augmentations récentes de la consommation de HCFC dans les pays en développement.
(2) les taux de remplacement des HCFC par les HFC déclarés dans les pays non développés (5) et (3) les calendriers accélérés d'élimination des HCFC dans les pays visés à l'article 5 et non visés à l'article 5 (2007 Ajustement du Protocole de Montréal). Nous notons que ce scénario HFC n'est pas nécessairement une prévision plus précise des futures émissions de HFC que d'autres scénarios, mais une projection de ce qui peut arriver si les pays développés continuent les pratiques actuelles pour remplacer les SACO par des HFC et si les pays en développement suivent également cette voie.
Contrairement à la forte augmentation dans les scénarios BAU, le remplacement des HFC actuellement utilisés par des HFC à faible PRG dont la durée de vie est inférieure à un mois peut éliminer l'augmentation future du forçage des HFC (Velders et al., 2012). Selon le scénario d'atténuation, le forçage radiatif total des HFC en 2050 serait inférieur à sa valeur actuelle (atténuation à la figure 1). Des alternatives sans impact direct sur le climat, notamment l'ammoniac, le dioxyde de carbone et les hydrocarbures, ainsi que des HFC à faible potentiel de réchauffement de la planète et des alternatives non-naturelles, sont déjà utilisées dans un certain nombre de secteurs. Pour les autres secteurs, des alternatives sont en cours d'évaluation ou de développement (PNUE, 2011). Le calcul de l'atténuation du climat suppose que les alternatives choisies ne compromettent pas l'efficacité énergétique, hypothèse qui semble raisonnable compte tenu de la tendance historique à l'augmentation de l'efficacité énergétique lorsque les produits chimiques sont éliminés par le Protocole de Montréal (Andersen et Morehouse, 1997; 2002, Andersen et al., 2007).
3.2  Implication pour la température globale
Les tendances simulées de la température (Figure 2) concordent avec les études antérieures (Shindell et al., 2012, PNUE et OMM, 2011) selon lesquelles l'atténuation combinée de CH4, BC et O3 peut atténuer 0,5 ◦C de réchauffement au milieu du siècle. Il est également d'accord avec RX10 que les HFC contribuent d'environ 0,1 ◦C au réchauffement évité de 0,6 ◦C d'ici 2050 et que les SLCPs sont critiques pour limiter le réchauffement au-dessous de 2 ◦C. L'atténuation du CO2, bien que commencée en 2015, a très peu d'effet à court terme (voir la différence entre la ligne rouge continue et la ligne rouge sur la figure 2). En se concentrant sur l'échelle temporelle plus longue de la fin du siècle (figure 2), l'atténuation du CO2 joue un rôle majeur dans la réduction du réchauffement supplémentaire de 1,1 ° C d'ici 2100. Ensuite, les mesures combinées (CO2, CH4, BC et O3 ) considéré dans le PNUE et l'OMM (2011) et Shindell et al. (2012) ne sont pas suffisants pour limiter le réchauffement en dessous de 2 ◦C (ligne bleue sur la figure 2), si ces études avaient inclus les modèles de croissance HFC projetés de Velders et al. (2009) dans leurs scénarios BAU. Il a été démontré que l'atténuation de la croissance potentielle des HFC joue un rôle important en limitant le réchauffement à moins de 2 ◦C et pourrait contribuer à un réchauffement supplémentaire évité de 0,5 ◦C d'ici 2100 (ligne bleue et noire sur la figure 2). En utilisant les limites inférieures de l'augmentation de BAU du HFC (trait rouge sur la figure 1), un échauffement de 0,35 ° C sera évité. 
Les résultats sont cohérents avec RX10 à court terme, mais le réchauffement évité des HFC vers la fin du siècle est 100% plus élevé dans cette étude, en raison des scénarios de forçage mis à jour qui expliquent le taux de croissance élevé des HFC (lignes vertes Fig. 1 pour une comparaison avec les scénarios de forçage RX10). Le remplacement des HFC par des substituts à faible potentiel de réchauffement global qui ont une durée de vie d'un mois ou moins, ou avec d'autres matériaux ou technologies, peut fournir jusqu'à 0,35 à 0,5 ◦C d'atténuation du réchauffement d'ici 2100 dans les scénarios utilisés ici. Le point important à noter est que l'évaluation du rôle des HFC dans le changement climatique dépend de quels scénarios de BAU (c'est-à-dire de référence / de référence) les modèles climatiques supposent pour les HFC dans leurs simulations. De nombreux modèles climatiques supposent une croissance beaucoup plus faible des émissions de HFC, en raison de l'hypothèse implicite que les remplacements à faible impact climatique pour les HFC à PRG élevé seront largement adoptés au cours de ce siècle, une hypothèse qui dépend largement de l'ampleur des interventions politiques. comme développements technologiques et économiques. Notre étude montre toutefois que si les taux de croissance actuels des HFC à PRG élevé se maintiennent, le réchauffement supplémentaire des HFC à eux seuls atteindra jusqu'à 0,5 ° C au cours de ce siècle. L'atténuation potentielle de la température d'ici la fin du siècle, grâce au remplacement des HFC, s'ajoute à l'atténuation potentielle de 1 ◦C provenant d'autres réductions du SLCP (figure 2, voir aussi RX10). Lorsque l'effort d'atténuation pour réduire les HFC à PRG élevé est combiné avec celui sur BC et CH4, le réchauffement de 0,6 canC peut être évité d'ici 2050 et de 1,5 ◦C d'ici 2100 (trait plein noir vs trait rouge sur la figure 2). Cela réduirait le réchauffement cumulatif depuis 2005 de 50% à 2050 et de 60% à 2100 à partir des scénarios d'atténuation correspondants uniquement pour le CO2 (ligne rouge sur la figure 2). Sur la base de nos scénarios de croissance élevée des HFC, la contribution au réchauffement évité à 2100 dû au contrôle des émissions de HFC est d'environ 40% de celle due au contrôle des émissions de CO2. Compte tenu de l'échelle de temps à court terme (2050), les émissions de HFC sont encore plus efficaces (140% de réduction des émissions de CO2) pour freiner le réchauffement. Compte tenu des connaissances limitées en matière de sensibilité climatique (0,5 à 1,2 ◦C / (W m-2)), la valeur absolue de la température projetée à la fin du XXIe siècle est également incertaine (barres verticales sur la figure 2), mais la contribution relative de HFC pour réduire le réchauffement est encore significative et moins sujet à une telle incertitude.
4-  Conclusions
Le concept de «polluants climatiques à courte durée de vie» met en évidence la durée de vie plus courte de ces polluants (y compris les HFC) par rapport aux GES à longue durée de vie (y compris le CO2 et les CFC). Notre document démontre les avantages du remplacement des HFC à PRG élevé par des solutions de remplacement à PRG bas, de sorte que le forçage global et le réchauffement associé dû à la croissance des HFC peuvent être considérablement réduits. Les résultats présentés ici pourraient renforcer l'intérêt des décideurs pour la promotion de stratégies d'action rapide visant à réduire les SLCP, y compris les HFC, en complément des mesures immédiates visant à réduire les émissions de CO2. Il existe plusieurs options politiques pour limiter la croissance des HFC, distinctes de celles de la Colombie-Britannique et du CH4, notamment l'utilisation du Protocole de Montréal pour réduire la production et la consommation de HFC (Molina et al., 2009, PNUE, 2012a, b) les avantages climatiques que le traité a déjà obtenus grâce à son succès dans l'élimination de près de 100 produits chimiques similaires (Velders et al., 2007, 2012).
Sans le Protocole de Montréal, le forçage radiatif prévu par les SACO aurait été d'environ 0,65 W m-2 en 2010 (Velders et al., 2007), et la température globale aurait été plus élevée (ligne verte sur la figure 2). Il est également important de souligner que l'atténuation des HFC ne doit pas être considérée comme une stratégie «alternative» pour éviter le réchauffement des 2 ,C, mais plutôt comme une composante essentielle d'une stratégie qui nécessite également une atténuation du CO2 et des autres SLCPs. L'objectif de cette étude est le réchauffement à court terme au cours des prochaines décennies jusqu'à la fin du siècle. À plus long terme (siècle et au-delà), l'atténuation du CO2 serait essentielle pour une réduction significative du réchauffement.
Sous la direction de: D. Shindell

[78] « This study……… identifies the constraints imposed on policy makers »

[78] Régis Briday « Une histoire de la chimie atmosphérique globale », thèse de 2014 de l’École des Hautes Études en Sciences Sociales, p. 563- 565