Les médias répètent que nous serions face à une « sixième extinction des espèces »[1]. Wikipedia se fonde sur un sondage fait en 1998 auprès de 400 biologistes par le Muséum d'histoire naturelle américain de New-York. Près de 70 % des biologistes interrogés « pensent que nous sommes actuellement au début d'une extinction de masse causée par l'homme ». On est au niveau de ce que « pensent » ces personnes, et non de ce qu’ils auraient démontré. On est au niveau de l’argument d’autorité que représente un consensus. Un consensus n’est pas une preuve.
A croire que les médias contredisent ce que les experts eux-mêmes écrivent puisque l’IPBES, sorte de Giec de la biodiversité mis en place par l’ONU, écrit lui-même que « « l’incertitude associée aux scénarios et aux modèles est souvent mal évaluée dans les études faisant partie de la littérature scientifique … quant au degré de confiance qu’il faut accorder à leurs résultats et à leur prise en compte dans les activités d’évaluation et de prise de décisions » (IPBES- 25.11.2015-  Principale conclusion 3.4).
Il est donc légitime de se demander quels sont les fondements scientifiques de cette allégation catastrophiste d’extinction des espèces ? La situation est-elle comparable à celle des ères géologiques précédentes qui touchaient entre 50 et 80 % des espèces de ces époques ? Quels sont les modèles de simulation planétaire utilisés ?

Comme pour les modèles globaux climatiques,  un modèle doit s’articuler autour de cinq points :
- Faire le choix d’indicateurs
- Observer l’évolution des données, sur la plus longue durée possible
- Définir une structure de modèle à partir de lois scientifiques aussi simples que robustes que possible
- Paramétrer le modèle
- Évaluer a posteriori la validité du modèle, en comparant les résultats avec les observations. Le cas échéant, faire des prévisions, dans le temps et vérifier la réalisation des dites prévisions, dans le temps.
Qu’en est-il pour l’évolution de la biodiversité ? Qu’en pense l’IPBES ?

Analyse « les2ailes.com »

A- Les modèles scientifiques d’évolution des espèces

1- Choix des indicateurs

La revue Sciences express a publié le 15 janvier 2015, une prétendue étude scientifique intitulée : "Planetary Boundaries: Guiding human development on a changing planet". Elle a été présentée au « forum économique mondial » de Davos, les 21-24 janvier 2015. L’étude exprime un vœu : « La limite du taux de perte de Variabilité Phylogénétique des Espèces (PSV) ne devrait pas dépasser celui constaté au cours de l’Holocène ! ». Cette étude évoque l’existence de trois indicateurs :

  • Variabilité Phylogénétique des Espèces (PSV). C’est un indicateur qui« résume le degré de parenté phylogénétique entre les espèces dans un assemblage, compte tenu de toutes les espèces ou des plus proches parents ».
  • Taux Mondial d’Extinction : A partir de l’espérance de vie des espèces et de leur nombre, il est possible de calculer un taux d’extinction global, qui correspond à la proportion d’espèces qui disparaît pendant un intervalle de temps donné.
  • Indice d’Intégrité de la Biodiversité (BII), est un outil scientifique d'évaluation environnementale (outil méthodologique, parfois associé à un outil logiciel et souvent à une cartographie SIG) visant à identifier et hiérarchiser les problèmes de fragmentation écologique à diverses échelles éco-paysagères.

2 - Évolution des données

Il est très difficile de trouver des reconstructions de l’évolution planétaire et dans le temps de ces indicateurs. Ce n’est pas étonnant, dans la mesure où, même l’étude "Planetary Boundaries" reconnait que :

  • Variabilité Phylogénétique des Espèces (PSV), l’étude reconnait que les données sont « indisponibles au niveau mondial ».
  • Taux Mondial d’Extinction , mais l’étude reconnait qu’« il peut y avoir un risque important dans l’utilisation du taux d’extinction comme variable de contrôle ».
  • Indice d’Intégrité de la Biodiversité (BII), mais « en raison d'un manque de preuves …, nous avons proposé une frontière préliminaire à 90% de la BII, mais avec une très large gamme d'incertitude (90-30 de%) qui reflète les grandes lacunes dans nos connaissances sur le BII-Terre système fonctionnement relation »

Dans la bibliographie, on trouve des courbes correspondant à ces indicateurs, mais toujours au plan de micro-espaces, jamais au niveau planétaire.
C’est d’ailleurs ce que reconnait le Giec de la biodiversité, l’IPBES (Plateforme intergouvernementale sur la biodiversité et les services éco-systémiques) : « Il existe d’importantes lacunes dans les données disponibles pour construire et tester les scénarios et les modèles, et des obstacles de taille continuent de s’opposer au partage des données » (IPBES- 25.11.2015- Principale Conclusion 3.5)

3- Structure scientifique des modèles

Pour modéliser l’évolution de la biodiversité, existe-t-il des lois scientifiques simples et robustes ?
La question se pose au plan planétaire, car s’il existe des techniques d’observation au plan local, il n’en n’est pas de même au plan global.
Quels sont les modèles retenus par l’IPBES ? La publication par l’IPBES est annoncée depuis longtemps d’un « guide sur les outils et méthodologies pour l’analyse des scénarios et la modélisation de la biodiversité ». Ce guide est toujours d’actualité dans les budgets de l’IPBES. Il est donc difficile de juger de la qualité des modèles de l’IPBES.

   3.1- La loi « Aire-Espèces » de Arrhénius

Les biologistes ont redécouvert une loi connue depuis Arrhénius en 1921 et améliorée dans les années 1960, dénommée « loi aire-espèces »[2] . Sa méconnaissance entraîne bien des déconvenues dans l’évaluation de la biodiversité. Cette « loi » exprime la relation entre la superficie d’une aire échantillonnée et le nombre d’espèces représentées dans cet échantillon. Elle permet, par extrapolation, d’estimer le nombre d’espèces présentes dans un espace de plus grande superficie que ceux échantillonnés.
Une erreur logique fréquente est d’utiliser cette loi pour estimer le nombre d’espèces éradiquées lorsqu’un espace est perturbé. Cette erreur logique n’a été relevée que récemment. Une publication dans Nature[3] démontre clairement que si elle est efficace pour l’estimation du nombre d’espèces présentes, elle ne l’est pas pour celle du nombre d’espèces éradiquées et conduit alors à une forte surestimation de ces éradications.
La vitesse d’apparition des espèces nouvelles, quand elle est sous-estimée, est un autre exemple de risque de surestimation de la perte en biodiversité. Il ne faut pas sous-estimer la dynamique spontanée de la biodiversité, notamment parce que les phénomènes qualifiés d’aléatoires y jouent un rôle plus important. 

   3.2- Le modèle de Levins 

C’est un modèle mathématique[4] de la dynamique de métapopulation mathématiques qui reconstitue un vaste réseau de petites parcelles similaires, avec des dynamiques locales qui se produisent à une échelle de temps beaucoup plus rapide que la dynamique de la métapopulation entière. Ce modèle est parfois utilisé pour décrire un système dans lequel. Il est aussi appelé patch occupancy model.
Ce modèle présuppose qu'il existe un nombre infini de parcelles d'habitat disponibles et prédisent que la métapopulation ne s'éteindra que si le seuil n'est pas atteint.
Il est souvent critiqué car :
- Il présuppose que les individus ont la même probabilité d'aller dans un patch d'habitat que dans un autre, a priori tout à fait arbitraire.
- Il présuppose que ce sont les patchs d'habitats les plus proches qui sont le plus susceptibles d'échanger des individus. Or, en matière de flore, c’est oublier la capacité de vents circulant à plusieurs milliers de km d’altitude à emporter les pollens d’un continent à l’autre. D’une certaine manière l’homme participe à une forme de mondialisation de la biodiversité en favorisant le déplacement d’espèces entre régions de la planète.
- il présuppose de petites parcelles similaires. Or les biotopes ne peuvent se limiter à une description binaire (occupées en noir ou inoccupées en blanc) et l’évolution des patches sont fonction de multiples paramètres qui différencient les parcelles entre elles.
- Il présuppose que toutes les populations locales ont un risque élevé d'extinction. Or il existe des théories de « Source-puits »[5] qui expliquent l’existence de parcelles source, où les ressources sont abondantes : les individus produisent plus de descendants que nécessaire pour les remplacer (croissance positive de la population). Le surplus de progéniture est dispersé vers d'autres parcelles (exportations nettes). Dans les parcelles puits, où les ressources sont rares : les populations sont maintenues par l’immigration d'individus (importateurs nets) et les taux de croissance sont négatifs sans immigration. 

   3.3- Les limites des modèles au plan planétaire

Il existe d’autres modèles, comme par exemple :
- celui de Mark Newman, auteur de Modeling Extinction
- ceux de E. Gilpim et Michael Soulé qui ont développé la théorie de la spirale d'extinction
Tous sont l’objet de critiques pour leur incapacité à décrire une situation planétaire et à prédire une « sixième extinction des espèces ». 
L’IPBES le reconnaît : « les scénarios actuellement disponibles, y compris ceux qui ont été élaborés dans le cadre de précédentes évaluations mondiales, ne répondent pas pleinement aux besoins de l’IPBES en matière d’évaluation, faute d’une prise en considération complète des facteurs de changement pertinents, des objectifs visés et des choix d’intervention possibles aux échelles spatiales et temporelles voulues » (IPBES - 25.11.2015- Principale conclusion 3.1)
L'IPBES ajoute que « de nombreux modèles sont disponibles pour évaluer l’impact des scénarios relatifs aux facteurs de changement et aux interventions sur la biodiversité et les services éco-systémiques; toutefois, d’importantes lacunes subsistent (chap. 4, 5, 8). Ces lacunes concernent notamment :
i) les modèles qui lient explicitement les services éco-systémiques (ou tout autre bienfait que les populations tirent de la nature) à la biodiversité;
ii) les modèles qui décrivent les processus écologiques à différentes échelles spatio-temporelles pour répondre aux besoins des activités d’évaluation et d’appui à la prise de décisions, y compris les évaluations de l’IPBES;
iii) et les modèles qui anticipent les points de rupture écologiques et les changements de régime et qui, par conséquent, donnent rapidement l’alerte
 » (IPBES - 25.11.2015- Principale conclusion 3.2)

      a) Une réduction abusive de la diversité des habitats à une simple variable mathématique

De nombreux auteurs ont remis en cause une utilisation symétrique de la loi aire-espèces pour prédire les taux d’extinction des espèces[6]. La courbe mathématique ignore en effet, la texture des paysages, la mosaïque des habitats. Les espèces ne sont pas distribuées aléatoirement dans l’espace, mais plutôt en foyers dispersés, en patchwork. C’est pourquoi Yanni Gunnel[7]  explique que « réduire la grande diversité des habitats à une simple variable mathématique représentant une superficie (le paramètre A de l’équation) est abusif : quelques mesures de gestion conservatoire au bon endroit, au sein du maillage de la mosaïque, devraient s’avérer aussi efficaces en termes de préservation de la biodiversité que la mise en défens de milliers de km² de forêt »[8].
Yanni Gunnel donne un exemple : près de 90% de la mata atlântica du Brésil ont été abattus durant les 500 dernières années ; la loi aire-espèces devrait donc prédire la perte d’environ la moitié de toutes les espèces présentes au départ. Pourtant, une étude menée par des zoologistes brésiliens a montré que pas une seule des espèces connues ne pouvait être déclarée comme disparue. Plusieurs espèces d’oiseaux et six espèces de papillons que l’on croyait éteintes il y a 20 ans ont été redécouvertes. Les raisons de leur survie sont simples et sans surprise : la plupart des espèces rares le sont parce qu’elles ont des niches étroites, sont des espèces spécialistes et sont restreintes à des micro-habitats qui existent sous forme dispersée, en poches localisées, sur de vastes superficies du territoire. Donc, même avec une perte de 90% de la superficie totale de mata atlântica, des  échantillons représentatifs de tous ces micro-habitats survivent encore dans les 35.000 km² de parcs, réserves et zones reculées. Cet exemple ne justifie pas la déforestation, mais sert à démontrer l’imprécision de la loi aire-espèces…

      b) Les limites de paramétrages des modèles utilisés :

– si l’on veut appliquer ces modèles à une méta-population réelle, il peut être délicat voire impossible d’évaluer certains paramètres de la modélisation ;
– les modèles reposent nécessairement sur des hypothèses simplificatrices, par exemple sur l’idée que les taux de dispersion sont identiques pour toute paire de populations connectées.
– ils négligent les interactions inter-spécifiques ainsi que les potentialités des milieux d’habitats ;
– la persistance, si elle est un premier objectif, est souvent conditionnée par la survie d’un maximum de populations, pour des raisons de diversité génétique ; c’est alors la « cohérence du réseau » qui intervient. Cette cohérence est très difficile à quantifier, bien que la taille du composant cyclique maximal soit un indicateur intéressant.
–  l’étude de la cooccurrence des espèces est essentielle en écologie. Elle nécessite de formuler des hypothèses sur les mécanismes d' assemblage des communautés. Mais, partir des assemblages pour comprendre la distribution des espèces pose un problème majeur : le nombre de communautés à envisager devient rapidement très élevé (pour n espèces, ce sont 2n assemblages possibles), ce qui limite la mise en application des modèles.

4- Évaluation a postériori de la validité du modèle

Pour juger de la solidité d’un modèle, il faut l’évaluer a posteriori en comparant les résultats avec les observations. Le cas échéant, il faut vérifier que le modèle est capable de faire des prévisions.  

   4.1- Le point de vue de l’IPBES : Aucune évaluation critique de la solidité des conclusions !

L’IPBES reconnait que « l’élaboration et l’application des scénarios et des modèles se heurtent encore à d’importants obstacles, qui pourraient être surmontés moyennant une planification, des investissements et des efforts suffisants » (IPBES- 25.11.2015- Message essentiel 3) [9]. « Ces obstacles ont empêché l’utilisation généralisée et productive des scénarios et modèles de la biodiversité » (IPBES- 25.11.2015- Principale conclusion 1.4)
Il ajoute : « l’incertitude associée aux scénarios et aux modèles est souvent mal évaluée dans les études faisant partie de la littérature scientifique … quant au degré de confiance qu’il faut accorder à leurs résultats et à leur prise en compte dans les activités d’évaluation et de prise de décisions. Si de nombreuses études mentionnent les forces et les faiblesses de leurs scénarios ou de leurs méthodes de modélisation, la plupart ne fournissent aucune évaluation critique de la solidité de leurs conclusions en comparant leurs projections à des séries de données pleinement indépendantes (c’est-à-dire des données qui n’auraient pas servi à construire ou calibrer des modèles) ou à d’autres types de scénarios ou de modèles. Ceci réduit considérablement la confiance que les décideurs peuvent et doivent avoir dans les projections issues des scénarios et des modèles » (IPBES- 25.11.2015-  Principale conclusion 3.4)

   4.2- Un exemple symptomatique : Tchernobyl

Un exemple illustre bien les désillusions que peuvent générer tous ces modèles. Il s’agit de ce qui s’est passé à Tchernobyl.
Vingt-cinq ans après l’accident de Tchernobyl, la zone interdite abrite de nombreuses espèces d’animaux sauvages, dont certaines totalement absentes avant l’accident. Ours, rennes, blaireaux, lynx s’y sont installés. Les oiseaux nichent même sur le sarcophage de béton qui recouvre le réacteur défunt à des niveaux de radioactivité un million de fois la normale. On y trouve une espèce de mammifère extrêmement rare, quasiment éteinte sur la planète tellement elle est chassée par l’homme : le cheval de Przewalski. Au plan végétal, des lilas sont en pleines fleurs, des arbres poussent à l’intérieur même des HLM.
Il faut insister pour ne pas dire ce que l’exemple de Tchernobyl  ne signifie pas : celle-ci a été une catastrophe scandaleuse. Se focaliser sur la question de la biodiversité serait un contresens moral. Il y a eu là, en 1986, un drame humain inadmissible. Jean-Paul II était prophétique en appelant les participants à symposium sur la physique nucléaire, à élever les niveaux de sécurité de l'énergie nucléaire.
Il n’empêche que Tchernobyl pose de nombreuses énigmes pour les scientifiques !  Des laboratoires ont fait une expérience : ils ont importé dans la zone de Tchernobyl des souris blanches et en ont gardé d’autres en zone non contaminée. Après 45 jours,  les deux lots ont  été soumis en laboratoire à de forte radiation. Le lot ayant été à Tchernobyl résistait mieux. Les radicaux libres semblaient avoir été éliminés de façon bien plus efficace pour celles qui avait séjourné préalablement dans la zone contaminée Ce séjour aurait donc bénéficié d’un « effet hormesis » c'est-à-dire que l’hypothèse serait confirmée que de faibles doses de rayonnements ionisants peuvent être bénéfiques, en stimulant l'activation des mécanismes de réparation qui protègent contre des maladie, qui ne sont pas activés en l'absence de rayonnement ionisant rayonnement.

Cet exemple illustre l’extrême difficulté des scientifiques à élaborer des lois d’évolution des habitats éco-systémiques, même au plan local.

5- La question de l’impact du réchauffement sur la biodiversité

Certes, il en faut pas confondre causes et conséquences du réchauffement climatique. Si tant est que celui-ci ait un impact sur la biodiversité, cela ne nous dirait rien des causes des variations climatiques, solaire ou humaine.
Or, rien n’est acquit quant aux conséquences sur la biodiversité.
Wilfried Thuiller, de l’université de Grenoble, a conçu des modèles de niches écologiques basés sur la corrélation entre climat et écosystèmes. Ces travaux ont été évalués lors d’un cycle de séminaires franco-québécois en 2010. La conclusion a été la suivante : « Outre les incertitudes, ces modèles ont des limites : les données sur la biodiversité sont partielles, les outils de modélisation évoluent très vite et la projection dans l’avenir d’une niche écologique n’implique pas que l’espèce va être capable d’y migrer car cela dépend de sa capacité de dispersion et de migration. Également, il y a lieu de tenir compte de l’inertie des systèmes écologiques : ainsi, même si la niche d’une espèce disparaît, cela n’implique pas la disparition soudaine de l’espèce, notamment concernant les végétaux, du fait des compétitions interspécifiques qui se mettent en place au cours de la migration. Enfin, les liens entre la répartition des espèces et le climat ne sont pas toujours de cause à effet et demeurent parfois essentiellement des corrélations. Ainsi, un modèle de niche ne peut entièrement expliquer les causes d’une répartition actuelle du fait des nombreuses variables en jeu que le modèle ne peut entièrement appréhender ».

B- Au plan local, que faire ?

Si le concept d’extinction globale des espèces se révèle sans fondement, il n’empêche qu’au plan local, des problèmes puissent devoir être réglés ? Que faire alors ?
Mais il faut être prudent : aujourd’hui, les chevreuils pullulent après avoir disparu, les grenouilles réapparaissent dans nos mares alors qu’on les croyait disparues. Certes on peut mettre en place des plans de pêche pour maintenir une certaine densité de thons rouges.

1- Le cas des éléphants

Mais que faire face à la croissance de la population africaine face aux éléphants ? Quand les éléphants privent des agriculteurs d'une année de récolte, la FAO réfléchit au moyen de "faire face aux raids d’éléphants et d’hippopotames". On se demande si les experts de la FAO sont des plaisantins: "Les attaques d'éléphants vous préoccupent? Aucun souci avec un spray au poivre" ! Or, quand les éléphants n'ont plus d'espace pour vivre, ils rentrent en ville et sème panique et destruction comme c’est arrivé à Siliguri  dans l’est de l’Inde en février 2016 .
Comment gérer les dégâts de gibiers face à la croissance démographique ?[10]

2- Le cas des poissons : ne pas confondre surexploitation et extinction des espèces.

Olivier Le Pape, chercheur à l’ INRA/ACO (UMR ESE) et professeur à Agrocampus Ouest  tempère[11] les approches radicales et catastrophistes[12] sur la question de la surpêche. Il explique :

« force est de constater que l'homme a causé peu d'extinctions complètes de mollusques, crustacés et poissons en mer... La surpêche entraîne effectivement des effondrements fréquents de population, car la pêche réduit les niveaux de population de plusieurs ordres de grandeur. Néanmoins, on observe que les populations de poissons marins peuvent demeurer à des niveaux très faibles en termes de quantité …
 Mais ces effondrements conduisent rarement à des extinctions, comme l'illustrent la surpêche de la morue du Nord et du thon rouge de l'Atlantique et du Sud. Le faible niveau d'extinction des poissons marins peut ainsi s’expliquer par leur stratégie démographique spécifique. En effet, la stratégie de vie de la plupart des espèces de poissons marins se caractérise par une fécondité élevée, la production puis l’émission de grandes quantités d'œufs dans le milieu marin, et enfin l'absence d’assistance parentale. Cette stratégie entraîne une mortalité élevée aux premiers stades de la vie, avec une forte variabilité de l'abondance et des taux de survie de l’œuf à maturité de l’ordre de 1 pour 100 000. En comparaison, les mammifères et les oiseaux ont peu de descendance par événement reproducteur (<20) mais des taux de mortalité plus faibles. Cependant, cette stratégie de vie a aussi pour résultat – et avantage - une probabilité beaucoup plus faible d'extinction de la population, car quelques poissons marins femelles peuvent potentiellement générer des millions de juvéniles ».

Ne pas être alarmiste ne signifie pas qu’il ne faille rien faire. Des plans de pêche peuvent être instaurés quand c’est nécessaire, comme il y a des plans de chasse.

Conclusion

Au plan global, ces points scientifiques font dire à Christian Lévêque, de l’Académie d’Agriculture, que les  medias et gouvernants ont tort de parler d’une "sixième extinction des espèces". Il qualifie ce concept de « sauce immonde ! ".
Nous retenons, à titre de conclusion, ce propos de Yanni Grunnel : « Le décalage entre la trop lente progression des certitudes scientifiques par rapport à l’urgence des prises de décisions éthiques se reflète assurément dans l’usage qu’a pu faire Wilson de la loi Aire-Espèces… »
Il évoque la vision malthusienne courante actuelle et s’interroge sur la légitimité qu’il y a à s’appuyer sur un sodisant péril démographique humain « pour pratiquer une propagande scientifique fondée sur des formules mathématiques discutables ? Le souci de véhiculer une morale peut-il justifier que l’on abuse des chiffres et des modèles ? Ce dilemme entre déontologie professionnelle (admettre une incapacité de la science à prévoir avec précision), et impératif moral (prédiquer l’avenir sur les bases d’un scénario du pire et d’une compréhension incomplète des faits), pose la question plus large de savoir si la science pourra un jour être le fondement suprême d’une conduite de la société, ou bien si la morale doit conserver une autonomie par rapport aux messages que la science peut formuler. En attendant, on continue à lire des prévisions alarmistes concernant l’extinction des espèces d’ici 2050, cette fois en lien avec le réchauffement global (Thomas et alii, 2004) » [13] .


[1] Les cinq extinctions précédentes seraient, selon les géologues
- la crise datant de l’Ordovicien supérieur  (450 millions d’années) qui a touché les trilobites
- L’extinction du dévonien (385 millions d’années). Elle a été plus lente, mais a touché la végétation et les insectes ainsi que de nombreux organismes marins de types coraux et éponges.
- La crise datant du Permien (250 millions d’années).  En mer, entre 85 et 96 % des espèces ont disparu ; sur terre, on avançait jusqu’ici les chiffres de 70 à 77 % des familles de vertébrés terrestres, et 63 % de diminution du nombre des familles d’insectes représentées. De nombreuses causes ont été avancées et âprement discutées.
- L’extinction du Trias jurassique (200 millions d’années). Elle aurait touché 20 % des espèces marines, la plupart des diapsides (reptiles, oiseaux) et les derniers grands amphibiens.
- La crise du Crétacé-Tertiaire (65 millions d’années). C’est la plus célèbre qui a provoqué la disparition des grands reptiles de type dinosaures. 

[2] Arrhenius (1921) a établi le modèle de base, dit loi de puissance : SA≈cAz , où SA est le nombre d’espèces dans A, A la surface,  c et z étant deux paramètres. May (1975), en supposant que la fréquence des espèces suivait une loi log-normale, a établi que la puissance z devait valoir 0,25, confirmant les résultats empiriques. Le seul paramètre de la loi de puissance reste donc c , un facteur d’échelle dépendant de la richesse de l’habitat. Plotkin et al. (2000) ont montré que montrent que le modèle log-normal rend mal compte de la réalité.

Harte et al. (1999) ont montré que la loi de puissance était équivalente au modèle d’auto-similarité, dérivé de la théorie des fractales. On considère un rectangle Ai dont le rapport longueur sur largeur vaut   . On obtient Ai+1 le rectangle en plaçant deux rectangles Ai côte à côte (et donc le rectangle Ai-1 en coupant Ai en deux). Si est le nombre d’espèces rencontrées dans Ai.  On définit enfin  αi=Si-1/Si  le facteur de diminution du nombre d’espèces (dit paramètre de persistance) lié à la division par 2 de la taille du rectangle. S’il s’agit d’une constante, α , indépendante de la taille du rectangle, l’habitat est dit auto-similaire : l’augmentation du nombre d’espèces ne dépend pas de l’échelle d’observation. Si cette condition est respectée, le nombre d’espèces suit la loi de puissance, et α=2-z . Pour la valeur classique de z=0,25, α=0,84. Il existe des abaques donnant la valeur de αi  en fonction de la surface échantillonnée. Elle augmente avec la surface, ce qui infirme le modèle d’autosimilarité.

Plotkin et al. (2000) ne supposent pas αi constant et lui imposent simplement d’être une fonction de la surface, choisie arbitrairement pour permettre les calculs ultérieurs, et dont la forme correspond aux observations reprises dans les abaques. Après calculs, la relation aire-espèces est SA≈cAz e-p(A). p(A) est un polynôme de degré n de A, sans constante. Les monômes sont d’autant moins importants que leur degré est élevé. L’approximation de degré 0 est la loi de puissance. Celle de degré 1 est retenue par les auteurs pour estimer le nombre d’espèces rencontrées sur la surface : ̂ŜA≈cAz e-p(A). (Source : https://www.ecofog.gf/fr/enseignement/fth2010/Cours/4-Biodiversite/Mesures%20de%20la%20biodiversit%C3%A9.pdf)

[3] He, F., Hubbelle, S .P. « Species-area relationships always overestimate extinction rates from habitat loss ». Nature, 2011, 473, 368-371

[4] Ce modèle est fondé sur l’équation dp / dt = chp (1-p) -ep  dans laquelle  p = parcelles occupées, e = taux d'extinction, c = taux de colonisation et h = quantité d'habitat.
Une espèce ne persistera que si h> δ  où δ = e / c
δ = paramètre de l'espèce, ou comment une espèce réussit à coloniser un patch.

[5] modèle de dynamique source-puits développé par Pulliam 

[6] Connor, McCoy, 1979 ; Gould, 1979 ; Gilbert, 1980 ; Quinn, Harrison, 1988 ; Simberloff, 1992 ; Brown, 1992 ; Keywood, Stuart, 1992 ; Shrader-Frechette, McCoy, 1993 ; Budiansky, 1994

[7] Professeur de géographie à l’Université de Lyon 2.

[8]  Source : « Écologie et société : Repères pour comprendre les questions d’environnement » de Yanni Gunnel,  Armand Colin, 2009, collection « Sciences humaines et sociales », § 3

[9] Source : Analyse méthodologique des scénarios et des modèles de la biodiversité et des services écosystémiques (produit 3 c) - Résumé à l’intention des décideurs- Note du secrétariat du 25.11.2015 - Introduction

[10] Dans un pays comme la France, la Révolution française a généralisé la chasse chez les agriculteurs qui considéraient le gibier comme nuisible aux cultures. On assista à une vague d'extermination du gibier. C’est Napoléon 1er qui décida, en 1810, de juguler cette extermination en instaurant des « passeports de chasse ». Malheureusement, la journée de travail d’un bon moissonneur se payait 2 francs, alors que le permis de chasse coûtait 10 à 20 fois plus, ce qui généralisa le braconnage. Il a fallu un siècle de développement économique pour que le braconnage ne soit plus rémunérateur et que, avec le développement des loisirs, ce soit finalement les chasseurs qui puissent financer eux-mêmes l’indemnisation des dégâts de gibiers. Parallèlement, le développement des rendements agricoles a été très favorable à une meilleure alimentation des grands animaux (cerfs, chevreuils et sangliers). C’est alors que ces espèces sauvages ont pu retrouver une place équilibrée et compatible avec le développement de la population.  En Afrique, on en est encore au stade du braconnage par les locaux, à la fois pour  protéger leurs cultures et pour se procurer un complément de revenus. Pourquoi le développement économique ne permettrait-il pas, en Afrique également, un meilleur équilibre entre biodiversité sauvage et démographie ?

[11] Source : Letter dans Proceedings of the National Academy of Sciences (PNAS) en août 2017

[12] En particulier celle de Burgess dans une Letter parue dans PNAS en août 2017 sous le titre « Overfishing causes frequent fish population collapses but rare extinctions » (« La surpêche entraîne l'effondrement fréquent des populations de poissons, mais de rares extinctions »)

[13] (source : « Écologie et société : Repères pour comprendre les questions d’environnement » de Yanni Gunnel,  Armand Colin, 2009, collection « Sciences humaines et sociales », § 3)