• Climat : l’hypothèse anthropique est morte

    Le Climat

     

    Étant donné l’utilisation majeure qui est faite du thème de l’ « urgence climatique » et plus généralement de l’ « écologie » pour créer de multiples taxes, pour financer des énergies dites « renouvelables », pour justifier la régression générale de notre pays, notamment la liquidation de notre industrie nucléaire (une exigence allemande aussi), tout mouvement qui se réclame de l’esprit scientifique et de la défense du nucléaire se doit d’exprimer une opinion claire sur la question du Climat.

    La première question est de savoir s’il est possible de se faire une opinion, dans le cadre d’une réflexion développée sur la base de l’esprit scientifique, lorsque l’on n'est pas directement engagé dans les sciences du climat ?

    Oui. D’abord parce qu’il n’y a pas à proprement parlé de science spécifique au Climat. D’autre part, il y a un recul suffisant, notamment sur des prévisions, pas mal de publications, des faits reconnus… pour évaluer la solidité de ce l’on peut qualifier d’ « hypothèse anthropique ». Enfin une simple réflexion sur le problème d’ensemble permet d’en évaluer l’immense complexité avec, de plus, des interactions complexes de plusieurs phénomènes. [les résultats du Giec reposent notamment sur une interaction CO2 —> Vapeur d’eau. Contrairement à ce que l’on laisse croire ce n’est pas le CO2 équivalent qui est responsable du réchauffement par effet de serre de la vision du Giec, mais la vapeur d’eau].

    Citation du Climatologue du Giec Le Treut :

     

    "Rôle majeur de la vapeur d’eau dans l’effet de serre

    Le plus important de ces gaz est la vapeur d’eau soit environ 2/1000ème de la masse atmosphérique. Les nuages, qui sont une petite partie de la vapeur d’eau qui s’est condensée, ainsi que d’autres gaz, dont ceux que avons cités, y ajoutent leur effet mais, au total, c’est bien une toute petite partie de la masse atmosphérique qui est responsable de cet effet, sachant que le premier des autres gaz à effet de serre, le CO2 ne représente que 0,3‰ du volume atmosphérique, donc beaucoup moins que la vapeur d’eau"

     

     

    La température moyenne à la surface du Globe terrestre

     

    C’est cette température qui constitue la référence pour évaluer le réchauffement (ou le refroidissement), pour qualifier une année de « plus chaude » .. Cette température est évaluée par calculs avec des modélisations à partir des mesures de stations météos qui ont été complétées dans les années 70notamment pour l’hémisphère sud, par des mesures satellitaires. Trois Labos principaux définissent cette température moyenne : le NOAA et le Giss/Nasa (du très partisan James E Hansen, - jusqu’à 2013-) aux USA et le Met Office Hadley en GB du fameux Phil Jones. Il y a là une source de discussions et de controverses, en tout cas d’incertitudes.

     

    Les manipulations commencent aussi là malheureusement. Quand on parle du réchauffement de + 0.6 °c depuis les années 70, on oublie systématiquement de dire qu’il se compose de + 0.8 °c pour l’hémisphère nord et de + 0.2 °c pour l’hémisphère sud. C’est totalement contradictoire avec l’un des principes qui fondent les prévisions du Giec, c’est-à-dire que l’effet de serre du CO2

    équivalent provoque une évaporation qui renforce cet effet de serre avec la vapeur d’eau.

     

    Cela exprime une réalité que l’on perçoit bien lorsque l’on imagine la complexité du problème global : le climat terrestre et ses évolutions ne peuvent être représentés par des modélisations simples et calculés avec des codes de calculs que l’on peut qualifier de rudimentaires sur le plan des maillages et des modèles. De même l’approche de Vincent Courtillot basée sur les variations de l’activité solaire couplées aux évolutions du magnétisme terrestre s’est aussi avérée insuffisante.

     

    L’évolution de la température moyenne à la surface du Globe terrestre depuis les années 70

     

    On doit noter qu’avant cette période on ne disposait de mesures que pour l’hémisphère Nord en gros.

    Donc si l’on se rapporte à la remarque précédente il se peut que le réchauffement du XXème siècle ait été un peu sous estimé.

     

    Des années 70 à la fin des années 90 le réchauffement, + 0.6 °C environ donc, a été indéniable. A partir du pic de 1998, il a été reconnu, y compris par Phil Jones notamment, que cette température moyenne s’établissait sur un plateau (les tenants du réchauffement anthropique appellent naturellement cela une pause). Lors de la conférence sur le Climat à Doha en 2014 plus de 125 scientifiques du climat de tous les pays du monde avec une recherche sur le sujet (sans aucun français) s’étaient adressés à Ban Ki Moon pour lui rappeler ce fait et lui demander de réexaminer cette hypothèse du réchauffement d'origine anthropique.

    A partir de ce plateau il y a des pics de température qui sont liés au phénomène El Niño. Le livre que Claude Allègre a publié sur la question du climat en 2014 a fait l’objet d’une véritable inquisition de la part de la police du climat, emmenée par Valérie Masson Delmotte. Plus de 200 erreurs ont été relevées, pour la plupart minimes, et le journal très orienté disons, Libé, s’est fait un plaisir de démolir cette publication.

    Mais la remarque essentielle et juste de ce livre met en évidence le fait majeur que les prévisions du Giec sur l’évolution de la température moyenne terrestre pour le tournant des années 2000, symbolisées par la fameuse crosse de Hockey de Mann, avaient été complètement désavouées par les faits.

     

    Notons que fin 2010 malgré le lobbying de Bard et compagnie, l’Académie des Sciences avait retenu le terme de changement climatique et non pas réchauffement.

     

    Le plateau de températures s’étend maintenant sur une durée de près de 20 années, tandis que la concentration de CO2 équivalent a progressé de 40 ppm environ dans le même temps [le Giec a prévu le cataclysme à + 150 ppm supplémentaires]. A partir de celui-ci les pics de températures sont liés à des phénomènes El Niño1998, 2005, 2010, 2015, 2016 … La COP23 a triomphalement annoncé que 2017 était l’année la plus chaude hors El Niño, mais précisément il y a eu un épisode El Niño fin 2016 dont les conséquences ont marqué 2017. Fin 2017 il y a eu au contraire un La Niña.

    Donc en fait, depuis 2015 nous avons eu des épisodes climatiques planétaires rythmés par les phénomènes El Niño et La Niña. Malgré les tentatives d’annexions de ces phénomènes par les climatologues du réchauffement anthropique, ceux-ci n’ont pas de liens établis avec la concentration en CO2 équivalent de l’atmosphère.

     

    El Niño

    Le phénomène El Niño correspond à l’arrivée, en fin d’année, d’un courant sous marin chaud sur la côte du Pérou qui provoque l’étalement en surface d’eaux plus chaudes (de 1 à plus de 5 degrés c) avec l’influence du vent dominant très lié ici à la rotation de la terre.

    Cela semble assez limité en surface comme on le voit sur le schéma ci-dessus de la photo de l'article, mais ce phénomène a une influence climatique planétaire et provoque une hausse de la température moyenne à la surface du Globe de l’ordre de + 0,2 ° c.. 

     

    Il y a une équipe de scientifiques qui se consacrent à l’étude de ces phénomènes (ENSO El Niño Southern Oscillations). Ceux-ci sont maintenant bien décrits et leurs conséquences reconnues, mais l’équipe de scientifiques avoue ne pas maîtriser totalement la théorie de ces immenses mouvements convectifs. L’idée que ces courants chauds résultent d’eaux du Pacifique uniquement réchauffées en surface, alors que l’on sait que venant du fond du Pacifique peuvent exister de grands flux de chaleur n’est absolument pas établie.

    Les climatologues tenants de l’hypothèse anthropique affirment que l’augmentation de la fréquence de ces phénomènes est uniquement due au changement climatique sans le prouver.

     

    L’idée que ces vastes mouvements de convection correspondent à un transfert de chaleur du fond du Pacifique vers la surface, mouvements renforcés par des différences de pressions entre les rivages est et ouest du Pacifique, est vraisemblable.

     

    Le cycle du CO2

     

    Comme le précise Le Treut, dans le cadre d'un débat avec Vincent Courtillot organisé par Res Publica , le CO2 peut rester plus de 100 ans dans l’atmosphère. Citation :

    "On commence à bien comprendre le cycle du carbone. Des études très nombreuses ont montré que le CO2, une fois rentré dans l’atmosphère, y reste une centaine d’années (il s’agit d’un ordre de grandeur qui résume plusieurs effets, et certaines études disent un peu plus cent cinquante ans). Plus précisément, au bout de cent ans, la moitié au moins de ce qu’on a émis est toujours là"

     

    C’est une estimation, parce que le cycle du CO2 est complexe :

    La concentration en CO2, encore plus pour le Méthane et autres, dans l’atmosphère n’est pas constante. Les sources de relâchement de CO2 par les activités humaines sont localisées, globalement dans l’hémisphère Nord, puis il y a les transports, captations par la végétation, dissolution dans les océans, relâchements ... 

    Sur les relâchements et la variation de la captation, il y a l’influence importante du phénomène El Niño au fort impact climatique, ainsi qu’au niveau du réchauffement…

     

    Ce facteur majeur qu’est El Niño/La Niña n’a pas été bien intégré dans la démarche du Giec jusqu’à présent. Devant son impact grandissant, dont la concentration en CO2 dans l’atmosphère mesurée à Mauna Loa porte certainement la trace, et l’accélération de sa fréquence d’occurrence, il y a des tentatives pour associer ce phénomène très ancien à un changement climatique qui influencerait la répartitions des pressions à la surface du Pacifique. Les explications ne paraissent pas très crédibles. El Niño est essentiellement lié à un important chauffage d’eaux marines sans doute depuis le fond du Pacifique et à un fort mouvement convectif au sein de l’océan Pacifique. Ce phénomène d’oscillations, ENSO [El Niño southern oscillations], existait bien avant l’ère industrielle. On voit là combien la démarche univoque du Giec—> le CO2 anthropique est la cause de tous les événements climatiques qui sortent de la norme [mais y a-t-il une norme en matière de Climat ?], conduit à des impasses dans les analyses scientifiques.

     

    La complexité des calculs

     

    Si l’on se place au niveau de la surface de la terre (à l’altitude des stations météos), il y a deux sources de chauffage : le rayonnement du soleil qui amène 340 w/m2 en moyenne à la surface de l’atmosphère, donnée qui est sensible aux variations du bouclier magnétique de la terre, remarque de Vincent Courtillot, - après il y a les nuages, les aérosols, l’albédo des surfaces enneigées ou glacées.. -, et les flux de chaleurs qui viennent du centre de la terre de l’ordre de quelques watts/m2 qui peuvent monter jusqu’à 50 watts/m2 et où il y a beaucoup d’incertitudes sur les données notamment dans les fonds du Pacifique.

     

    Et il y a l’effet de serre qui ralentit les fuites thermiques. Comme on le voit dans l’exposé de Le Treut au court du débat Res Publica de 2011 (un des scientifiques honnêtes parmi ceux liés aux prévisions catastrophiques du Giec), l’apport estimé du CO2 équivalent anthropique porte sur environ 3 watts/m2. Étant donné la complexité des phénomènes qui interagissent (y compris El Niño/La Niña qui sont apparus très tard dans l’argumentaire des climatologues alignés du Giec) la nécessité d’une évaluation des incertitudes sur les calculs est indispensable. Si celle-ci est absente du discours de Le Treut elle a peut de chance d’apparaître dans les médias inféodés à la théorie du catastrophisme climatique.

    Dans le débat Vincent Courtillot/ Le Treut de 2011, qui a ressemblé plutôt aux développements de deux thèses qu’à un échange d’arguments, Vincent Courtillot met en évidence beaucoup d’autres sources d’incertitudes. Citation de Vincent Courtillot :

    "Je pense que les sources de ce réchauffement sont plus complexes et plus nombreuses qu’on ne le croit et que les incertitudes sont insuffisamment prises en compte, en particulier les incertitudes sur ce qu’on ne sait pas modéliser. 

    On ne sait pas modéliser une hypothèse physique sur les nuages, elle ne figure donc pas dans les modèles et on est incapable de chiffrer l’incertitude. Si un jour on trouve que ce mécanisme fonctionne, il remplacera la solution précédente. C’est de cette manière que la science progresse.

    Selon mon hypothèse de travail (que nous n’avons pas démontrée mais à laquelle nous avons donné

    des bases observationnelles plus solides), le rôle du soleil, des rayons cosmiques, de l’électricité atmosphérique et leurs conséquences pour la couverture nuageuse, sont, dans l'état actuel de notre compréhension des choses, très sous-évalués. "

     

    Conclusion

     

    Il résulte de tout cela qu’à l’heure actuelle le niveau des connaissances, y compris sur les données de base, des modélisations et de la capacité des codes de calculs est insuffisant pour étayer sérieusement les prévisions du Giec. C’est ce que répète Richard Lindzen depuis le début.

     

    Malgré tout il y a une volonté politique d’imposer des conclusions pessimistes dans les travaux de synthèse du Giec. Parallèlement, ce qui est patent de COP en COP, c’est que les États ne veulent absolument pas intégrer ces conclusions sur l"influence du CO2 équivalent d'origine anthropique dans leurs démarches propres liées à la définition de leur politique énergétique. La vertueuse Allemagne en tête.

     

    En tant que scientifique le moins que l’on puisse faire est de clairement exprimer des doutes sur les théories émises par le Giec. Mais il parait clair que ce que l'on a qualifié d' "hypothèse anthropique" est morte au tournant des années 2000. 

     

    Il serait bien que les sciences du Climat puissent se défaire des influences politiques et idéologiques qui plombent actuellement leur domaine. 

     

     

     

     
     
    « le temps nous file entre les doigts avec cette accélération des rythmes de la vie. La démocratie représentative est-elle démocratique ? »