Aller au contenu

WBE

Membres
  • Compteur de contenus

    113
  • Inscription

  • Dernière visite

Tout ce qui a été posté par WBE

  1. Un jour peut-être, mais la patience à des limites....
  2. Bonjour,Je ne voudrais pas être impoli, mais l'été est déjà très avancé et rien à l'horizon? Le pack sud-est devait sortir. Merci de donner quelques précisions Bons vols à tous sur France VFR
  3. La A Avis aux « pingouins » RoyAvis a La Royale French Navy vient de perdre Sonny, fondateur du site. Jusqu'au bout, il nous aura fait part de ses idées, montrant ainsi son attachement infaillible à RFN. Triste journée avec son départ. Le site restera fidèle à l'esprit qu'il lui a donné. Bon vol Remi. le French Navy vient de perdre Sonny, fondateur du site. Jusqu'au bout, il nous aura fait part de ses idées, montrant ainsi son attachement infaillible à RFN. Triste journée avec son départ. Le site restera fidèle à l'esprit qu'il lui a donné. Bon vol Remi.
  4. WBE

    Vœux 2020

    Je vous souhaite une année sans haine et violence. Pourquoi? Car c’est au moment où tu vois un moustique se poser sur tes testicules que tu te rends compte qu’il y a moyen de régler certains problèmes autrement que par la VIOLENCE. Janvier est le mois où l’on offre ses meilleurs voeux à ses amis. Les autres mois sont ceux où ils ne se réaliseront pas.
  5. Oui, mais c'était avant….. Records du climat en Basse-Normandie en 2019 Basse-Normandie Record national en 2019 Températures Record de chaleur 36,9 °C 44,4 °C Record de froid -5,3 °C -11,2 °C Pluie Précipitations maximales 75 mm 296 mm Précipitations minimales 39 mm 0 mm Vent Vitesse de vent maximale 104 km/h 191 km/h
  6. Et d'ajouter la très fameuse ligne de la Qantas : la "Fiesta Route" (tout un programme !) qui reliait Sydney à Londres en un peu plus de 45 heures via les escales à Nadi (Fidji), Papeete, Acapulco, Mexico, Nassau (Bahamas), Hamilton (Bermudes) et, enfin, Londres.
  7. Big Mike parle de la route des Indes pour rejoindre Papeete ou Nouméa, c'est UTA qi faisait ce trajet dans les années 1970 et plus, mais en DC8 pas en Boeing 707. Les 707 que j'ai vu à FAAA étaient de la PANAM. Air France n'assurait qu'une liaison Los Angelès Paris. De mémoire, sauf erreur
  8. A pratica vinci a grammatica (proverbe corse) La pratique domine la théorie
  9. "There is no climate emergency " Benoît Rittaud est un des signataires. Est-il spécialiste du climat? Non, c'est un mathématicien, peut-être brillant, mais est-il plus crédible que les autres pour parler du climat?
  10. Henri Prévot Ingénieur général des mines Aujourd'hui consultant en politique de l'énergie Quelques aspects d'une carrière variée - Diplômé de Polytechnique (promotion 64) et de l'Ecole nationale supérieure des mines de Paris - Ingénieur au fond dans les Houillères du Nord et du Pas de Calais en 1968 - Direction régionale de l'industrie en Provence Côte d'Azur - Responsable de la sous-direction du textile et de l'habillement du ministère de l'industrie - Envoyé dans le Sud-Ouest par les ministres de l'agriculture et de l'industrie comme délégué de massifs forestiers pour comprendre la relation entre les sylviculteurs et les utilisateurs de bois et stimuler l'économie de la forêt et du bois ; cela a donné la matière à "l'économie de la forêt - mieux exploiter un patrimoine" (Edisud) - Délégué régional de l'ANVAR en Aquitaine - Directeur général adjoint de la région Aquitaine et membre du cabinet de J. Chaban Delmas - Au Secrétariat général de la défense nationale, chargé d'étudier la relation entre l'économie (réglée par le droit européen) et la sécurité du pays (qui est de responsabilité nationale) ; cela a donné la matière à "La France : économie, sécurité - économie mondialisée, sécurité nationale, Union européenne", Hachette Pluriel, prix des ministères - Jusqu'en 2009, au conseil général des mines, parmi d'autres activités, auteur ou coauteur de plusieurs rapports sur l'énergie : l'énergie des déchets, le biocarburant, ITER, le prix de l'électricité, les réseaux de chaleur, diviser par trois nos émissions de gaz carbonique. Coanimateur, avec Jean-Pierre Dupuy d'un groupe de réflexion le "forum confiance".
  11. « Le mythe climatique » de Benoît Rittaud, Seuil, collection Science ouverte, février 2010 Notes de lecture et commentaires Ce livre est écrit par « un mathématicien, auteur de nombreux ouvrages de mathématiques à destination d’un large public » nous dit la quatrième de couverture. Le livre se présente, sous un jour d’objectivité de bon aloi, comme un appel à la vigilance et au sens critique. Il analyse les ressorts de quelques-unes des affirmations qui fondent ce qu’il appelle le « carbocentrisme », cette thèse qui estime que le gaz carbonique contribue significativement au réchauffement de l’atmosphère. Comme la collection qui l’édite est de qualité, il m’a paru intéressant de lire comme son auteur aborde les thèses du « carbocentrisme » : avec esprit critique. Le livre commence et se termine fort bien. Le rappel historique sur l’affaire des « canaux » de la planète Mars invite à se méfier des emballements fondés sur des interprétations hasardeuses de ce que l’on observe. Puis l’auteur présente de façon parlante les « armées » en présence dans le combat d’opinion au sujet de l’influence sur le climat des émissions de gaz carbonique dues à l’activité humaine : carbocentristes », « solaristes », « océanistes », géologues et mathématiciens. De mon point de vue, il est heureux que, dans ces matières compliquées, le débat soit vivant et que les hypothèses se multiplient. C’est ainsi que progresse la science. On entre ensuite dans le vif du sujet. Le chapitre sur la façon dont on a été dessinée la fameuse courbe en forme de crosse de hockey qui montre une très forte croissance des températures après plusieurs siècles de stabilité me paraît assez convaincant. Le livre explique clairement les artefacts qui ont conduit à cette courbe. D’ailleurs, le GIEC ne l’utilise plus. L’apparente stabilité des températures mondiales moyennes qui apparaissait sur cette courbe conduisait à considérer que les fluctuations de températures observées en Europe durant le deuxième millénaire étaient seulement régionales. B. Rittaud remarque que la remise en cause de la « crosse de hockey » ne permet pas de conclure que ces fluctuations étaient mondiales. En fait, faute de mesures, on n’en sait rien. A ce propos j’ajouterai que l’on a retrouvé récemment des écrits qui témoignent que le mot de « Groenland » ne signifie pas que le pays, à l’époque, était vert ; le terme a été choisi par ceux qui ont découvert ce pays pour inciter leurs compatriotes à venir s’y installer (une antiphrase en quelque sorte). Puis Benoît Rittaud conteste l’idée même d’une température moyenne de la basse atmosphère –celle où vivent les hommes. Mais cette contestation, au fond, n’apporte pas grand-chose. Tout le monde en effet sait qu’il est difficile de mesurer une température moyenne. On se doute aussi que le résultat dépend de la façon de calculer la moyenne. Il est clair également que la température moyenne ne donne aucune indication sur ce qu’il faut faire localement pour réagir à l’évolution des températures puisque celles-ci sont très différentes d’une région du monde à l’autre. Rien de cela n’est nouveau. Mais pour savoir si les émissions de CO2 ont un effet sur les températures, ce qui importe, ce n’est pas la valeur absolue des températures, c’est l’évolution de la température moyenne. Certes, on peut trouver des configurations où la moyenne évolue dans un sens ou dans l’autre selon la façon dont elle est calculée, mais il faut pas mal d’imagination pour y parvenir. Personne ne doute que la température moyenne a augmenté dans les dernières décennies – pas même B. Rittaud malgré ses longs développements sur la pertinence de cette notion de température moyenne. Il écrit (p. 93) : « Si cette idée que la ‘température globale’ telle qu’on la considère aujourd’hui est donc trop mal définie pour qu’on puisse l’utiliser aveuglément, on ne peut pour autant lui dénier toute valeur. Un élément parmi d’autres dans ce sens est la théorie solariste : s’il s’avère que la courbe de l’activité solaire est corrélée à celle de la ‘température globale’, alors cela prouvera bien que cette dernière possède une signification » -fin de citation ; je poursuis « tandis que si elle est corrélée aux émissions de CO2, elle n’en a pas ». On retrouve en plusieurs endroits des « dérapages logiques » de ce genre. Puis vient la critique de ce que B. Rittaud considère comme « l’un des points centraux du carbocentrisme », la corrélation entre la teneur du CO2 de l’atmosphère et la température durant les derniers millénaires. La corrélation est très forte ; les dernières observations montrent que les variations de teneur de CO2 suivent de 800 ans les variations de température. B. Rittaud estime que devant des phénomènes compliqués, les explications les plus simples sont les meilleures, selon le procédé du « rasoir d’Occam ». Pourquoi donc, se demande-t-il aller chercher l’hypothèse que le CO2 a un effet sur la température ? L’action du soleil fluctue, cela a un effet sur la température et les fluctuations de la température ont un effet sur les émissions de CO2. Un point c’est tout. C’est tellement plus simple que c’est probablement vrai. A-t-il lu par exemple « L’homme face au climat »[1] édité en 2006, p.41[2] ? La cause originelle est la modification des paramètres astronomiques mais les effets directs de cette cause n’expliquent pas les évolutions de température. Il faut donc imaginer des rétroactions positives. La modification de l’albédo (la réflexion de la lumière par les glaciers notamment) ne suffit pas non plus ; il faut autre chose. Supposer que les émissions de CO2 changent lorsque la température change et que ces émissions ont elles-mêmes un effet sur les températures est une hypothèse assez banale qui doit donc résister au rasoir d’Occam, semble-t-il. Remarquons que B. Rittaud écarte cette hypothèse mais ne dit pas comment faire le lien entre les effets directs des paramètres astronomiques et les fluctuations de température observées. A ce propos, un bref commentaire sur un procédé littéraire de B. Rittaud. Après avoir présenté le cas de deux courbes corrélées dont l’une, en gris, suit l’autre de peu, B. Rittaud écrit ceci p 95 - « nous allons à présent nous intéresser à une idée en apparence quelque peu saugrenue qui propose ceci : c’est la grandeur représentée en gris qui contrôlerait l’autre ». Il apparaît ensuite que la courbe en gris est la concentration en CO2 et l’autre est la température. Que veut dire « contrôler » ? En fait la question n’est pas de savoir si le CO2 « contrôle » la température mais si le CO2 a un effet sur la température. De plus, avant toute analyse, l’idée d’une rétroaction positive via le CO2 est déclarée « saugrenue ». On change alors de registre pour parler de la notion de probabilité. Le pari de Pascal est analysé et critiqué. On peut se demander ce qu’il vient faire ici. En tout cas cela permet de se rendre compte que B. Rittaud tombe dans le travers qu’il prête aux « carbocentristes ». Il entend démontrer que ce pari ne doit pas conduire à se comporter, si l’on n’a pas la foi, comme si Dieu existait. La preuve : « dans le cas du pari pascalien, notre multiplication de zéro par l’infini vaut…zéro » et, en note : « une façon de s’en convaincre consiste à envisager le produit de deux nombres a et b comme l’aire d’un rectangle de côtés a et b. Lorsque a vaut zéro et b l’infini, le rectangle devient une droite, qui n’englobe aucune surface, d’où la nullité de l’aire et, donc, du produit ». Quelle belle démonstration ! Voici un contre-exemple bien connu des élèves de terminales. Si a si vaut k fois t au carré et si b vaut h divisé par t, lorsque t va vers l’infini, a tend vers l’infini et b tend vers zéro. Le produit, qui vaut kh fois t, tend vers l’infini et non pas vers zéro Qu’un mathématicien pense river son clou à Pascal avec un raisonnement comme celui que nous tient B. Rittaud ! Tout se passe comme si son raisonnement était guidé par la conclusion qu’on veut lui trouver. Puis, B. Rittaud rappelle qu’il faut comparer le coût de l’action à celui de l’inaction, ce qui est assez évident. En fait tout ce chapitre sur les probabilités n’apporte pas grand-chose. Sur la valeur prédictive des modèles on lit ceci, p.149 : « Un des arguments présentés pour soutenir la fiabilité des modèles climatiques est que tous, c'est-à-dire une vingtaine, sont d’accord pour prévoir le réchauffement. ‘Personne n’est parvenu à mettre au point une expérience numérique crédible conduisant le système climatique à ne pas se réchauffer en réponse à l’augmentation des gaz à effet de serre’ a par exemple écrit Hervé le Treut. Tel quel l’argument n’est pas sans intérêt mais cet intérêt change du tout au tout si l’on remarque que ces lignes ont été écrites en 1997, peu de temps avant que la courbe de température globale se mette à stagner ! ». Fin de citation. L’ensemble des modèles ne donne pas une prévision certaine mais un faisceau de possibilités. Au début des années 2000 les températures observées sortaient de ce faisceau de possibilité par en haut au point qu’il aurait fallu, si cela continuait, remettre en cause les modèles. Je me souviens avoir fait cette remarque dans une réunion assez vaste animée par des météorologues, à quoi il m’a été répondu que l’on ne pouvait juger sur quelques années. En fait, la pause dans la hausse fait rentrer les températures dans le faisceau des possibilités calculées par les modèles. L’argument de H. Le Treut conserve donc tout « son intérêt », pour reprendre l’expression de B. Rittaud. A noter un autre procédé littéraire de B. Rittaud : il parle d’abord de « stagnation » des températures dans les dix dernières années, puis évoque en même temps une baisse (on peut observer une très légère baisse selon la façon dont est calculée la température), puis il ne parle que d’une baisse. Par ailleurs, il fait d’abord remarquer que cette stagnation sur dix ans n’est pas significative, puis il s’y réfère à mainte reprise en oubliant cette réserve. Le chapitre final traite des pseudo sciences, de l’utilisation à des fins de morale de données venant de l’observation scientifique. Ce chapitre est intéressant et, en gros, je suis d’accord avec ce qu’il en dit. Les « carbomanciens » doivent être combattus, au même titre que les « sceptomanciens », une sorte que B. Rittaud évoque sans employer cette dénomination ni donner le nom de personnes représentatives de cette obédience.
  12. Le réchauffement climatique existe-t-il vraiment ? Quels sont les mythes et réalités autour du changement climatique ? Doit-on croire les scientifiques et les données ? il a fait le tour des études et les a analysées pour vous, pour tout savoir et tout comprendre sur le réchauffement climatique. Alors, peut-on encore douter du réchauffement climatique ? Depuis plusieurs années, le réchauffement climatique s’impose comme un sujet de société fondamental. Pourtant, certains commentateurs sont encore sceptiques sur l’existence du réchauffement climatique. Certains estiment d’abord que le réchauffement climatique est largement surestimé, d’autres expliquent que même s’il existe, il n’est pas d’origine humaine. D’autres encore disent que l’on ne sait pas vraiment et que les scientifiques ne sont même pas d’accord entre eux. Et il y a aussi ceux qui doutent des conséquences du réchauffement climatique sur les écosystèmes, ceux qui pensent que le réchauffement climatique est bénéfique…
  13. (Traduction de l’anglais)) Réchauffement anthropique et naturel déduit des changements dans le bilan énergétique de la Terre Markus Huber & Reto Knutti Géosciences de la nature Contenance 5, pages 31-36 (2012) | Résumé Le bilan énergétique de la Terre est essentiel pour comprendre le climat et les variations climatiques causées par les changements naturels et anthropiques de la composition atmosphérique. En dépit d'abondantes données d'observation sur l'évolution du bilan énergétique au cours des dernières décennies1,2,3, la détection formelle du réchauffement climatique et son attribution à l'influence humaine s'est jusqu'à présent principalement fondée sur la différence entre les modèles de réchauffement spatio-temporel d'origine naturelle et anthropogénique4,5,6. Nous présentons ici une méthode d'attribution alternative qui repose sur le principe de la conservation de l'énergie, sans hypothèses sur les schémas de réchauffement spatial. Sur la base d'un ensemble massif de simulations à l'aide d'un modèle climatique de complexité intermédiaire, nous démontrons que les changements connus dans le bilan énergétique global et dans le forçage radiatif limitent fortement l'ampleur du réchauffement anthropique. Nous constatons que depuis le milieu du XXe siècle, les gaz à effet de serre ont contribué à un réchauffement de 0,85 °C (incertitude de 5 à 95 % : 0,6 à 1,1 °C), dont environ la moitié a été compensée par les effets de refroidissement des aérosols, avec un changement total observé de la température mondiale d'environ 0,56 °C. Les tendances observées sont extrêmement peu probables (<5%) d'être causées par la variabilité interne, même s'il a été constaté que les modèles actuels la sous-estiment fortement. Notre méthode est complémentaire de l'attribution optimale des empreintes digitales et produit des résultats parfaitement cohérents, ce qui suggère une confiance encore plus grande dans le fait que les causes d'origine humaine dominent le réchauffement observé.
  14. Sans doute "qu'anthropique" est trop radical, soit! Mais le réchauffement n'est pas du qu'à des phénomènes naturels. L 'homme a joué son rôle aussi. La dessus, il semble y avoir un consensus.
  15. Pour aller dans le sens de Nico Crue et décrue glaciaires Le bilan de masse d'un glacier est l'équilibre entre son ablation (perte de neige et de glace par fusion mais aussi par évaporation ou même sublimation, et l' accumulation de neige. On dit qu'un glacier est en crue lorsque sa masse augmente (accumulation>ablation), et qu'il est en décrue lorsque sa masse diminue (ablation>accumulation). Pour résumer, sur de courtes échelles de temps (celles qui nous intéressent ici), le bilan de masse est déterminé par deux paramètres : la température moyenne estivale et la quantité de précipitations hivernales . Des fortes chutes de neige en hiver associées à des températures élevées en été ne permettent pas au glacier de croître ; de même, une année avec un été doux et humide et un hiver froid et sec n'est pas associée à une crue. Les conditions les plus favorables à la croissance d'un glacier sont des hivers neigeux associés à des étés frais, les pires conditions étant des hivers secs associés à des étés (très) chauds. Sur des échelles de temps plus longues (100 000 ans), d'autres paramètres entrent en jeu, tels que la vigueur et la durée relatives hiver / été (précession des équinoxes), la position de la Terre par rapport au Soleil en été (excentricité) et l'inclinaison de l'axe de rotation de la Terre (obliquité). Ces causes proximales de crue/décrue (température estivale et chutes de neige hivernales) varient selon une combinaison de multiples paramètres géophysiques, causes ultimes du processus. On liste ici 6 d'entre eux. 1. Dans le cas des glaciers alpins, il a été montré que le rayonnement solaire (cyclicité de 11 ans en moyenne) a joué un rôle pour la décrue de 1940, en augmentant l'intensité des radiations estivales. 2.Par ailleurs, sur la façade Ouest de l'Europe, les précipitations hivernales dépendent grossièrement des valeurs de la NAO (Oscillation Nord-Atlantique) : différence de pression moyenne sur un an entre les Açores et l'Islande. Une NAO négative est généralement associée à des hivers frais mais secs, et une NAO positive à des hivers chauds et humides sur l'Ouest de l'Europe. Attention cependant, cet indice est un indice global et les variations locales dans les Alpes (qui sont soumises à une double influence océanique et continentale) peuvent aller à contre-courant des valeurs de NAO ! De plus, en montagne, les conditions de précipitation sont variables d'une vallée à l'autre, ce qui explique également les différences observées entre les trois glaciers de la vallée de Chamonix (cf. figure ci-avant). 3. De plus, certains auteurs soulèvent le rôle des courants océaniques de l'Atlantique (notamment l'Oscillation Multidécennale Atlantique) dans les décrues des glaciers alpins 4. La topographie aux alentours du glacier a un rôle non négligeable sur le bilan de masse (exposition, direction des vents principaux...). 5. Les glaciers dits "suspendus" (tel que le glacier des Grands Couloirs, sur la face Sud-Ouest de la Grande Casse dans le massif de la Vanoise), épais et à surface faible, ont plus d'inertie que les glaciers de vallée et sont moins affectés par les variations annuelles. 6. Enfin, la température moyenne annuelle, tous paramètres égaux par ailleurs, joue un rôle certain sur le bilan de masse des glaciers. Les glaciers de haute altitude sont donc moins affectés. Le réchauffement climatique anthropique a donc in fine deux rôles dans le processus de fonte : (1) il induit l'augmentation de la température moyenne annuelle (et surtout estivale) locale sur une longue échelle de temps [cause proximale] et (2) il influe sur les conditions météorologiques, notamment sur l'atmosphère et les courants océaniques [causes ultimes], qui à leur tour influent sur les glaciers.
  16. "Houston, we’ve had a problem" Après un petit blackout, je dirai plutôt « la terre, nous avons un problème » Je veux compléter la réponse de michel78320 sur la fonte de la glace au Groenland. Quelques explications préliminaires s’imposent ici : de quoi parle-t-on ? Une calotte glaciaire est un glacier de grande dimension mais dont la superficie n’excède pas 50 000 km2 et dont les caractéristiques le rapprochent des inlandsis. Un inlandsis est un glacier, d’une étendue supérieure à 50 000 km2, se présentant sous la forme d’une nappe de glace pouvant atteindre plusieurs milliers de mètres d’épaisseur. Sur Terre, il en existe deux aujourd’hui : l’inlandsis de l’Antarctique, le plus étendu et situé au pôle Sud, et l’inlandsis du Groenland, situé sur l’île du même nom à proximité du pôle Nord. Le terme inlandsis est d’origine danoise et signifie littéralement « glace de l’intérieur du pays » ou « glace de l’arrière pays ». La formation des inlandsis repose sur le même principe que celle des glaciers : une accumulation de neige résultant d’une fonte insuffisante provoque un tassement de la neige qui expulse l’air qu’elle renferme et se transforme en glace. Cette glace est suffisamment plastique pour se déformer selon la gravité ou son propre poids. Dans le cas des inlandsis, c’est le poids de la glace qui provoque son déplacement par fluage, la pente à l’échelle d’un continent ou d’une grande île étant trop faible pour provoquer un écoulement gravitaire. Un équilibre entre apport de neige, poids de la glace et ablation de neige (sublimation, fonte, vêlage d’icebergs) s’effectue alors et la masse de glace stabilise son épaisseur et son étendue. Un inlandsis se maintient plus par une faible ablation que par un fort apport de neige. Une coupe de profil d’un inlandsis permet de distinguer plusieurs points récurrents : une surface convexe : les bords d’un inlandsis sont pentus et son centre est formé de plusieurs dômes très peu marqués qui donnent l’apparence d’un plateau ; une couche de glace très épaisse, en général 2 000 mètres d’épaisseur, pouvant atteindre 4 000 mètres d’épaisseur ; un substrat rocheux pouvant se trouver sous le niveau de la mer ; un débordement sur la mer (mer de Ross et mer de Weddell en Antarctique) ; un front glaciaire pouvant faire le tour de l’inlandsis et produisant de nombreuses digitations et lobes glaciaires ; une production d’icebergs : tabulaires lorsqu’ils proviennent du vêlage des shelves, sans forme particulière lorsqu’ils proviennent de l’avancée de langues glaciaires en milieu marin ; une absence de relief émergeant à l’exception des nunataks. Les inlandsis renferment 98 % de l’eau douce de la Terre. L’inlandsis du Groenland C’est un des reliquats de la dernière glaciation dans l’hémisphère nord. Il est généralement admis que l’inlandsis du Groenland s’est formé à la fin du Pliocène (4,3 Ma) par coalescence de plusieurs calottes glaciaires. Celles-ci se sont formées sur des terres autrefois tempérées. La glace la plus ancienne atteint 250 000 ans et est maintenue par l’accumulation annuelle de la neige qui compense les pertes par vêlage et fonte au niveau des marges. Ses dimensions sont de : 2 400 kilomètres du Nord au Sud et 1 000 kilomètres d’Est en Ouest. Sa surface, relativement plate, est de 1 726 000 km2 et a une altitude moyenne de 2 135 mètres. La glace peut atteindre l’épaisseur de 3 000 mètres au centre de l’inlandsis, ceci représente un volume global de 2 Millions de km3 de glace, soit près de 10 % de l’eau douce de la surface du globe. De grands glaciers émissaires de la calotte s’écoulent dans les fjords bordant l’inlandsis, ils sont à l’origine de la production de nombreux icebergs. Le plus connu de ces glaciers émissaires est le Jakobshavn Isbræ également connu sous le nom de glacier Jakobshavn ou glacier Ilulissat. Le Jakobshavn Isbræ est l’un des glaciers les plus rapides, avançant à son terminus à une vitesse de 20 mètres par jour. Étudié depuis plus de 250 ans, le Jakobshavn Isbræ a permis de développer la compréhension des changements climatiques et l’étude de l’inlandsis du Groenland Les icebergs qui se détachent du glacier sont souvent si volumineux (jusqu’à 300 m de hauteur) qu’ils ne peuvent pas flotter dans le fjord et se retrouvent bloqués pendant des années jusqu’à qu’ils soient brisés par la force des icebergs en amont du fjord. Vers une fonte de la calotte glaciaire ? L’augmentation de la fonte en surface de la calotte du Groenland au cours de ces 28 dernières années le confirme. Xavier Fettweis, du Laboratoire de climatologie et de topoclimatologie de l’ULG, a démontré que ses glaces fondent beaucoup plus vite que ce qui avait été estimé précédemment : la surface de fonte de la calotte a augmenté de 45% depuis 1979. De plus, la température estivale moyenne du Groenland s’est élevée de 2,4°C entre 1979 et 2006 Le Groenland va-t-il fondre en totalité ? (étude CNRS) La géométrie et le volume de la glace des calottes sont régis par l'équilibre entre les quantités de neige tombées et les quantités évacuées. Le Groenland regroupe 10 % des glaces mondiales et donc des réserves d’eau douce de la planète. Les observations conduisent à estimer que la calotte groenlandaise est aujourd'hui en déséquilibre. Elle perdrait de sa masse, en raison de la fonte et d'une accélération de l'écoulement des glaciers. Son profil général serait d'ailleurs en train de changer pour devenir plus pentu. Des études récentes sur le Groenland auraient montré un amoindrissement significatif de la calotte, entre 1992 et 2002, diminution qui paraît encore s'accélérer. Les résultats fournis par l’altimétrie révèlent que le Groenland aurait perdu environ 50 milliards de tonnes par an. La mesure des flux, flux entrant (accumulation de la neige) et flux sortant (ablation et rejets vers l’océan), fournit une estimation plus importante de cette perte de masse, qui atteindrait environ 100 milliards de tonnes par an. La température moyenne d’été à la surface de la calotte de glace a augmenté de 2,4°C entre 1979 et 2005. La surface maximale du Groenland fondant au moins un jour par an a augmenté de 42 % durant la même période, ce qui représente une surface supplémentaire de fonte en 2005 équivalente à un tiers de la surface de la France. On estime que, au-delà de 20 % de perte, ce mouvement serait irréversible. Le point de non-retour serait atteint avec un réchauffement global de 3°C, réchauffement probable au cours ou à la fin du 21e siècle. Aux deux extrémités de la planète on peut observer une perte de masse des calottes polaires sur leurs parties côtières, perte qui n’est que partiellement compensée par un gain de masse sur les parties centrales situées à haute altitude. Dans le contexte d’un réchauffement climatique des anticipations peuvent être faites en se basant sur ces constatations. Les masses d’air chaud contiennent plus d’eau que les masses d’air froid et sont donc susceptibles d’apporter plus de précipitations, ce qui explique le gain de masse constaté dans les parties centrales. Sur le pourtour, partie la plus chaude, le phénomène dominant serait l’augmentation de l’ablation de surface. L’amincissement des régions côtières ne relève pas entièrement de cette augmentation de l’ablation, mais également d’une accélération de l’écoulement. Ainsi, la plupart des grands glaciers du Groenland au sud de 66 degrés de latitude Nord s’écoulaient plus rapidement en 2000 qu’en 1996. Cette accélération s’est intensifiée et étendue à 70 degrés Nord en 2005. Un des problèmes déterminants, qui rend critique la caractérisation et le suivi de ces changements climatiques en régions polaires, réside dans le manque de stations de mesures au sol (mesures de température, hauteur et densité de la neige…). L’observation spatiale apparaît comme une alternative nécessaire pour mieux analyser ces changements, en offrant une couverture régulière, systématique et relativement homogène de l’ensemble des zones polaires. Bien que des archives satellitaires existent maintenant depuis plus de 25 ans, la quantification de ces observations pour le développement d’indicateurs fiables et précis des changements de surface observés reste un problème scientifique majeur.
  17. Comment est calculée la mortalité liée à la pollution ? (Article du Monde du 1er mars 2019) Premier constat : contrairement aux accidents de la route, la pollution atmosphérique n’entraîne pas une cause de mort immédiatement identifiable dans un certificat de décès. Il n’y a pas non plus de maladies bien particulières qui seraient causées uniquement par la pollution, comme le mésothéliome pour l’exposition à l’amiante. Pourtant, les particules fines – en particulier celles dont le diamètre est inférieur à 2,5 microns (PM2,5) – pénètrent à travers les poumons jusque dans le système sanguin et ont des effets multiples sur la santé. Une exposition prolongée, même à des niveaux peu élevés, contribue au développement de maladies cardiovasculaires, pulmonaires ou neurologiques, de cancers, de troubles de la reproduction… et donc affecte l’espérance de vie des populations. Pour mesurer ces effets diffus, les scientifiques cherchent à évaluer l’espérance de vie gagnée ou les morts prématurées qui seraient évitées s’il n’y avait pas de pollution. La méthode repose sur une évaluation quantitative d’impact sanitaire (EQIS) de la pollution atmosphérique, qui fait consensus parmi les spécialistes et au niveau de l’Organisation mondiale de la santé (OMS). Pour l’étude publiée par Santé publique France en 2016, le lien entre pollution et exposition aux particules fines a été établi à partir d’informations recueillies sur des « cohortes », et notamment sur la cohorte Gazel-air, c’est-à-dire un groupe de 20 000 personnes suivies par les épidémiologistes depuis les années 1980. Indépendamment des autres facteurs liés à leur mode de vie (fumer, être exposé à des risques professionnels…), « le résultat montre, comme dans les études réalisées depuis vingt ans en Europe et en Amérique du Nord, que plus les gens sont exposés aux particules fines, plus ils meurent. Cette relation causale se traduit par un modèle statistique », explique Mathilde Pascal, l’une des auteures de ces études. Les épidémiologistes de Santé publique France ont ensuite recueilli la mortalité par classe d’âge dans toutes les communes de France ainsi que les concentrations de particules fines sur le territoire, par « maillage » de 2 km de côté. En appliquant le modèle statistique établi à partir de la cohorte française Gazel-air, et de la cohorte européenne Escape – qui établissent un coefficient entre l’exposition à la pollution et la mortalité à l’ensemble des communes –, on peut calculer les effets qu’aurait une baisse de la concentration en particules fines dans chaque commune, région ou sur la France entière. Il est possible de compter des « morts évitables » ou des gains d’espérance de vie à trente ans. – Plusieurs scénarios évalués Dans l’étude, la situation actuelle, fondée sur des données de 2007-2008, a été comparée à plusieurs scénarios, en fonction de leur degré d’ambition : respect de la réglementation 2020 de l’Union européenne (UE), soit 20 µg de PM2,5 par mètre cube d’air ; respect de la valeur proposée lors du Grenelle de l’environnement (15 µg/m3) ; respect des normes de l’OMS (10 µg/m3) ; baisse de la pollution au niveau des 5 % de communes équivalentes (grandes villes, bourg, campagne…) les moins polluées ; élimination de la pollution aux PM2,5 d’origine humaine (« anthropique ») : ce niveau de base (4,9 µg/m3) est celui observé sur les sommets des communes de montagne. Selon ces différentes hypothèses, la mortalité évitée varie fortement. Le chiffre qui a été retenu par les médias et les hommes politiques est le plus impressionnant, car le plus ambitieux : il correspond à 48 300 décès évitables en éliminant la pollution anthropique, dont près de 30 000 pour les habitants des grandes villes. L’épidémiologiste Mathilde Pascal préfère insister sur le chiffre de « 34 500 morts évitables en se mettant au niveau des 5 % des communes les plus vertueuses de leur catégorie ». Ces différents scénarios montrent aussi la faiblesse de certaines normes, qui ne sont pas très protectrices pour la santé. – Des données cohérentes avec d’autres études L’étude réalisée pour la France est parfois critiquée ou mal comprise car elle s’appuie sur des modélisations. Elle possède aussi des marges d’incertitude, reconnues par les experts eux-mêmes, en particulier pour ce qui concerne les effets de la pollution atmosphérique en zone rurale. Les résultats obtenus sont plus précis géographiquement et plus adaptés à la France, mais ils restent en cohérence avec d’autres données existantes. Une étude européenne de 2005 du programme « Clean Air for Europe » aboutissait à 42 000 morts prématurées par an en France. Le dernier rapport de l’Agence européenne pour l’environnement publie un chiffre de 422 000 décès prématurés en Europe en 2015, dont 35 800 en France. – Des outils de sensibilisation Le chiffre définitif peut donc varier : 35 800, 42 000, 48 000… mais l’ordre de grandeur reste assez cohérent. La question peut aussi s’appréhender au niveau individuel, par exemple en expliquant que les habitants d’une grande ville « perdent » jusqu’à quinze mois d’espérance de vie en raison de l’exposition aux particules fines. Comme l’explique Mathilde Pascal : « Effectivement, on n’a pas de certificat de décès, comme pour un accident de la route. Lorsqu’on modélise, on est sur un ordre de grandeur et non pas un chiffre précis, et il y a toujours des fourchettes énormes. Mais on peut comparer ces ordres de grandeur entre eux, et il s’agit d’un phénomène réel, ce sont de vrais morts. » De même que pour les chiffres de la sécurité routière, c’est moins le décompte individuel du nombre de décès qui importe dans ces études que le fait d’exposer un problème de santé publique et de réfléchir aux moyens de le résoudre. Mais aussi de faire comprendre que les particules fines ont des effets sur la mortalité même à des niveaux d’exposition faibles, et en dehors des « pics de pollution ».
  18. Pour vous amis franciliens 24 Air : un site pour calculer son exposition à la pollution L’association Airparif vient de mettre en ligne une plateforme sur laquelle les Franciliens peuvent renseigner leurs lieux de vie et leurs trajets quotidiens. Un diagramme récapitule alors le niveau de pollution auquel ils sont exposés. https://24air.airparif.fr/#/home
  19. Pour reprendre le dernier propos de michel78320 sur la pollution, c'est effectivement là l'un des plus gros problème, même, si on note des améliorations depuis quelques années. Ce problème doit être pris à bras le corps par chaque citoyen et à son niveau. Les premières pollutions sont apparues lorsque que les hommes ont accumulé de grandes quantités de déchets sur un même lieu. C'est donc avec la sédentarisation (abandon du nomadisme et fixation en un lieu), il y a environ 11.000 ans, et l'accroissement démographique que le phénomène de pollution est apparu. L'un des premiers exemples de pollution est celui de la salinisation des terres de Mésopotamie, entre - 2400 et - 1700 ans avant Jésus-Christ. L'irrigation intensive des plaines a en effet provoqué, suite à l'évaporation des eaux, une accumulation de sels dans les terres qui a profondément modifié l'environnement et empêché toute agriculture. C'est au 19e siècle, avec l'essor de la chimie et de l'industrie que la pollution a pris de l'ampleur, en conséquence de l'accumulation de très grandes quantités d'éléments toxiques. Les smogs (de l'anglais smoke, fumée et fog, brouillard) qui polluèrent les villes britanniques de cette époque sont emblématiques de ce phénomène. Ce qui s'améliore: Les émissions de gaz à effet de serre ont diminué de 12 % en vingt-deux ans Entre 1990 et 2012, la France a vu ses émissions de gaz à effet de serre (GES) diminuer de 12 % selon les évaluations du ministère. Cette évolution est directement liée à la crise économique. Ainsi, le ralentissement est manifeste dans l’industrie manufacturière et la construction, dont les émissions dues à la consommation de combustibles ont reculé de près d’un quart sur la période. D’autres secteurs ont réalisé de réels progrès. C’est le cas de l’agriculture notamment, qui est dans l’Hexagone la deuxième source émettrice de GES et de loin la première pour le protoxyde d’azote (N2O). Elle a fait chuter son taux de N2O de 16 % en freinant l’épandage d’engrais minéraux. Mais le principal émetteur de GES, le secteur des transports, connaît la tendance inverse. Le principal responsable est de loin le trafic routier, dont les émissions ont augmenté de 1,8 % par an jusqu’en 2004, et de 0,7 % depuis. En deux décennies, 4 100 km d’autoroutes supplémentaires ont été construits, contre 1 700 km de lignes de train à grande vitesse, tandis que la part du fret ferroviaire a été divisée par deux. Une petite note positive toutefois : le vélo gagne du terrain. Ces quatre dernières années, le nombre de pistes cyclable a augmenté de 75 %. Près de 15 % de notre consommation d’énergie provient d’une source renouvelable Vis-à-vis de l’Union européenne, la France s’est fixé pour objectif de pouvoir répondre, d’ici 2020, à 23 % de sa consommation finale d’énergie (électricité, chauffage, etc.) grâce à des moyens de production qui exploitent des sources renouvelables. On en est loin. Cependant, la part de ce secteur a doublé dans l’Hexagone entre 2008 et 2013, passant de 7 % à 14,2 %. Emblématiques, l’éolien et le solaire photovoltaïque ne comblent ensemble qu’à peine 4 % de nos besoins en électricité. En outre, l’installation d’éoliennes ralentit. La production d’hydroélectricité, elle, demeure relativement stable tandis que la méthanisation de résidus agricoles ou d’ordures ménagères et la culture de biocarburants sont en plein essor. Rappelons toutefois que le nucléaire fournit encore les trois quarts de l’électricité française. La consommation de chauffage a diminué de 10 % en vingt ans Malgré la croissance de la population et du nombre de logements, l’énergie destinée au chauffage a diminué de 10 % entre 1990 et 2011 grâce à l’amélioration de l’efficacité énergétique des bâtiments. Mais, dans le même temps, les ménages se sont dotés de quantité d’appareils faisant exploser la consommation d’électricité spécifique (appareils ménagers, écrans multimédias, éclairages) : celle-ci a grimpé de 80 %. Aujourd’hui, ordinateurs et autres appareils numériques représentent 13 % de la consommation électrique totale. CE QUE FAIT L'HOMME CONTRE SON ENVIRONNEMENT: (quelques exemples) Dans le monde, 4 300 milliards de mégots de cigarettes sont jetés dans les rues chaque année. En moyenne, il faut 12 ans pour que ces mégots se dégradent complètement. En 2016, 480 milliards de bouteilles en plastique ont été vendues dans le monde. Et ça continue ! À ce rythme, en 2021, ce seront plus de 583 milliards de bouteilles en plastique qui seront écoulées par an. Chaque année, plus de 8 millions de tonnes de déchets plastiques sont déversées dans les océans, qui finissent en micro-particules ingérées par la faune marine. Mais la pollution de l’air notamment a des effets néfastes sur l’homme : Selon l’OMS : (dans le monde) La pollution de l’environnement entraîne 1,7 million de décès d’enfants par an « Chaque année, plus de 12 millions de personnes décèdent à cause des risques cachés que recèle notre environnement et notamment l'air que nous respirons, l'eau que nous buvons ou encore les substances chimiques auxquelles nous sommes trop souvent exposés à notre insu. En outre, le changement climatique nous expose à une multiplication des phénomènes météorologiques extrêmes, sécheresses et épisodes tempétueux en particulier, et à une évolution des caractéristiques des maladies infectieuses,» La pollution de l'air a coûté 225 milliards de dollars par an dans le monde, d'après un rapport de la Banque Mondiale. La pollution atmosphérique est la 4ème cause de décès prématurés dans le monde. Elle entraîne presque 3 millions de décès prématurés dont 48.000 en France. Quel monde voulons nous laisser à nos enfants et nos petits-enfants?
  20. Je dois dire que ma première intervention sur le C02 et l'aviation générale en club était un peu provocatrice, mais avait pour but de faire régir et voir si les passionnés d'aviation étaient aussi sensibles à leur environnement. Pas déçu, notamment par michel78320. Car je préfère l'argumentation détaillée à l'uppercut du droit: je m'en fous est trop simpliste. Donc pour aller dans le sens de michel78320, une video de 1 heure pour ceux qui n'aiment pas la lecture. Votre horizon va s'ouvrir! https://www.youtube.com/watch?v=zBLTDscToOo
  21. Le problème le plus important de Dreambox n'est pas le C02. J'espère qu'il a consulté le site gouvernemental de France Diplomatie sur le Mexique. Par ailleurs, le mois d'août n'est pas le plus favorable question climat de ce pays. Il pourra peut-être donner ses impressions de voyage au retour?
  22. D'accord, les explications des scientifiques prêtent à discussion. Alors, du bon sens paysan, observons ce qu'il y a sous nos pieds. Comment, en faisant des forages dans la calotte glaciaire en divers endroits de la terre. On trouvera sans doute des gens pour dire que la glace……..Sinon, à votre niveau, vous n'avez rien observé ces dernières années et ces derniers mois? On observe donc une claire hausse depuis les années 1920. Nous avons donc un recul suffisant pour observer que cette hausse est relativement importante, nette et constante. Elle ne peut être conjoncturelle, liée à des évènements très ponctuels. Toutefois, 130 années reste une durée bien trop courte pour replacer cette hausse dans l’Histoire climatique. Prenons alors plus de recul. Nous allons tout d’abord remonter sur 2 000 ans : On observe très nettement le réchauffement intervenu pour notre Hémisphère au Moyen-âge puis le “petit âge glaciaire” du XVIIIe siècle. Il saute aux yeux que le réchauffement actuel est bien plus important (+2 °C contre +0,5 °C) et beaucoup plus rapide (80 ans contre 500 ans, une bonne partie s’emballant dans les 30 dernières années…). Ceci étant, 2 millénaires est encore court. Grâce au formidable travail réalisé par la mission EPICA, ayant foré et analysé d’immenses carottes de glace en Antarctique, on dispose désormais d’informations fiables pour les… 800 000 dernières années ! On observe que la planète connait des cycles d’environ 100 000 ans de hausse et de baisses de températures. Ceci est lié à la modification des paramètres orbitaux de la Terre, c’est-à-dire la forme plus ou moins circulaire de son orbite autour du soleil. Nous nous situons actuellement au niveau des 3 plus grands pics de réchauffement passés. Alors, phénomène naturel ? Absolument pas. Ce que nous vivons est unique, car le réchauffement s’opère à une vitesse jamais vu : le réchauffement observé durant les 30 dernières années s’observait dans le passé plutôt sur 1 500 à 3 000 années ! Bref, le réchauffement est 50 à 100 fois plus rapide que les phases précédentes de réchauffement. Soulignons enfin que si le niveau actuel de température, et même celui à venir dans le siècle n’a rien de véritablement exceptionnel en soi, ses conséquences sur notre espèce de 7 milliards d’habitants (avec des frontières) vont être bien plus douloureuses qu’il a plusieurs millénaires quand il n’y avait qu’un million d’homo sapiens nomades… Creusons plus avant pour en distinguer les raisons. Corrélation CO2 et réchauffement La mission EPICA a non seulement analysé la température passée, mais également la concentration en CO2 de l’air piégé dans la glace. Nous pouvons donc analyser la corrélation entre les deux : Il n’est guère besoin de long commentaire : la corrélation est jusqu’à présent parfaite… MAIS corrélation ne veut pas dire à ce stade causalité, et, contrairement aux simplification que l’on lit parfois, ici, ce n’est pas principalement le CO2 qui a été responsable de l’augmentation passée. En fait, ce sont en premier lieu les modifications de l’orbite terrestre qui ont été responsables des changements de température passés – nous y reviendrons -, et ce sont ces modifications de température qui ont induit la modification de la concentration en CO2, pas l’inverse. Toutefois, les modèles montrent que ces variations d’ensoleillement devraient entraîner des variations de température d’environ 0,5 à 1°C. Or, on constate qu’elles sont beaucoup plus fortes, ce qui laisse supposer que des facteurs amplificateurs existent… dont la teneur en CO2 atmosphérique. Quand il fait un peu plus chaud, le cycle du carbone et la solubilité de CO2 dans les océans sont modifiés : le dioxyde de carbone est relâché dans l’atmosphère, ce qui augmente la température, avec effet boule de neige (c’est l’inverse quand il fait plus froid). Il y a ainsi des rétroactions complexes entre la température et le CO2, la température pouvant baisser à cause de modification de son orbite, ce qui diminue le niveau de CO2, mais qui, en rétroaction, baisse à son tour la température… La mécanique climatique est complexe, ne simplifions pas trop…. Il n’y a évidemment aucune contradiction entre le fait de dire que le CO2 joue sur la température et le fait que la température joue sur le CO2. Les deux phénomènes sont connus, chacun a sa constante de temps : le CO2 joue sur la température avec une inertie de 50 ans, alors que la température joue sur le CO2 avec un retard de 800 à 1 000 ans. Ainsi, en synthèse, comme nous le verrons : · dans les centaines de milliers d’années passées, le moteur des changements de température ont été des phénomènes astronomiques liés au soleil, qui ont modifié la température, puis la concentration en CO2 – le tout très lentement ; · actuellement, au contraire, la hausse des température se fait à une vitesse jamais vue, qui n’est pas naturelle ; elle est essentiellement (mais pas seulement) due au CO2 – indubitable gaz à effet de serre, dont la concentration augmente régulièrement… Ce qui se passe actuellement est sans conteste possible de nature différente de ce qui se passait lors des périodes de glaciations-déglaciations. C’est bien ce qu’on dit quand on attribue le changements actuel à l’homme alors qu’on ne le fait pas sur les temps géologiques (et pour cause…). C’est donc bel et bien le CO2, comme de nombreux autres travaux scientifiques l’ont montré, qui est la cause du réchauffement actuel – de par sa nature même de gaz à effet de serre : il y a plus de gaz à effet de serre , il fait donc plus chaud – c’est à ce demander pourquoi il y a encore des discussions… “Depuis des milliards d’années, le climat varie continuellement à cause de facteurs naturels externes, comme les variations de la répartition entre les continents et les océans, celles des paramètres astronomiques, la variabilité du rayonnement émis par le soleil, le volcanisme, etc., ou à cause de la variabilité interne au système climatique, liée en particulier aux interactions entre ses différentes composantes (atmosphère, océans, surfaces continentales, banquise, calottes glaciaires, etc.) Mais cela ne contredit pas le fait que l’essentiel de l’accroissement observé de la température moyenne globale depuis le milieu du 20ème siècle est très probablement dû à l’augmentation observée des concentrations des gaz à effet de serre d’origine humaine.” [Météo France] Vous noterez évidemment en conclusion la concentration actuelle très inquiétante du CO2, qui dépasse, comme nous l’avons vu tous les records. Le délai de réponse de la planète, non instantané, explique que les températures n’aient pas encore augmenté en proportion. L’Histoire climatique nous fait donc craindre un énorme emballement du réchauffement climatique, qui pourrait dépasser de loin tout ce qui a été vécu dans le dernier million d’années… La température de la planète, qui a augmenté de 2 °C depuis le début de l’ère industrielle, pourrait ainsi encore augmenter de +1 °C à +6 °C au cours de ce siècle ! Cette fourchette de réchauffement s’explique par l’incertitude due aux divers scénarios d’émissions de gaz à effet de serre et aux modèles simulant l’évolution du climat.
  23. OBSERVATIONS PERSONNELLES : Je réside en Normandie depuis plus de 60 ans (non loin d’OMAHA BEACH). Nous avons toujours eu un vent de secteur Ouest-Nord Ouest, apportant son lot de nuage et de pluie en provenance de l’atlantique via la bretagne. Or depuis plusieurs années, le vent est passé au secteur Est Nord Est, donc moins doux et surtout plus sec. La Normandie verte est de moins en moins verte et les sols sont secs. (moins de pluie) Depuis 3 ans environ, plus d’hiver -cette année 3 jours de gelée à -2° et pas de pluie et de neige. Gamin, en septembre, les fils électriques étaient noirs d’hirondelles. Aujourd’hui, lorsque j’en vois 10 en vol, je suis content. Les oiseaux, papillons et insectes divers ont presque totalement disparu ! L’agriculture intensive est passée par là. Je ne parle pas du poisson qui se fait rare en mer, des algues vertes etc etc… On assisterait à une autre grande extinction des espèces que cela ne m’étonnerait pas. L’espèce humaine ne sera pas épargnée. Les canicules, la montée des eaux, la fonte des glaciers et de la calotte glaciaire dans des proportions alarmistes. La maison brûle et on regarde ailleurs disait Chirac Je suis inquiet pour mes enfants et petits enfants. Pas vous ? ARTICLE METEO FRANCE Le réchauffement climatique observé à l'échelle du globe et en France Depuis 1850, on constate une tendance claire au réchauffement, et même une accélération de celui-ci. Au XXe siècle, la température moyenne du globe a augmenté d'environ 0,6 °C et celle de la France métropolitaine de plus de 1 °C. Le climat mondial varie Depuis au moins deux millions d'années, le climat de la Terre varie entre glaciaire et interglaciaire avec une quasi-périodicité d'environ 100 000 ans. Le dernier maximum glaciaire a eu lieu il y a 21 000 ans. À cette époque, la température de la Terre n'était que de 4 °C à 7 °C inférieure à sa valeur actuelle, et pourtant le niveau de l'océan était plus bas de quelque 120 mètres. L'Amérique du Nord et l'Eurasie étaient recouvertes d'une couche de glace qui atteignait 1 à 2 km d'épaisseur et s'étendait jusqu'à New-York et au nord de l'Allemagne. La dernière déglaciation, entamée il y a 20 000 ans, s'est révélée climatiquement très favorable à notre espèce. Dans des conditions relativement stationnaires, propices au développement de l'agriculture et de l'élevage, les hommes ont pu croître et se multiplier : les populations humaines ont passé la barre du milliard d'individus vers 1800, puis celle des 7 milliards en 2011. Pour autant, cette période n'a pas été exempte de variations. À titre d'exemple, si l'on regarde l'évolution de la température moyenne dans l'hémisphère nord depuis la fin du haut Moyen-âge, on peut identifier une période légèrement plus chaude entre l'an 950 et 1250 (« l'optimum médiéval ») et une période plus froide entre 1450 et 1850 (« le petit âge glaciaire »). Le climat mondial s'est réchauffé au cours du XXe siècle Mais depuis 1850, on constate une tendance claire au réchauffement climatique, et même une accélération de celui-ci. Au XXe siècle, la température moyenne du globe a augmenté d'environ 0,6 °C et celle de la France métropolitaine de plus de 1 °C. La décennie 2002-2011 est la période de 10 années consécutives la plus chaude au moins depuis le début des mesures instrumentales, en 1850. En raison d'une forte variabilité naturelle, la température moyenne du globe peut, certaines années, être plus élevée ou plus basse que celle des années précédentes. Mais cette variabilité interannuelle ne doit pas être confondue avec l'évolution de fond : une tendance générale à la hausse marquée depuis plus d'un siècle. Près de la surface terrestre, le réchauffement s'est accentué. Depuis le milieu des années 1970, il a atteint une moyenne de 0,17 °C par décennie. Une augmentation de 1 °C de la température moyenne en France au XXe siècle Si au cours du XXe siècle, la température moyenne a augmenté en France de 0,1 °C par décennie, cette tendance s'est récemment accélérée. Sur la période 1951-2000, cela se traduit par une diminution du nombre de jours de gel en hiver (de l'ordre de 3 à 4 jours tous les 10 ans à Toulouse et de 4 à 5 jours à Nancy), et par une augmentation du nombre de jours où la température dépasse 25 °C en été (augmentation de 4 jours tous les 10 ans à Paris et de plus de 5 jours à Toulouse). De même, outre-mer, le réchauffement s'accentue depuis la fin des années 1970. Côté précipitations, l'évolution est plus contrastée. On observe une augmentation sur les deux tiers de l'Hexagone avec des contrastes saisonniers marqués : hausse des précipitations pendant l'hiver, baisse des précipitations pendant l'été et allongement des sécheresses les plus longues. Ce réchauffement global n'est pas accompagné de changements notables dans la fréquence et l'intensité des tempêtes à l'échelle de la France, ni du nombre et de l'intensité des épisodes de pluies diluviennes dans le Sud-Est.
×
×
  • Créer...