Aller au contenu

De l'influence des avions sur le réchauffement de la planète


michel78320

Messages recommandés

Comment est calculée la mortalité liée à la pollution ? (Article du Monde du 1er mars 2019)

 

 

Premier constat : contrairement aux accidents de la route, la pollution atmosphérique n’entraîne pas une cause de mort immédiatement identifiable dans un certificat de décès. Il n’y a pas non plus de maladies bien particulières qui seraient causées uniquement par la pollution, comme le mésothéliome pour l’exposition à l’amiante.

Pourtant, les particules fines – en particulier celles dont le diamètre est inférieur à 2,5 microns (PM2,5) – pénètrent à travers les poumons jusque dans le système sanguin et ont des effets multiples sur la santé.

Une exposition prolongée, même à des niveaux peu élevés, contribue au développement de maladies cardiovasculaires, pulmonaires ou neurologiques, de cancers, de troubles de la reproduction… et donc affecte l’espérance de vie des populations.

Pour mesurer ces effets diffus, les scientifiques cherchent à évaluer l’espérance de vie gagnée ou les morts prématurées qui seraient évitées s’il n’y avait pas de pollution.

La méthode repose sur une évaluation quantitative d’impact sanitaire (EQIS) de la pollution atmosphérique, qui fait consensus parmi les spécialistes et au niveau de l’Organisation mondiale de la santé (OMS).

Pour l’étude publiée par Santé publique France en 2016, le lien entre pollution et exposition aux particules fines a été établi à partir d’informations recueillies sur des « cohortes », et notamment sur la cohorte Gazel-air, c’est-à-dire un groupe de 20 000 personnes suivies par les épidémiologistes depuis les années 1980.

Indépendamment des autres facteurs liés à leur mode de vie (fumer, être exposé à des risques professionnels…), « le résultat montre, comme dans les études réalisées depuis vingt ans en Europe et en Amérique du Nord, que plus les gens sont exposés aux particules fines, plus ils meurent. Cette relation causale se traduit par un modèle statistique », explique Mathilde Pascal, l’une des auteures de ces études.

Les épidémiologistes de Santé publique France ont ensuite recueilli la mortalité par classe d’âge dans toutes les communes de France ainsi que les concentrations de particules fines sur le territoire, par « maillage » de 2 km de côté. En appliquant le modèle statistique établi à partir de la cohorte française Gazel-air, et de la cohorte européenne Escape – qui établissent un coefficient entre l’exposition à la pollution et la mortalité à l’ensemble des communes –, on peut calculer les effets qu’aurait une baisse de la concentration en particules fines dans chaque commune, région ou sur la France entière. Il est possible de compter des « morts évitables » ou des gains d’espérance de vie à trente ans.

 – Plusieurs scénarios évalués

Dans l’étude, la situation actuelle, fondée sur des données de 2007-2008, a été comparée à plusieurs scénarios, en fonction de leur degré d’ambition :

  • respect de la réglementation 2020 de l’Union européenne (UE), soit 20 µg de PM2,5 par mètre cube d’air ;

  • respect de la valeur proposée lors du Grenelle de l’environnement (15 µg/m3) ;

  • respect des normes de l’OMS (10 µg/m3) ;

  • baisse de la pollution au niveau des 5 % de communes équivalentes (grandes villes, bourg, campagne…) les moins polluées ;

  • élimination de la pollution aux PM2,5 d’origine humaine (« anthropique ») : ce niveau de base (4,9 µg/m3) est celui observé sur les sommets des communes de montagne.

Selon ces différentes hypothèses, la mortalité évitée varie fortement. Le chiffre qui a été retenu par les médias et les hommes politiques est le plus impressionnant, car le plus ambitieux : il correspond à 48 300 décès évitables en éliminant la pollution anthropique, dont près de 30 000 pour les habitants des grandes villes.

L’épidémiologiste Mathilde Pascal préfère insister sur le chiffre de « 34 500 morts évitables en se mettant au niveau des 5 % des communes les plus vertueuses de leur catégorie ». Ces différents scénarios montrent aussi la faiblesse de certaines normes, qui ne sont pas très protectrices pour la santé.

 

 

– Des données cohérentes avec d’autres études

L’étude réalisée pour la France est parfois critiquée ou mal comprise car elle s’appuie sur des modélisations. Elle possède aussi des marges d’incertitude, reconnues par les experts eux-mêmes, en particulier pour ce qui concerne les effets de la pollution atmosphérique en zone rurale.

Les résultats obtenus sont plus précis géographiquement et plus adaptés à la France, mais ils restent en cohérence avec d’autres données existantes. Une étude européenne de 2005 du programme « Clean Air for Europe » aboutissait à 42 000 morts prématurées par an en France. Le dernier rapport de l’Agence européenne pour l’environnement publie un chiffre de 422 000 décès prématurés en Europe en 2015, dont 35 800 en France.

 – Des outils de sensibilisation

Le chiffre définitif peut donc varier : 35 800, 42 000, 48 000… mais l’ordre de grandeur reste assez cohérent. La question peut aussi s’appréhender au niveau individuel, par exemple en expliquant que les habitants d’une grande ville « perdent » jusqu’à quinze mois d’espérance de vie en raison de l’exposition aux particules fines. Comme l’explique Mathilde Pascal :

« Effectivement, on n’a pas de certificat de décès, comme pour un accident de la route. Lorsqu’on modélise, on est sur un ordre de grandeur et non pas un chiffre précis, et il y a toujours des fourchettes énormes. Mais on peut comparer ces ordres de grandeur entre eux, et il s’agit d’un phénomène réel, ce sont de vrais morts. »

De même que pour les chiffres de la sécurité routière, c’est moins le décompte individuel du nombre de décès qui importe dans ces études que le fait d’exposer un problème de santé publique et de réfléchir aux moyens de le résoudre. Mais aussi de faire comprendre que les particules fines ont des effets sur la mortalité même à des niveaux d’exposition faibles, et en dehors des « pics de pollution ».

 

 

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 78
  • Created
  • Dernière réponse

Top Posters In This Topic

Bonjour,

 

Je viens de tomber sur un article du journal Le Monde qui m'a un peu étonné ! :rolleyes:

Encore une fois, les journalistes à la quête du titre accrocheur font de la désinformation

 

Voici l'article, disponible ICI :

 

LeMonde.jpg

 

 

 

En fait, il ne s'agit que de variations saisonnières, qui ont lieu chaque année.

 

Dans un rapport officiel du Danemark qui suit l'évolution du Groenland depuis des années (lisible ICI), on trouve un joli résumé des variations :

 

LeMonde2.jpg

 

La fonte spectaculaire a bien lieu en juin-juillet, mais le stock de glace est reconstitué en hiver.

Chaque année, on retrouve à peu près le même stock.

L'année 2015 a même été bien meilleure que l'année 2011.

 

Certains diront que ces chiffres s'arrêtent à 2016. Eh bien voici le dernier bilan publié :

 

LeMonde3.jpg

 

 

On voit d'ailleurs que certaines zones sont en déficit (en rouge), alors que d'autres sont en gain (en bleu).

La courbe de 2018-2019 est pile poil sur la moyenne !

 

Il n'y a donc pas de fonte catastrophique du Groenland, mais des variations saisonnières, comme chaque année !

Il s'agit de variations météorologiques, non de variations climatiques.

 

Moralité : quand vous lisez un journal aux titres alarmistes, ou écoutez les JT de votre chaine favorite, n'éteignez pas votre cerveau, et gardez l'esprit critique. ;)

Cherchez d'autres sources que celle de la majorité des journalistes (des copier/coller de l'AFP, Reuters, ou souvent des journaux concurrents).

Lien vers le commentaire
Partager sur d’autres sites

  • 4 semaines après...
il y a 45 minutes, MiD42 a dit :

taper "sécheresse 1718" sur Google à propos du chaud et du froid......

 

:lol: Intéressant ...

 

Sachant qu'il y a environ 60 millions de personnes en France, que l'espérance de vie est d'environ 80 ans, il meurt donc 187.500 personne en moyenne chaque été.

C'est la faute au temps qui passe.

Il faut lutter contre le temps qui passe ! :P  Une taxe, par exemple ? :lol:

Lien vers le commentaire
Partager sur d’autres sites

Une organisation internationale a publié un rapport sur l'évolution des quantités de CO2 émises par les compagnies aériennes américaines. Des chiffres en forte augmentation, malgré les efforts réalisés par les entreprises pour soigner leur efficacité énergétique.
International Council on Clean Transportation est une ONG sans but lucratif qui travaille sur l'impact de l'industrie du transport sur l'environnement. Elle collabore notamment avec les gouvernements afin de définir des normes pour limiter la pollution.

7 % de plus en deux ans

Cette semaine, l'organisme a publié une étude relative aux émissions de dioxyde de carbone, l'un des principaux gaz à effet de serre, par les compagnies aériennes américaines. Et le constat n'est pas réjouissant : entre 2016 et 2018, les rejets de CO2 et la consommation de carburant auraient augmenté de 7 %.
Le rapport s'attarde aussi à classer les principales compagnies, en fonction de leur empreinte écologique. En haut du classement, on retrouve ainsi Frontier Airlines, entreprise située à Denver, qui a investi dans des avions Airbus plus efficaces en matière d'énergie. À l'opposé, on retrouve à la dernière place JetBlue Airways, basée à New York.

Des efforts, mais peut (et doit) mieux faire

De leur côté, les compagnies aériennes américaines se sont élevées contre les conclusions du rapport. À travers la voix du porte-parole d'Airlines for America, groupe représentant ces sociétés, elles ont préféré mettre en avant les résultats positifs obtenus ces dernières années. D'après leurs données, leurs émissions de CO2 n'ont augmenté que de 3 % entre 2000 et 2018, alors que le nombre de personnes et de marchandises transportées a grimpé de 42 %. Elles ont également souligné les investissements réalisés dans la recherche de carburants alternatifs et d'avions plus économes.
Ce point n'est toutefois pas éludé par l'étude. D'après les chiffres publiés, l'efficacité énergétique des compagnies aériennes américaines serait 3 % supérieure en 2018, par rapport à 2016. Une statistique qui s'avère donc insuffisante en regard de l'augmentation du nombre de vols. Selon les auteurs du rapport, les compagnies pourraient obtenir de bien meilleurs résultats en renouvelant leur flotte d'avions et en les remplissant davantage à chaque voyage.
À l'heure actuelle, l'aviation représente environ 2,5 % des émissions de CO2 dans le monde. Une proportion bien en deçà de celle du transport routier (environ 18 %), mais qui connaîtrait une croissance très rapide.

Lien vers le commentaire
Partager sur d’autres sites

  • 2 semaines après...

"Houston, we’ve had a problem"

Après un petit blackout, je dirai plutôt « la terre, nous avons un problème »

Je veux compléter la réponse de michel78320 sur la fonte de la glace au Groenland.

Quelques explications préliminaires s’imposent ici : de quoi parle-t-on ?

Une calotte glaciaire est un glacier de grande dimension mais dont la superficie n’excède pas 50 000 km2 et dont les caractéristiques le rapprochent des inlandsis.

Un inlandsis est un glacier, d’une étendue supérieure à 50 000 km2, se présentant sous la forme d’une nappe de glace pouvant atteindre plusieurs milliers de mètres d’épaisseur. Sur Terre, il en existe deux aujourd’hui : l’inlandsis de l’Antarctique, le plus étendu et situé au pôle Sud, et l’inlandsis du Groenland, situé sur l’île du même nom à proximité du pôle Nord.

Le terme inlandsis est d’origine danoise et signifie littéralement « glace de l’intérieur du pays » ou « glace de l’arrière pays ».

La formation des inlandsis repose sur le même principe que celle des glaciers : une accumulation de neige résultant d’une fonte insuffisante provoque un tassement de la neige qui expulse l’air qu’elle renferme et se transforme en glace. Cette glace est suffisamment plastique pour se déformer selon la gravité ou son propre poids. Dans le cas des inlandsis, c’est le poids de la glace qui provoque son déplacement par fluage, la pente à l’échelle d’un continent ou d’une grande île étant trop faible pour provoquer un écoulement gravitaire. Un équilibre entre apport de neige, poids de la glace et ablation de neige (sublimation, fonte, vêlage d’icebergs) s’effectue alors et la masse de glace stabilise son épaisseur et son étendue. Un inlandsis se maintient plus par une faible ablation que par un fort apport de neige.

Une coupe de profil d’un inlandsis permet de distinguer plusieurs points récurrents :

une surface convexe : les bords d’un inlandsis sont pentus et son centre est formé de plusieurs dômes très peu marqués qui donnent l’apparence d’un plateau ;

une couche de glace très épaisse, en général 2 000 mètres d’épaisseur, pouvant atteindre 4 000 mètres d’épaisseur ;

un substrat rocheux pouvant se trouver sous le niveau de la mer ;

un débordement sur la mer (mer de Ross et mer de Weddell en Antarctique) ;

un front glaciaire pouvant faire le tour de l’inlandsis et produisant de nombreuses digitations et lobes glaciaires ;

une production d’icebergs : tabulaires lorsqu’ils proviennent du vêlage des shelves, sans forme particulière lorsqu’ils proviennent de l’avancée de langues glaciaires en milieu marin ;

une absence de relief émergeant à l’exception des nunataks.

Les inlandsis renferment 98 % de l’eau douce de la Terre.

L’inlandsis du Groenland

C’est un des reliquats de la dernière glaciation dans l’hémisphère nord.

Il est généralement admis que l’inlandsis du Groenland s’est formé à la fin du Pliocène (4,3 Ma) par coalescence de plusieurs calottes glaciaires. Celles-ci se sont formées sur des terres autrefois tempérées.

La glace la plus ancienne atteint 250 000 ans et est maintenue par l’accumulation annuelle de la neige qui compense les pertes par vêlage et fonte au niveau des marges.

Ses dimensions sont de : 2 400 kilomètres du Nord au Sud et 1 000 kilomètres d’Est en Ouest. Sa surface, relativement plate, est de 1 726 000 km2 et a une altitude moyenne de 2 135 mètres. La glace peut atteindre l’épaisseur de 3 000 mètres au centre de l’inlandsis, ceci représente un volume global de 2 Millions de km3 de glace, soit près de 10 % de l’eau douce de la surface du globe.

De grands glaciers émissaires de la calotte s’écoulent dans les fjords bordant l’inlandsis, ils sont à l’origine de la production de nombreux icebergs. Le plus connu de ces glaciers émissaires est le Jakobshavn Isbræ également connu sous le nom de glacier Jakobshavn ou glacier Ilulissat. Le Jakobshavn Isbræ est l’un des glaciers les plus rapides, avançant à son terminus à une vitesse de 20 mètres par jour. Étudié depuis plus de 250 ans, le Jakobshavn Isbræ a permis de développer la compréhension des changements climatiques et l’étude de l’inlandsis du Groenland

Les icebergs qui se détachent du glacier sont souvent si volumineux (jusqu’à 300 m de hauteur) qu’ils ne peuvent pas flotter dans le fjord et se retrouvent bloqués pendant des années jusqu’à qu’ils soient brisés par la force des icebergs en amont du fjord.

 

Vers une fonte de la calotte glaciaire ?

L’augmentation de la fonte en surface de la calotte du Groenland au cours de ces 28 dernières années le confirme. Xavier Fettweis, du Laboratoire de climatologie et de topoclimatologie de l’ULG, a démontré que ses glaces fondent beaucoup plus vite que ce qui avait été estimé précédemment : la surface de fonte de la calotte a augmenté de 45% depuis 1979. De plus, la température estivale moyenne du Groenland s’est élevée de 2,4°C entre 1979 et 2006

 

Le Groenland va-t-il fondre en totalité ? (étude CNRS)

La géométrie et le volume de la glace des calottes sont régis par l'équilibre entre les quantités de neige tombées et les quantités évacuées. Le Groenland regroupe 10 % des glaces mondiales et donc des réserves d’eau douce de la planète. Les observations conduisent à estimer que la calotte groenlandaise est aujourd'hui en déséquilibre. Elle perdrait de sa masse, en raison de la fonte et d'une accélération de l'écoulement des glaciers. Son profil général serait d'ailleurs en train de changer pour devenir plus pentu.

Des études récentes sur le Groenland auraient montré un amoindrissement significatif de la calotte, entre 1992 et 2002, diminution qui paraît encore s'accélérer. Les résultats fournis par l’altimétrie révèlent que le Groenland aurait perdu environ 50 milliards de tonnes par an. La mesure des flux, flux entrant (accumulation de la neige) et flux sortant (ablation et rejets vers l’océan), fournit une estimation plus importante de cette perte de masse, qui atteindrait environ 100 milliards de tonnes par an. La température moyenne d’été à la surface de la calotte de glace a augmenté de 2,4°C entre 1979 et 2005. La surface maximale du Groenland fondant au moins un jour par an a augmenté de 42 % durant la même période, ce qui représente une surface supplémentaire de fonte en 2005 équivalente à un tiers de la surface de la France. On estime que, au-delà de 20 % de perte, ce mouvement serait irréversible. Le point de non-retour serait atteint avec un réchauffement global de 3°C, réchauffement probable au cours ou à la fin du 21e siècle.

Aux deux extrémités de la planète on peut observer une perte de masse des calottes polaires sur leurs parties côtières, perte qui n’est que partiellement compensée par un gain de masse sur les parties centrales situées à haute altitude. Dans le contexte d’un réchauffement climatique des anticipations peuvent être faites en se basant sur ces constatations. Les masses d’air chaud contiennent plus d’eau que les masses d’air froid et sont donc susceptibles d’apporter plus de précipitations, ce qui explique le gain de masse constaté dans les parties centrales. Sur le pourtour, partie la plus chaude, le phénomène dominant serait l’augmentation de l’ablation de surface. L’amincissement des régions côtières ne relève pas entièrement de cette augmentation de l’ablation, mais également d’une accélération de l’écoulement. Ainsi, la plupart des grands glaciers du Groenland au sud de 66 degrés de latitude Nord s’écoulaient plus rapidement en 2000 qu’en 1996. Cette accélération s’est intensifiée et étendue à 70 degrés Nord en 2005.

Un des problèmes déterminants, qui rend critique la caractérisation et le suivi de ces changements climatiques en régions polaires, réside dans le manque de stations de mesures au sol (mesures de température, hauteur et densité de la neige…). L’observation spatiale apparaît comme une alternative nécessaire pour mieux analyser ces changements, en offrant une couverture régulière, systématique et relativement homogène de l’ensemble des zones polaires. Bien que des archives satellitaires existent maintenant depuis plus de 25 ans, la quantification de ces observations pour le développement d’indicateurs fiables et précis des changements de surface observés reste un problème scientifique majeur.

 

Lien vers le commentaire
Partager sur d’autres sites

Tiens, le débat reprend ! :)

 

Je voudrais juste mettre en avant la réflexion d'un climatologue réputé, Roy Spencer ( Université de Alabama ) :

"Une vieille recette utilisée par l’industrie de l’information est que « pour vendre, il faut que ça saigne ». Si quelqu’un a été assassiné, c’est une nouvelle. Si personne n’est assassiné il n’y a pas de nouvelle. Voilà qui devrait vous suggérer qu’on ne peut pas compter sur les médias grand public pour être une source impartiale d’information sur le changements climatique.

Il y a maintenant beaucoup d’experts climatiques autoproclamés. Ils n’ont pas besoin d’un diplôme en physique ou en sciences de l’atmosphère. Pour ce qui est de justifier leurs compétences, ils leur suffit d’être « préoccupés » et de faire savoir qu’ils sont « préoccupés » . Ils pensent que l’homme assassine la Terre et veulent que les médias relaient ce message."

 

Son dernier papier est ICI (en français). ;)

 

Lien vers le commentaire
Partager sur d’autres sites

L'existence de gourous + ou - autoproclamés ne prouve effectivement rien... Du tout ! Ni dans un sens ni dans l'autre.


Autant il est facile de douter des causes et des effets à terme d'un réchauffement, autant le dit réchauffement n'est contesté par personne car ses effets à court terme (quelques dizaines d'années) sont factuellement vérifiables. Regarde l'évolution sur 40 ans des glaciers des alpes. Je connais bien argentiere, mer de glace, bossons et courmayeur côté italien.

Bien sûr ce qui est perdu à gauche peut être gagné à droite ou dans le temps, mais je n'ai pas d'exemple de glaciers ayant grossi ces 40 dernières années...

Les journaleux peuvent bien ecrire ce qu'ils veulent, les scientifiques + ou - autoproclamés et militants aussi, ça ne modifiera pas les photos que j'ai faites il y a 40 ans et que ne pourrais plus faire aujourd'hui...

Lien vers le commentaire
Partager sur d’autres sites

On est d'accord, Alain. Le réchauffement est bien réel.

Mais peut-on extrapoler une sinusoïde par une droite ?  :D

 

En 1620, la Mer de Glace mesurait 14 km de long et venait s'étaler jusque dans la vallée de Chamonix, en formant le Glacier des Bois.

Les hameaux du Bonnanay et du Châtelard ont même été anéantis par l'avancée du glacier des Bois en 1610.

Pourtant en 1873, le recul est tel que la fameuse grotte de glace (naturelle) formée par l'Arveyron à la base du glacier a totalement disparu, à cause du réchauffement climatique.

Le réchauffement climatique était déjà actif au 19ème siècle, bien avant l'ère du pétrole ...

 

Au lieu de taxer et re-taxer en prétendant que cela va inverser ce réchauffement, on ferait mieux de s'occuper de gérer les déchets de l'Homme, la pollution qu'il installe partout, et veiller à ne pas sur-peupler cette pauvre planète, en veillant à protéger les ressources qui nous nourrissent et l'air que nous respirons !  ;) Ce sera déjà pas mal !

Lien vers le commentaire
Partager sur d’autres sites

Là on mélange physique (climatologie) et politique.

Oui il y a des cycles mais le cycle actuel semble plus violent que les précédents. Il n'est pas anormal de s'en préoccuper. Les conclusions politiques sont de toutes façons toujours hors sol...

Pollution et climat ne sont pas exclusifs, il faudrait s’inquiéter des 2... Mais de quelle manière ?

C'est comme en foot: rien qu'en France il y a 60 M de sélectionneurs...

Lien vers le commentaire
Partager sur d’autres sites

 

 

 

 

Pour aller dans le sens de Nico

 

Crue et décrue glaciaires

 

Le bilan de masse d'un glacier est l'équilibre entre son ablation (perte de neige et de glace par fusion mais aussi par évaporation ou même sublimation, et l' accumulation de neige.

 On dit qu'un glacier est en crue lorsque sa masse augmente (accumulation>ablation), et qu'il est en décrue lorsque sa masse diminue (ablation>accumulation).

 

 

Pour résumer, sur de courtes échelles de temps (celles qui nous intéressent ici), le bilan de masse est déterminé par deux paramètres : la température moyenne estivale et la quantité de précipitations hivernales . Des fortes chutes de neige en hiver associées à des températures élevées en été ne permettent pas au glacier de croître ; de même, une année avec un été doux et humide et un hiver froid et sec n'est pas associée à une crue. Les conditions les plus favorables à la croissance d'un glacier sont des hivers neigeux associés à des étés frais, les pires conditions étant des hivers secs associés à des étés (très) chauds.

Sur des échelles de temps plus longues (100 000 ans), d'autres paramètres entrent en jeu, tels que la vigueur et la durée relatives hiver / été (précession des équinoxes), la position de la Terre par rapport au Soleil en été (excentricité) et l'inclinaison de l'axe de rotation de la Terre (obliquité).

Ces causes proximales de crue/décrue (température estivale et chutes de neige hivernales) varient selon une combinaison de multiples paramètres géophysiques, causes ultimes du processus. On liste ici 6 d'entre eux.

 

1.     Dans le cas des glaciers alpins, il a été montré que le rayonnement solaire (cyclicité de 11 ans en moyenne) a joué un rôle pour la décrue de 1940, en augmentant l'intensité des radiations estivales.

2.Par ailleurs, sur la façade Ouest de l'Europe, les précipitations hivernales dépendent grossièrement des valeurs de la NAO (Oscillation Nord-Atlantique) : différence de pression moyenne sur un an entre les Açores et l'Islande. Une NAO négative est généralement associée à des hivers frais mais secs, et une NAO positive à des hivers chauds et humides sur l'Ouest de l'Europe.

Attention cependant, cet indice est un indice global et les variations locales dans les Alpes (qui sont soumises à une double influence océanique et continentale) peuvent aller à contre-courant des valeurs de NAO ! De plus, en montagne, les conditions de précipitation sont variables d'une vallée à l'autre, ce qui explique également les différences observées entre les trois glaciers de la vallée de Chamonix (cf. figure ci-avant).

3.     De plus, certains auteurs soulèvent le rôle des courants océaniques de l'Atlantique (notamment l'Oscillation Multidécennale Atlantique) dans les décrues des glaciers alpins

4.     La topographie aux alentours du glacier a un rôle non négligeable sur le bilan de masse (exposition, direction des vents principaux...).

5.     Les glaciers dits "suspendus" (tel que le glacier des Grands Couloirs, sur la face Sud-Ouest de la Grande Casse dans le massif de la Vanoise), épais et à surface faible, ont plus d'inertie que les glaciers de vallée et sont moins affectés par les variations annuelles.

6.     Enfin, la température moyenne annuelle, tous paramètres égaux par ailleurs, joue un rôle certain sur le bilan de masse des glaciers. Les glaciers de haute altitude sont donc moins affectés.

 

Le réchauffement climatique anthropique a donc in fine deux rôles dans le processus de fonte :

 

 (1) il induit l'augmentation de la température moyenne annuelle (et surtout estivale) locale sur une longue échelle de temps [cause proximale] et

 

 

(2) il influe sur les conditions météorologiques, notamment sur l'atmosphère et les courants océaniques [causes ultimes], qui à leur tour influent sur les glaciers.

 

 

 

Modifié par WBE
Lien vers le commentaire
Partager sur d’autres sites

Exposé intéressant, sauf pour la dernière phrase, qui me fait bondir ! :huh:

 

Au lieu de : " Le réchauffement climatique anthropique a donc in fine deux rôles dans le processus de fonte : "

il serait plus honnête d'écrire : " Le réchauffement climatique a donc in fine deux rôles dans le processus de fonte : "

 

En effet, dans ce texte, rien ne prouve le côté entropique du réchauffement.  ;)

 

C'est ce qui me dérange dans tous ces discours savants des médias et des politiques :

Ils énoncent des tas de fait que personne ne conteste, et en concluent "DONC c'est l'homme qui est responsable".

 

Quand je faisais de telles fautes de raisonnement, pendant mes études, je me prenais une grosse claque (morale, heureusement) de mon prof de Math-Spé ! :D

 

 

Lien vers le commentaire
Partager sur d’autres sites

(Traduction de l’anglais))

Réchauffement anthropique et naturel déduit des changements dans le bilan énergétique de la Terre

Markus Huber & Reto Knutti

Géosciences de la nature

Contenance 5, pages

31-36 (2012) |

 

Résumé

Le bilan énergétique de la Terre est essentiel pour comprendre le climat et les variations climatiques causées par les changements naturels et anthropiques de la composition atmosphérique. En dépit d'abondantes données d'observation sur l'évolution du bilan énergétique au cours des dernières décennies1,2,3, la détection formelle du réchauffement climatique et son attribution à l'influence humaine s'est jusqu'à présent principalement fondée sur la différence entre les modèles de réchauffement spatio-temporel d'origine naturelle et anthropogénique4,5,6. Nous présentons ici une méthode d'attribution alternative qui repose sur le principe de la conservation de l'énergie, sans hypothèses sur les schémas de réchauffement spatial. Sur la base d'un ensemble massif de simulations à l'aide d'un modèle climatique de complexité intermédiaire, nous démontrons que les changements connus dans le bilan énergétique global et dans le forçage radiatif limitent fortement l'ampleur du réchauffement anthropique. Nous constatons que depuis le milieu du XXe siècle, les gaz à effet de serre ont contribué à un réchauffement de 0,85 °C (incertitude de 5 à 95 % : 0,6 à 1,1 °C), dont environ la moitié a été compensée par les effets de refroidissement des aérosols, avec un changement total observé de la température mondiale d'environ 0,56 °C. Les tendances observées sont extrêmement peu probables (<5%) d'être causées par la variabilité interne, même s'il a été constaté que les modèles actuels la sous-estiment fortement. Notre méthode est complémentaire de l'attribution optimale des empreintes digitales et produit des résultats parfaitement cohérents, ce qui suggère une confiance encore plus grande dans le fait que les causes d'origine humaine dominent le réchauffement observé.

Lien vers le commentaire
Partager sur d’autres sites

Le réchauffement climatique existe-t-il vraiment ? Quels sont les mythes et réalités autour du changement climatique ? Doit-on croire les scientifiques et les données ? il a fait le tour des études et les a analysées pour vous, pour tout savoir et tout comprendre sur le réchauffement climatique. Alors, peut-on encore douter du réchauffement climatique ? 

Depuis plusieurs années, le réchauffement climatique s’impose comme un sujet de société fondamental. Pourtant, certains commentateurs sont encore sceptiques sur l’existence du réchauffement climatique. Certains estiment d’abord que le réchauffement climatique est largement surestimé, d’autres expliquent que même s’il existe, il n’est pas d’origine humaine. D’autres encore disent que l’on ne sait pas vraiment et que les scientifiques ne sont même pas d’accord entre eux. Et il y a aussi ceux qui doutent des conséquences du réchauffement climatique sur les écosystèmes, ceux qui pensent que le réchauffement climatique est bénéfique…

Lien vers le commentaire
Partager sur d’autres sites

Un article de journaliste ... :D

 

Pour ce qui est du fameux consensus, il est intéressant de lire cette déclaration et de regarder avec soin le profil des signataires (il y en a déjà 493) ICI

Il y a de vrais scientifiques qui bravent le "politiquement correct" et ont le courage de donner leur vision en s'adressant à António Guterres (secrétaire général de Nations unies) et Patricia Espinosa Cantellano (secrétaire exécutive du Programme des Nations unies pour l’Environnement).

 

On verra bien si c'est relayé par nos médias, ou tout simplement ignoré. ;)

 

 

Lien vers le commentaire
Partager sur d’autres sites

« Le mythe climatique » de Benoît Rittaud, Seuil, collection Science ouverte, février 2010

Notes de lecture et commentaires

 

Ce livre est écrit par « un mathématicien, auteur de nombreux ouvrages de mathématiques à destination d’un large public » nous dit la quatrième de couverture. Le livre se présente, sous un jour d’objectivité de bon aloi, comme un appel à la vigilance et au sens critique. Il analyse les ressorts de quelques-unes des affirmations qui fondent ce qu’il appelle le « carbocentrisme », cette thèse qui estime que le gaz carbonique contribue significativement au réchauffement de l’atmosphère. Comme la collection qui l’édite est de qualité, il m’a paru intéressant de lire comme son auteur aborde les thèses du « carbocentrisme » : avec esprit critique.

Le livre commence et se termine fort bien. Le rappel historique sur l’affaire des « canaux » de la planète Mars invite à se méfier des emballements fondés sur des interprétations hasardeuses de ce que l’on observe. Puis l’auteur présente de façon parlante les « armées » en présence dans le combat d’opinion au sujet de l’influence sur le climat des émissions de gaz carbonique dues à l’activité humaine : carbocentristes », « solaristes », « océanistes », géologues et mathématiciens. De mon point de vue, il est heureux que, dans ces matières compliquées, le débat soit vivant et que les hypothèses se multiplient. C’est ainsi que progresse la science.

On entre ensuite dans le vif du sujet. Le chapitre sur la façon dont on a été dessinée la fameuse courbe en forme de crosse de hockey qui montre une très forte croissance des températures après plusieurs siècles de stabilité me paraît assez convaincant. Le livre explique clairement les artefacts qui ont conduit à cette courbe. D’ailleurs, le GIEC ne l’utilise plus. L’apparente stabilité des températures mondiales moyennes qui apparaissait sur cette courbe conduisait à considérer que les fluctuations de températures observées en Europe durant le deuxième millénaire étaient seulement régionales. B. Rittaud remarque que la remise en cause de la « crosse de hockey » ne permet pas de conclure que ces fluctuations étaient mondiales. En fait, faute de mesures, on n’en sait rien. A ce propos j’ajouterai que l’on a retrouvé récemment des écrits qui témoignent que le mot de « Groenland » ne signifie pas que le pays, à l’époque, était vert ; le terme a été choisi par ceux qui ont découvert ce pays pour inciter leurs compatriotes à venir s’y installer (une antiphrase en quelque sorte).

Puis Benoît Rittaud conteste l’idée même d’une température moyenne de la basse atmosphère –celle où vivent les hommes. Mais cette contestation, au fond, n’apporte pas grand-chose. Tout le monde en effet sait qu’il est difficile de mesurer une température moyenne. On se doute aussi que le résultat dépend de la façon de calculer la moyenne. Il est clair également que la température moyenne ne donne aucune indication sur ce qu’il faut faire localement pour réagir à l’évolution des températures puisque celles-ci sont très différentes d’une région du monde à l’autre. Rien de cela n’est nouveau. Mais pour savoir si les émissions de CO2 ont un effet sur les températures, ce qui importe, ce n’est pas la valeur absolue des températures, c’est l’évolution de la température moyenne. Certes, on peut trouver des configurations où la moyenne évolue dans un sens ou dans l’autre selon la façon dont elle est calculée, mais il faut pas mal d’imagination pour y parvenir. Personne ne doute que la température moyenne a augmenté dans les dernières décennies – pas même B. Rittaud malgré ses longs développements sur la pertinence de cette notion de température moyenne. Il écrit (p. 93) : «  Si cette idée que la ‘température globale’ telle qu’on la considère aujourd’hui est donc trop mal définie pour qu’on puisse l’utiliser aveuglément, on ne peut pour autant lui dénier toute valeur. Un élément parmi d’autres dans ce sens est la théorie solariste : s’il s’avère que la courbe de l’activité solaire est corrélée à celle de la ‘température globale’, alors cela prouvera bien que cette dernière possède une signification » -fin de citation ; je poursuis « tandis que si elle est corrélée aux émissions de CO2, elle n’en a pas ». On retrouve en plusieurs endroits des « dérapages logiques » de ce genre.

Puis vient la critique de ce que B. Rittaud considère comme « l’un des points centraux du carbocentrisme », la corrélation entre la teneur du CO2 de l’atmosphère et la température durant les derniers millénaires. La corrélation est très forte ; les dernières observations montrent que les variations de teneur de CO2 suivent de 800 ans les variations de température. B. Rittaud estime que devant des phénomènes compliqués, les explications les plus simples sont les meilleures, selon le procédé du « rasoir d’Occam ». Pourquoi donc, se demande-t-il aller chercher l’hypothèse que le CO2 a un effet sur la température ? L’action du soleil fluctue, cela a un effet sur la température et les fluctuations de la température ont un effet sur les émissions de CO2. Un point c’est tout. C’est tellement plus simple que c’est probablement vrai. A-t-il lu par exemple « L’homme face au climat »[1] édité en 2006, p.41[2] ? La cause originelle est la modification des paramètres astronomiques mais les effets directs de cette cause n’expliquent pas les évolutions de température. Il faut donc imaginer des rétroactions positives. La modification de l’albédo (la réflexion de la lumière par les glaciers notamment) ne suffit pas non plus ; il faut autre chose. Supposer que les émissions de CO2 changent lorsque la température change et que ces émissions ont elles-mêmes un effet sur les températures est une hypothèse assez banale qui doit donc résister au rasoir d’Occam, semble-t-il.

Remarquons que B. Rittaud écarte cette hypothèse mais ne dit pas comment faire le lien entre les effets directs des paramètres astronomiques et les fluctuations de température observées.

A ce propos, un bref commentaire sur un procédé littéraire de B. Rittaud. Après avoir présenté le cas de deux courbes corrélées dont l’une, en gris, suit l’autre de peu, B. Rittaud écrit ceci p 95  - « nous allons à présent nous intéresser à une idée en apparence quelque peu saugrenue qui propose ceci : c’est la grandeur représentée en gris qui contrôlerait l’autre ». Il apparaît ensuite que la courbe en gris est la concentration en CO2 et l’autre est la température. Que veut dire « contrôler » ? En fait la question n’est pas de savoir si le CO2 « contrôle » la température mais si le CO2 a un effet sur la température. De plus, avant toute analyse, l’idée d’une rétroaction positive via le CO2 est déclarée « saugrenue ».

On change alors de registre pour parler de la notion de probabilité. Le pari de Pascal est analysé et critiqué. On peut se demander ce qu’il vient faire ici. En tout cas cela permet de se rendre compte que B. Rittaud tombe dans le travers qu’il prête aux « carbocentristes ». Il entend démontrer que ce pari ne doit pas conduire à se comporter, si l’on n’a pas la foi, comme si Dieu existait. La preuve : « dans le cas du pari pascalien, notre multiplication de zéro par l’infini vaut…zéro » et, en note : « une façon de s’en convaincre consiste à envisager le produit de deux nombres a et b comme l’aire d’un rectangle de côtés a et b. Lorsque a vaut zéro et b l’infini, le rectangle devient une droite, qui n’englobe aucune surface, d’où la nullité de l’aire et, donc, du produit ». Quelle belle démonstration ! Voici un contre-exemple bien connu des élèves de terminales. Si a si vaut k fois t au carré et si b vaut h divisé par t, lorsque t va vers l’infini, a tend vers l’infini et b tend vers zéro. Le produit, qui vaut kh fois t, tend vers l’infini et non pas vers zéro Qu’un mathématicien pense river son clou à Pascal avec un raisonnement comme celui que nous tient B. Rittaud ! Tout se passe comme si son raisonnement était guidé par la conclusion qu’on veut lui trouver.

Puis, B. Rittaud rappelle qu’il faut comparer le coût de l’action à celui de l’inaction, ce qui est assez évident. En fait tout ce chapitre sur les probabilités n’apporte pas grand-chose.

Sur la valeur prédictive des modèles on lit ceci, p.149 : « Un des arguments présentés pour soutenir la fiabilité des modèles climatiques est que tous, c'est-à-dire une vingtaine, sont d’accord pour prévoir le réchauffement. ‘Personne n’est parvenu à mettre au point une expérience numérique crédible conduisant le système climatique à ne pas se réchauffer en réponse à l’augmentation des gaz à effet de serre’ a par exemple écrit Hervé le Treut. Tel quel l’argument n’est pas sans intérêt mais cet intérêt change du tout au tout si l’on remarque que ces lignes ont été écrites en 1997, peu de temps avant que la courbe de température globale se mette à stagner ! ». Fin de citation.

L’ensemble des modèles ne donne pas une prévision certaine mais un faisceau de possibilités. Au début des années 2000 les températures observées sortaient de ce faisceau de possibilité par en haut au point qu’il aurait fallu, si cela continuait, remettre en cause les modèles. Je me souviens avoir fait cette remarque dans une réunion assez vaste animée par des météorologues, à quoi il m’a été répondu que l’on ne pouvait juger sur quelques années. En fait, la pause dans la hausse fait rentrer les températures dans le faisceau des possibilités calculées par les modèles. L’argument de H. Le Treut conserve donc tout « son intérêt », pour reprendre l’expression de B. Rittaud.

A noter un autre procédé littéraire de B. Rittaud : il parle d’abord de « stagnation » des températures dans les dix dernières années, puis évoque en même temps une baisse (on peut observer une très légère baisse selon la façon dont est calculée la température), puis il ne parle que d’une baisse. Par ailleurs, il fait d’abord remarquer que cette stagnation sur dix ans n’est pas significative, puis il s’y réfère à mainte reprise en oubliant cette réserve.

Le chapitre final traite des pseudo sciences, de l’utilisation à des fins de morale de données venant de l’observation scientifique. Ce chapitre est intéressant et, en gros, je suis d’accord avec ce qu’il en dit. Les « carbomanciens » doivent être combattus, au même titre que les « sceptomanciens », une sorte que B. Rittaud évoque sans employer cette dénomination ni donner le nom de personnes représentatives de cette obédience.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 14 heures, WBE a dit :

« Le mythe climatique » de Benoît Rittaud, Seuil, collection Science ouverte, février 2010

Notes de lecture et commentaires

 

Merci pour la référence à ce livre, qui permet de réfléchir un peu au lieu de croire (boire) tout ce qu'on dit.  :)

Un de plus à lire, mais plus on a d'argumentations scientifiques et plus on garde un cerveau opérationnel ! :D

 

Pour ce qui est des notes de lecture, qui a écrit ça ? Une citation mériterait de citer l'auteur. ;)

Lien vers le commentaire
Partager sur d’autres sites

Henri Prévot
Ingénieur général des mines
Aujourd'hui consultant en politique de l'énergie

Quelques aspects d'une carrière variée
- Diplômé de Polytechnique (promotion 64) et de l'Ecole nationale supérieure des mines de Paris
- Ingénieur au fond dans les Houillères du Nord et du Pas de Calais en 1968
- Direction régionale de l'industrie en Provence Côte d'Azur
- Responsable de la sous-direction du textile et de l'habillement du ministère de l'industrie
- Envoyé dans le Sud-Ouest par les ministres de l'agriculture et de l'industrie comme délégué de massifs forestiers pour comprendre la relation entre les sylviculteurs et les utilisateurs de bois et stimuler l'économie de la forêt et du bois ; cela a donné la matière à "l'économie de la forêt - mieux exploiter un patrimoine" (Edisud)
- Délégué régional de l'ANVAR en Aquitaine
- Directeur général adjoint de la région Aquitaine et membre du cabinet de J. Chaban Delmas
- Au Secrétariat général de la défense nationale, chargé d'étudier la relation entre l'économie (réglée par le droit européen) et la sécurité du pays (qui est de responsabilité nationale) ; cela a donné la matière à "La France : économie, sécurité - économie mondialisée, sécurité nationale, Union européenne", Hachette Pluriel, prix des ministères
- Jusqu'en 2009, au conseil général des mines, parmi d'autres activités, auteur ou coauteur de plusieurs rapports sur l'énergie : l'énergie des déchets, le biocarburant, ITER, le prix de l'électricité, les réseaux de chaleur, diviser par trois nos émissions de gaz carbonique.  Coanimateur, avec Jean-Pierre Dupuy d'un groupe de réflexion le "forum confiance".

Lien vers le commentaire
Partager sur d’autres sites

Oui, donc c'est un X de 75 ans qui a fait une carrière dans des domaines très variés, mais n'est pas du tout un spécialiste de climat.

Des publications assez politiques sur la sécurité nationale, sur le traité de Maastricht, sur la Souveraineté, les accords de Schengen, l'économie de la forêt ...

C'est un Monsieur qui a beaucoup d'expérience dans le fonctionnement de notre Société.

Faute d'être un expert sur le Climat, il doit pouvoir nous aider à nous adapter aux changements.

Ses remarques sont intéressantes, mais à prendre avec ces réserves.

Lien vers le commentaire
Partager sur d’autres sites

il y a 2 minutes, WBE a dit :

"There is no climate emergency " Benoît Rittaud est un des signataires. Est-il spécialiste du climat? Non, c'est un mathématicien, peut-être brillant, mais est-il plus crédible que les autres pour parler du climat?

 

Crédible pour détenir LA vérité : certainement pas.

Pour donner un avis et l'argumenter : oui, autant que pour les autres.

 

Comme dit Alain, nous (ceux du forum) ne sommes pas des spécialistes et ne connaissons pas grand chose sur la cause du réchauffement.

Lire les argument des uns et des autres est intéressant, et sans à priori aucun, c'est enrichissant.  ;)

 

De toute façon, tout ça n'est que débat d'idées, car nous (les simmeurs du forum) ne pouvons pas faire grand chose pour changer les comportement des 6 milliards d'occupants actuels de la Terre !  :D

Lien vers le commentaire
Partager sur d’autres sites

Petite citation de ce Mathématicien :
 
La surabondance d'informations invérifiables mises en ligne par des personnes mal renseignées est un problème majeur posé à cet outil par ailleurs irremplaçable qu'est Internet.
 
L'esprit « démocratique » de certains sites (comme une encyclopédie ouverte bien connue), s'il part d'une bonne intention et peut à l'occasion produire d'excellentes choses, est en retrait par rapport à l'idée que je me fais du savoir en général.
À mon sens, et tant pis si cela peut paraître rétrograde, nous ne sommes pas tous égaux devant la connaissance et la meilleure volonté du monde des amateurs ne peut pas se substituer valablement aux connaissances des spécialistes (même si les compétences de ceux-ci ne doivent surtout pas être idéalisées).
 
Futura Sciences me semble une heureuse manière de concilier la nécessaire ouverture de la science au plus grand nombre avec la vigilance qui s'impose sur le sérieux des informations délivrées. Spécialistes comme amateurs y ont un rôle à jouer : aux premiers la responsabilité d'informer, aux seconds celle de questionner, de pousser les experts dans leurs retranchements et de porter un regard critique de citoyens sur les activités des scientifiques, activités qui concernent la collectivité toute entière.
 
Benoît Rittaud, Mathématicien
 
Moi, je me situe dans les "amateurs" et je questionne ...  :)
Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement

  • Autogen Global - MISE à JOUR : 16/07/2021

  • Trafic France - mise a jour 2.0 : 21/03/2020



×
×
  • Créer...