les-crises.fr

Ce site n'est pas le site officiel.
C'est un blog automatisé qui réplique les articles automatiquement

Loi de Renseignement : l’analyse de Numerama

Monday 4 May 2015 at 00:24

Loi Renseignement : on a fait le Vrai/Faux du Vrai/Faux du Gouvernement !

Alors que le Gouvernement a publié un “Vrai/Faux” pour tenter de déminer ce qu’il estime être les “fantasmes” des opposants au Projet de Loi Renseignement, Numerama se prête au même jeu en répondant point par point.

Au moment où s’ouvrait à l’Assemblée Nationale la discussion du projet de loi sur le Renseignement, le Gouvernement publiait sur son site internet un “Vrai/Faux” sur ce que Manuel Valls venait de qualifier tour à tour de “mensonges“, “fantasmes” ou interprétations de “mauvaise foi“, pour demander aux députés de ne pas écouter les opposants et de voter massivement la loi. En tout, onze points que nous reprenons ici les uns après les autres :

(attention : ce n’est pas clair en lecture rapide, mais nos “Vrais” / “Faux” concernent la réponse apportée par le Gouvernement, pas la réponse à la question !)

1. LE PROJET DE LOI OFFRE DES MOYENS SUPPLÉMENTAIRES AUX SERVICES DE RENSEIGNEMENT

Si l’explication fournie est difficilement contestable puisque sans réel argument précis, on peut toutefois préciser que les “moyens supplémentaires” offerts aux services de renseignement sont surtout théoriques. En pratique, comme l’ont expliqué les ministres en commission des lois, il s’agit pour une large part de légaliser des pratiques qui étaient jusque là illégales. C’est une loi blanchisserie.

2. LE GOUVERNEMENT MET EN PLACE UNE SURVEILLANCE MASSIVE DES DONNÉES SUR INTERNET

C’est la question cruciale des boîtes noires, dont le fonctionnement est très opaque. En l’état actuel du texte, il est précisé que le Premier ministre pourra ordonner aux FAI et hébergeurs “la mise en œuvre sur leurs réseaux d’un dispositif destiné à détecter une menace terroriste sur la base de traitements automatisés” de données. Il est vrai que le texte prévoit que les données sont collectées et passées à la moulinette de l’intelligence artificielle “sans procéder à l’identification des personnes auxquelles ces informations ou documents se rapportent“. Mais comme nous l’expliquions hier, ce n’est pas parce que des données sont collectées et traitées sans identification des personnes surveillées qu’il n’y a pas surveillance. Si un policier vient chez vous et observe tout ce que vous faites, vous ne serez sans doute pas très heureux, même s’il ne connaît pas encore votre nom. De plus, c’est l’Etat qui décidera de ce qui représente un “indice” de potentialité de terrorisme, ce qui sera potentiellement très large. Les internautes se sentiront-ils libres d’aller s’informer sur des sites édités par l’ennemi ou par ses sympathisants (ce qui est encore leur droit en démocratie), s’ils redoutent que la boîte noire estime qu’il s’agit d’un comportement suspect, qui mérite d’enquête de plus près dans le contenu-même des communications ? Si ce n’est pas une surveillance de masse, c’est au moins une mise au pas de masse, par la signification que tout comportement suspect sera détecté.

3. LE GOUVERNEMENT MET EN PLACE UN DISPOSITIF MASSIF D’INTERCEPTION DES CONVERSATIONS PRIVÉES

Notez la subtilité des mots employés par le Gouvernement, qui parle des “interceptions de conversations téléphoniques”, alors que ça n’est pas là le sujet principal. Les ISMI-catchers permettront surtout de collecter les identifiants de tous les téléphones présents dans une zone géographique donnée (au hasard sur les lieux d’une manifestation). Si vous ne voulez pas en être victime, l’installation d’un détecteur d’ISMI-catcher sur votre smartphone peut être recommandée.

4. LA COMMISSION DE CONTRÔLE SERA INDÉPENDANTE ET DISPOSERA DES MOYENS SUFFISANTS POUR ASSURER SA MISSION

Il est toujours amusant de parler d’autorité “indépendante” lorsque l’Etat décide de son budget et donc de ses moyens d’action. Il suffit de voir comment le Gouvernement a mis au pas la Hadopi en l’asphyxiant par le budget pour voir que “l’indépendance” n’est que sur le papier. Par ailleurs son avis ne sera que consultatif. Elle aura le droit de dire “je ne suis pas d’accord”, et le Premier ministre aura le droit de répondre “je m’en fiche”. Quant au pouvoir de saisir le Conseil d’Etat, il est amusant, mais la CNCTR ne pourra jamais qu’alerter le Conseil d’Etat de pratiques illégales, or tout l’objet de la loi est d’étendre grandement le champ de la légalité, pour donner le maximum de flexibilité aux services de renseignement.

5. LE JUGE SERA ABSENT DE LA PROCÉDURE DE CONTRÔLE

Nous avons cherché l’expression la plus polie pour parler de la réponse à ce point n°5, et nous avons trouvé : “foutage de gueule total”. Comment voulez-vous exercer un recours contre une mesure de surveillance alors que par définition, vous ne savez pas que vous êtes surveillé par l’Etat ? Le projet de loi dit bien que le plaignant, qui doit d’abord s’adresser à la CNCTR, doit justifier un “intérêt direct et personnel” à contester une mesure, c’est-à-dire qu’il ne peut pas se contenter de dire qu’il soupçonne l’éventualité que peut-être, sait-on jamais, l’Etat le surveille. Il faudra apporter des débuts de preuve, qu’il sera très difficile (voire impossible) de réunir.

Quant aux magistrats qui siègent à la CNCTR, ce n’est pas le titre qui fait la fonction. Ils ne seront pas soumis aux règles de procédure qui s’imposent aux juridictions, et qui font la garantie des droits. De plus ils seront nommés par le Premier ministre, sur proposition du Procureur général près la Cour de la cassation, lui-même nommé à ce poste par le Gouvernement. Faut-il en dire plus pour douter de leur indépendance, qui doit être celle de tout “magistrat” chargé de s’opposer aux abus de pouvoir de l’Etat ?

6. LE CHAMP DES FINALITÉS JUSTIFIANT LE RECOURS AUX TECHNIQUES DE RENSEIGNEMENT EST TROP LARGE

Parmi les 7 motifs autorisant des mesures de surveillance administrative, figurent notamment “les intérêts économiques, industriels et scientifiques majeurs de la France“, ce qui n’est pas d’une précision fantastique (quand commence un intérêt “majeur” par rapport à un intérêt “mineur” ?), ou encore “la prévention de la délinquance organisée“, ce qui va de la petite équipe de vendeurs de shit aux voleurs de bicyclettes en passant par la fraude sociale, la fraude fiscale, etc. De plus, il n’est pas exact de prétendre que “le suivi des mouvements défendant pacifiquement certaines causes est clairement proscrit“, puisque le but affiché et de “prévenir des violences collectives”, ce qui est le cas dans à peu près toutes les manifestations, même si leurs organisateurs ont une vision pacifiste. Le but de la prévention est justement de vérifier avant et pendant s’il n’y a pas un risque qu’une manifestation dégénère en violences.

Il est toutefois exact que les motifs sont globalement plus précis que la “sécurité nationale”. Il est juste dommage que le terme de “sécurité nationale” se retrouve toujours dans les 7 motifs.

7. LES PROCÉDURES D’URGENCE SONT INDISPENSABLES

Comme le dit l’ancien ministre de la défense Hervé Morin, qui doit savoir une chose ou deux des pratiques des services de renseignement, “l’urgence ça s’organise“. Il y a donc un risque réel que des agents ne prétextent une urgence inventée pour mettre quelqu’un sous surveillance pendant au moins 24 heures, le temps qu’un ordre contraire soit donné. Certes, les données devront in fine être supprimées, mais rien n’interdit de les consulter (le contraire serait absurde).

Ceci dit, il est exact qu’il ne faudrait pas pécher par naïveté et croire que les urgences absolues n’existent jamais. A défaut d’être parfaitement blindé contre les risques d’abus, le système est sans doute nécessaire.

8. LES SERVICES DE RENSEIGNEMENT POURRONT AGIR SANS AUTORISATION

Là encore, c’est une question de mots. Oui, il y aura “autorisation”, mais donnée par le Premier ministre, donc par l’Etat à l’Etat. La CNCTR n’aura qu’un avis consultatif et sera limitée dans ses voies de recours par les termes très permissifs de la loi.

9. CERTAINES PROFESSIONS BÉNÉFICIERONT D’UN STATUT PROTECTEUR

Ce n’était pas prévu dans le texte initial, mais cela fait partie des amendements déposés en dernière minute par le Gouvernement, pour tenter d’offrir des gages aux opposants au texte. L‘amendement n°386 dispose que “les techniques de recueil du renseignement (…) ne peuvent être mises en œuvre à l’encontre d’un magistrat, un avocat, un parlementaire, ou un journaliste ou concerner leurs véhicules, bureaux ou domiciles que sur autorisation motivée du Premier ministre prise après avis de la commission réunie“. Il ne s’agit toutefois pas d’un avis impératif, et c’est la CNCTR, dont on a vu que l’indépendance était sujette à caution, qui sera chargée de veiller à la proportionnalité des atteintes à la vie privée autorisées.

Il faut aussi s’interroger sur la protection des blogueurs, qui ne sont pas des dissidents que dans les pays arabes et ces dictatures lointaines. Comme l’avait conseillé la Commission nationale consultative des droits de l’homme, il est essentiel en démocratie d’accorder les mêmes protections aux blogueurs qu’aux journalistes professionnels. Or on ne sait rien de la façon dont le terme “journaliste” sera interprété. Sera-t-il très restrictif (limité aux titulaires des cartes de presse, qui ne sont pas obligatoires), ou très lâche en considérant que quiconque publie des informations sur Internet est un “journaliste” à temps partiel ?

De plus les parlementaires sont protégés, mais pas les élus locaux, qui peuvent eux-aussi faire l’objet de pressions.

10. LA LOI ACTUELLE PROTÈGE MIEUX LES LIBERTÉS INDIVIDUELLES

Faut-il rire ? La loi vise à légaliser des pratiques qui étaient illégales. Par quel tour de passe-passe retirer aux citoyens la possibilité de contester les pratiques de surveillance illégales dont ils auraient pris connaissance devient-elle, dans les mots du Gouvernement, une “meilleure protection des libertés individuelles” ?

11. LA PROCÉDURE ACCÉLÉRÉE NUIT À LA TRANSPARENCE DE L’EXAMEN DU PROJET DE LOI

Celle-ci, il fallait oser la faire. Le Gouvernement explique très naturellement que “la procédure accélérée ne change rien aux travaux parlementaires“. C’est à se demander pourquoi elle existe. En réalité elle prive les députés et les sénateurs du droit de revenir sur les articles ou amendements qu’ils ont adoptés, ou d’en proposer de nouveaux, s’ils n’ont pas eu le temps ou la vigilance suffisantes pour remarquer un problème de la première lecture.

Par ailleurs non seulement le Gouvernement a déclaré la procédure accélérée sur le projet de Loi Renseignement, mais alors qu’il était prêt depuis des mois, il a choisi de ne publier le texte qu’il y a moins d’un mois, le 17 mars. La société civile et les députés ont dû s’organiser dans la précipitation pour prendre connaissance du projet de loi (c’est vrai qu’il ne pèse que 43 pages, et 100 pages si on y ajoute l’étude d’impact), consulter sur ses implications, et proposer des amendements.

Source : Guillaume Champeau, pour Numerama, le 14 avril 2015.


Loi Renseignement : le Gouvernement censure les critiques de sa propagande !

Sur sa page Facebook où il diffuse sa propagande en faveur du projet de loi Renseignement, le Gouvernement censure tout message qui permet aux internautes de prendre connaissance d’arguments contraires.

Drôle d’exercice en démocratie que de faire la propagande de ses projets de loi sur une plateforme censée permettre aux citoyens de répondre au gouvernement, mais de censurer toute réponse qui vient éclairer la réflexion des citoyens. Lundi soir, le service d’information du gouvernement (SIG) qui est chargé d’opérer la communication gouvernementale sur Internet a mis en ligne son Vrai/Faux sur le projet de loi Renseignement, qu’il a immédiatement relayé sur Facebook. Trois médias avaient alors réagi en faisant la contre-analyse de la propagande officielle de Matignon : Le MondeNextinpact et Numerama, qui a publié le Vrai/Faux du Vrai/Faux.

Comme les autres, ce dernier a (merci à vous) beaucoup circulé, y compris jusque sur la page Facebook du Gouvernement. Des citoyens français ont en en effet voulu profiter de l’espace de discussion offert par leur gouvernement pour alerter leurs concitoyens sur le fait que, peut-être, la propagande gouvernementale n’était pas tout à fait exacte.

Mais pour bien démontrer qu’il avait la démocratie en haute estime, le SIG supprime aussi vite que possible tous les liens qui permettent aux internautes d’avoir des explications sur les mensonges ou déformations du Vrai/Faux officiel. C’est en effet un lecteur qui nous a d’abord prévenu sur Twitter. Nous avons voulu vérifier par nous-même ce mercredi midi, à quelques heures de l’adoption par les députés des fameuses et infâmes boîtes noires, et nous avons constaté qu’en quelques minutes, notre message (qui ne faisait pourtant pas mystère qu’il s’agissait d’une vérification de la politique de censure) avait effectivement disparu.

Mise à jour : Et comme souvent, la censure provoque un effet Streisand…

Source : Guillaume Champeau, pour Numerama, le 15 avril 2015.


Censure des critiques : le Gouvernement reconnaît “un dysfonctionnement”

Victime d’un effet Streisand qu’il a lui-même provoqué en censurant sur sa page Facebook toutes les critiques à son projet de loi Renseignement, le Gouvernement a reconnu dans la nuit qu’il avait commis une erreur, et que “cette page est faite pour vous“.

Mercredi, Numerama rapportait que les équipes de communication du Gouvernement avaient décidé de censurer sur leur page Facebook tout message qui présenterait des arguments contre le projet de loi Renseignement, et en particulier tout message conduisant à une analyse contradictoire du Vrai/Faux publié par Matignon. Dès que la manoeuvre fut découverte, la page Facebook s’est retrouvée noyée sous les messages critiques, et est devenue rapidement ingérable pour les modérateurs, illustrant une nouvelle fois le fameux effet Streisand qui accompagne tout effort de censure.

Tard dans la nuit de mercredi à jeudi, au moment-même où les députés adoptaient les boîtes noirestant contestées, le Gouvernement a publié son mot d’excuses, et des promesses de meilleur respect de l’esprit démocratique.

Parlant d’un “dysfonctionnement de notre système de modération“, qu’il faut comprendre comme un dysfonctionnement humain, le Gouvernement reconnaît que “des commentaires n’enfreignant pas notre charte ont été modérés sur la page Facebook du gouvernement“, et affirme que “ce problème est désormais réglé“.

La page du gouvernement est faite pour vous et nous sommes très attachés à ce qu’elle demeure un espace de dialogue constructif et respectueux. C’est justement ce que permet et protège notre politique de modération“, ajoute Matignon.

Selon sa charte, la page Facebook du Gouvernement prévoit que les équipes de modération puissent supprimer sans préavis “tous les commentaires qui ne respecteraient pas les règles de bienséance” énoncées, et “les dispositions légales“. Les règles de bonne conduite sont très classiques, et demandent simplement aux internautes de s’exprimer en français, poliment, de ne pas sortir du sujet commenté, ou encore de ne pas insérer de liens commerciaux ou de “liens inappropriés”.

Avec le message publié cette nuit, le Gouvernement reconnaît fort heureusement que les liens vers des médias offrant aux citoyens les moyens de s’informer ailleurs que sur une Pravda à la mode Facebook sont appropriés.

Source : Guillaume Champeau, pour Numerama, le 16 avril 2015.

Source: http://www.les-crises.fr/loi-de-renseignement-lanalyse-de-numerama/


Une jupe pas très «laïque» provoque l’exclusion d’une collégienne

Monday 4 May 2015 at 00:00

Une élève de Charleville-Mézières a été exclue des cours pour le port d’une jupe considérée comme islamiquement trop visible.

Cela pourrait être une banale histoire d’ourlet. Mais, en ces temps de crispations identitaires, une jupe trop longue a suscité l’effroi dans un collège de Charleville-Mézières (Ardennes) au prétexte de ne pas respecter la laïcité et de contrevenir à la loi de 2004 qui interdit le port de signes religieux ostentatoires à l’école publique. D’après les révélations, mardi matin, du quotidien local l’Ardennais, Sarah, une jeune collégienne de 15 ans, a donc écopé de deux journées d’exclusion, le 16 et le 25 avril, pour le port d’un vêtement trop peu… laïc. «Cette jupe n’a vraiment rien de particulier, elle est toute simple», a déclaré au journal la jeune fille, précisant même qu’elle l’avait achetée 2 euros dans un magasin populaire.

Soutenue par ses parents, Sarah porte le voile depuis un an. Elle l’enlève à son arrivée dans l’établissement scolaire et le remet à la sortie, ce que font généralement les jeunes filles musulmanes pratiquantes. Ce cas de jupe trop longue, et dès lors considérée comme islamiquement trop visible, n’est pas isolé. Porte-parole du Collectif contre l’islamophobie en France (CCIF), Elsa Ray confirme, à Libération, que son association traite en moyenne, chaque année, une centaine de litiges similaires. Sans avancer de chiffre, l’Observatoire de la laïcité affirme aussi qu’un certain nombre de dossiers remonte jusqu’à lui. Récemment, un conflit a éclaté dans un établissement scolaire de Montpellier.

«ON CIBLE EXPRESSÉMENT DES JEUNES FILLES MUSULMANES»

Jusqu’à présent, très peu d’histoires comme celle de Charleville-Mézière ont été médiatisées. En 2011, deux cas avaient cependant défrayé la chronique, l’une au lycée Auguste Blanqui de Saint-Ouen (Seine-Saint-Denis) et l’autre au lycée Jean Jaurès à Châtenay-Malabry (Hauts-de-Seine). Le CCIF affirme qu’il traite, en ce moment, une vingtaine de cas, répertoriés depuis 2015. «Ce qui est scandaleux dans ces affaires, c’est que d’autres élèves portent des jupes longues dans les mêmes établissements, s’insurge Elsa Ray. On cible expressément des jeunes filles musulmanes, identifiées comme telles parce qu’elles portent le voile à l’extérieur de l’école.»

«Le sens de la loi de 2004 peut parfois être mal compris par les uns et les autres, les élèves comme les personnels des établissements scolaires», explique Nicolas Cadène, rapporteur l’Observatoire de la laïcité. Les cas se règlent lorsque les deux parties peuvent s’expliquer ou via des interventions extérieures, plus ou moins fermes, comme celle du CCIF. «Il n’est pas question qu’il y ait une police vestimentaire, poursuit Nicolas Cadène. Ce qu’il faut examiner, c’est le comportement global de l’élève.»

Quoi qu’il en soit, l’affaire de Charleville-Mézière enflamme déjà les réseaux sociaux. En soutien à la collégienne, un hashtag Jeportemajupecommejeveuxa été lancé. Venant après la polémique sur les cantines scolaires, elle risque d’alimenter un climat déjà très lourd et très clivant.

Source : Bernadette Sauvaget, pour Libération, le 28 avril 2015.

P.S. comme il y en a marre des commentaires haineux, ils sont fermés…

Source: http://www.les-crises.fr/une-jupe-pas-tres-laique-provoque-lexclusion-dune-collegienne/


« La Grèce doit sortir de l’euro », selon l’économiste Frédéric Lordon

Sunday 3 May 2015 at 00:30

« La Grèce doit sortir de l’euro », selon l’économiste Frédéric Lordon

« Ce ne sera pas un pique-nique » , mais la Grèce n’a pas d’autre choix que de sortir de l’euro si elle veut rompre avec la politique d’austérité, soutient l’économiste Frédéric Lordon.

L’auteur de « La Malfaçon, monnaie européenne et souveraineté démocratique » était l’invité jeudi 2 avril du collectif Penser l’émancipation, aux côtés de Panagiotis Sotiris, philosophe et dirigeant du Front de la gauche anticapitaliste grec (Antarsya). Dans un exposé drôle et éloquent, il formule une vive critique de la gauche radicale, coupable selon lui d’aveuglement et d’obstination à croire qu’un autre euro est possible. L’euro est un système qui n’offre selon lui que 3 attitudes possibles : « le subir, le fuir ou le détruire ».

Voici la vidéo de son intervention :

Penser l’émancipation est un réseau d’universitaires et d’éditeurs créé pour « renouer avec l’utopie ».

Sur le sujet, voir aussi la vidéo du débat « Faut-il sortir de l’euro » organisé en mai 2014 par Attac autour de Frédéric Lordon, Thomas Coutrot, membre d’Attac France, et Athanase Contargyris, d’Attac Grèce.

Source : Erwan Manac’h, pour Politis, le 6 avril 2015.


Sortir de l’union européenne : pour un internationalisme réel et non imaginaire

Vu sur PCF Bassin

Leçons de Grèce à l’usage d’un internationalisme imaginaire (et en vue d’un internationalisme réel)

Le texte qui suit est une version à peine modifiée de l’intervention au débat organisé par le collectif Penser l’émancipation [1] à l’EHESS, le 2 avril, sur le thème « L’Etat, le capital, l’internationalisme. Leçons de Grèce », en présence de Panagiotis Sotiris, dirigeant d’Antarsya.

Cher Panagiotis, si tu n’étais pas déjà parfaitement au courant de ce qui se passe dans la vie politique française, tu pourrais, tel un Montesquieu contemporain, rentrer chez toi et écrire de nouvelles Lettres Persanes – ou tout simplement des Lettres Hellènes. Tu y raconterais une étrange contrée, la France, où, pour une large part de la gauche se disant radicale, vouloir sortir de l’euro c’est être un fasciste en puissance, réaffirmer le principe de souveraineté démocratique contre les institutions européennes qui nous en infligent le dernier degré de dépossession, c’est être le fourrier du Front National.

Misère du posturalisme

Tu témoignerais ainsi de l’apparition d’un nouveau courant de la gauche radicale, ou de la pensée internationaliste – laquelle, Dieu merci, ne s’y épuise pas – qu’on pourrait nommer le posturalisme. Comme son nom l’indique, le posturalisme a pour unique ressort la recherche des postures – avantageuses il va sans dire, et si possible bon marché, car le posturalisme est aussi régi par un robuste principe d’économie, et cherche la maximisation des bénéfices symboliques par la minimisation de l’effort intellectuel. Il s’ensuit que, de même que l’existentialisme était un humanisme, le posturalisme est un illettrisme – il ne sait pas lire : on peut lui mettre sous le nez autant qu’on veut des textes, des arguments, des mises au point, ça ne passe pas la barrière de la posture. Pour le coup no pasaran ! Mais ce ne sont pas les fascistes qui ne passent pas – avec de pareils opposants, ceux-là ont les meilleures chances de passer, et comme dans du beurre. Non, ce qui ne passe pas, c’est la moindre intelligence dialectique, et le moindre effort d’échapper à une désolante stéréotypie. En tout cas, mon cher Panagiotis, sache-le : tu es un fasciste. Tu veux la restauration de la souveraineté populaire ; constatant son impossibilité dans l’Union européenne, tu veux la sortie de l’euro : tu es un fasciste – je suis bien désolé, mais ici, en ce moment, c’est comme ça.

Évidemment, le problème épineux que tu poses à tous ces gens-là [2], c’est que tu n’es pas un fasciste… Tu plaides pour la souveraineté populaire grecque, tu parles de la sortie de l’euro, mais tu n’es pas un fasciste. Je peux maintenant t’avouer la raison un peu honteuse pour laquelle je suis vraiment content d’avoir ce débat ici avec toi : tu vas me servir de bouclier humain. Car il ferait beau voir que les pitres posturalistes viennent te dire à toi, toi qui arrives d’un pays en état de persécution économique, d’un pays humilié et mis en situation de crise humanitaire par notre belle Europe, que parce que tu veux en finir avec cela, parce que tu n’as pas la patience d’attendre qu’un autre euro soit possible, que l’Union européenne devienne progressiste et que les autres peuples européens enfin soulevés entrent dans les institutions bruxelloises, bref parce que tu n’as pas le goût d’attendre l’été à Noël, tu es un fasciste. Vraiment je voudrais les voir ces gens-là, ces professionnels du pharisaïsme, venir te dire en te regardant dans les yeux que vous êtes des fascistes, toi, Kouvelakis, Lapavitsas et tant d’autres.

Tu mesures ici le degré de dégradation du débat intellectuel à gauche en France où, pour contrer ce torrent de bêtise, et parfois d’ignominie, qui renvoie spontanément au fascisme toute évocation de souveraineté populaire, toute perspective de se soustraire à la construction européenne qui la fait périr, pour contrer tout cela donc, il n’y a plus que le recours à des boucliers humains… Faute que toute argumentation rationnelle soit permise, il ne reste plus que la solution de présenter des personnes. Des personnes dont il est une évidence incontestable qu’elles sont au dessus de tout soupçon. Autant te le dire, je ne me résous à ce procédé que la mort dans l’âme, avec vergogne, et accablement. Mais c’est qu’on ne sait plus quoi faire pour tirer cette partie-là de la gauche de son sommeil dogmatique, lui faire voir enfin ce qu’elle refuse de voir depuis tant d’années, et qu’il devrait maintenant lui être impossible de ne pas voir à la lumière des deux premiers mois de Syriza : non, un autre euro n’est pas possible. Si bien que les termes de l’alternative sont posés avec une rude clarté : ou bien sortir, pour enfin tenter de faire autre chose, prendre le risque d’essayer, car essayer, c’est cela le propre de la souveraineté démocratique ; ou bien continuer de crever à petit feu mais d’une mort en fait porteuse des pires renaissances qui soient : les renaissances fascistes, mais les vraies !, pas celles dont accusent les posturalistes pour mieux mettre en scène leur propre vertu – et c’est peu dire qu’en Grèce ces renaissances-là vous concernent de très près.

On se demande alors par quel comble de cécité dogmatique on pourrait vous faire le reproche de tout essayer – oui, unilatéralement, c’est-à-dire nationalement ! – pour vous soustraire à cette perspective mortifère. Et il faut vraiment avoir l’internationalisme sens dessus dessous pour s’acharner à préserver le fétiche d’une monnaie européenne au prix de la mort de toute possibilité de démocratie – on notera au passage cette cruelle ironie qu’une fraction d’un internationalisme se disant de gauche se voue désormais à la cause d’une monnaie… On savait que les passions aveugles pouvaient être au principe d’investissements aberrants, mais tout de même pas à ce point.

Les autocensures de Syriza

Ceci étant dit, et maintenant à propos de la situation en Grèce, on hésite à tomber trop rudement sur Tsipras et Varoufakis, dont on se sent spontanément solidaire en face de la brutalité ouverte, et même du désir d’humiliation, qui transpirent de l’Eurogroupe, pour qui le véritable enjeu est de faire un exemple, en faisant mordre la poussière à toute expérience de gauche un peu radicale. Mais enfin il y a des questions politiques que la sympathie ne peut tout de même pas empêcher de poser. Car, si l’on pouvait difficilement rester insensible à l’arrivée au pouvoir du premier gouvernement vraiment de gauche en Europe depuis… on ne sait même plus dire combien de temps, on pouvait tout aussi bien, et non contradictoirement, dégriser par anticipation les attentes excessives, et avertir, avant même l’élection, de l’échec programmé d’une entreprise de renégociation qui, refusant par principe toute sortie de l’euro, s’est d’emblée privée de tout levier stratégique [3].

Il faudrait alors s’interroger longuement sur cette autocensure aberrante, dont on peut d’ailleurs tirer des interprétations, et partant des conclusions, assez différentes.

La première considère que la défaite en rase campagne de Tsipras était inscrite dans la trajectoire même de Syriza qui perdait de fait toute latitude politique à partir du moment où elle décidait d’emprunter sagement la voie parlementaire. Car, on le sait, c’est là un jeu dont la grammaire institutionnelle entame d’emblée toute possibilité de rupture véritable. Comment viser le succès électoral, qui plus est en milieu médiatique hostile, sans nécessairement sacrifier en radicalité, et sans devoir repiquer à quelque degré vers le centre – en l’occurrence il s’agissait de ratisser les gros bataillons du Pasok en débandade. Or, comme souvent, soit une trajectoire politique sélectionne les leaders qui lui sont le plus adéquats, soit elle refaçonne ses leaders en cours de route pour produire cette adéquation. En tout cas, en l’état actuel des choses, il semble évident – on serait presque tenté de dire : malheureusement – qu’il n’y avait pas le moindre cynisme manœuvrier dans l’esprit de Tsipras qui, réellement, voulait, et voudrait encore, et le maintien dans l’euro et la fin de l’austérité – c’est-à-dire un cercle carré.

Dans cette première interprétation donc, c’est la logique même du parlementarisme qui produit la réduction et l’autocensure – ce que la possible arrivée de Podemos au pouvoir en Espagne à l’automne prochain devrait donner l’occasion de revérifier. Dans ces conditions en tout cas, et presque tautologiquement, toute tentative d’échapper à cette normalisation suppose de contourner l’instance normalisatrice : contre la voie parlementaire donc, la voie insurrectionnelle.

La deuxième lecture possible est moins radicale. Elle part de l’idée d’un étagement des ambitions politiques. Le renversement du capitalisme est-il à l’ordre du jour ? Rien de moins certain… En attendant, n’y a-t-il vraiment rien de significatif qui puisse être fait ? Evidemment si. Quand bien même toujours dans le capitalisme, la sortie de l’état de persécution économique, c’est déjà quelque chose ! Or, vu de loin, on ne peut s’empêcher de penser qu’il n’aurait pas fallu grand-chose pour que la trajectoire, même parlementaire, de Syriza soit assez différente. Par exemple : l’argument des sondages indiquant une préférence majoritaire pour le maintien dans l’euro n’est d’aucune valeur politique. Si la loi de Say est inepte en économie, en politique l’offre peut sinon faire complètement la demande, du moins contribuer assez largement à la façonner. En deux ans et demi, Syriza aurait pu engager son capital politique et symbolique pour installer la sortie de l’euro dans le paysage des options disponibles. Et surtout pour en faire une menace de dernier recours, dont la fermeté d’ailleurs aurait contribué, par effet rétrograde, à crédibiliser la position grecque dans toutes les étapes de la montée en tension avec les institutions européennes. Or si l’on en croit les récits qui en ont été faits, la négociation semble avoir vu la partie grecque redouter la sortie de l’euro bien plus que le camp d’en face ! – inutile de dire que, dans ces conditions, l’affaire était pliée avant même d’avoir commencé…

Impuissance de l’internationalisme imaginaire

L’est-elle définitivement ? Les trois mois qui nous séparent de la renégociation de juin pourraient-ils faire ce qui n’a pas été fait en deux ans et demi ? Tel est bien l’enjeu stratégique d’une fenêtre historique qui ne se rouvrira pas de sitôt – et ceci à moins qu’un accident financier intermédiaire d’ici juin, dont la probabilité va d’ailleurs croissant chaque jour, ne vienne décider d’une issue dont Tsipras n’aura pas voulu décider lui-même. En tout cas, si la gauche critique européenne, et surtout française, avait deux sous de pertinence, elle prendrait d’abord la mesure de l’abyssale erreur qui aura consisté à rêver pouvoir changer les institutions européennes de l’intérieur. Et puis elle en tirerait quelques leçons élémentaires.

Premièrement, ces institutions ne laissent que le choix d’être souffertes, ou détruites, ou quittées – et rien d’autre.

Deuxièmement, la tâche des trois mois qui viennent est idéologique : il s’agit de peser sur la courte majorité interne de Syriza pour l’amener à cette idée qu’elle n’évitera la défaite historique, totale, et définitive, qu’en préparant dès maintenant, politiquement et matériellement, la sortie de l’euro, c’est-à-dire la reprise en mains par le pays de son propre destin, en rejetant catégoriquement tout ce qui l’en dépossède.

Et, ce faisant, en devenant un exemple pour tous les autres peuples européens – car c’est cela le commencement de l’internationalisme réel, de l’internationalisme concret. Malheureusement, le jacquattalisme, cette doctrine qui pose que puisque les problèmes sont mondiaux, les solutions doivent l’être également, est un schème mental dont l’emprise s’étend bien au-delà des secteurs néolibéraux où il a d’abord été formé. La social-démocratie molle de l’impôt mondial, par exemple, en est une parfaite représentante. Mais tout autant, et pour le coup le paradoxe est plus cruel, une certaine forme d’internationalisme révolutionnaire qui condamne d’emblée toute tentative dans un seul pays, et préfère attendre l’arme au pied la synchronisation planétaire de toutes les révoltes avant d’envisager quoi que ce soit.

Au moins les grands libéraux, qui ont assez souvent l’intelligence du cynisme, doivent-ils bien rire quand ils ont réussi à faire avaler à quelques gogos sociaux-démocrates que pour résoudre les problèmes de la mondialisation, il suffit d’attendre la mondialisation des solutions. Jacques Attali nous annonce ainsi régulièrement l’avènement du gouvernement mondial qui viendra réguler les petits excès de la finance, du libre-échange, etc., un message sans doute plein d’espoir, mais dont l’implicite est tout de même qu’il faut nous faire à l’idée de l’avoir profond encore un moment.

Le cas de cet internationalisme révolutionnaire auquel je pense est plus grave : il a lui-même tamponné son propre passeport pour l’impuissance. Car quoique procédant d’intentions diamétralement opposées à celles du jacquattalisme princeps, là aussi il va falloir attendre un moment, si bien que l’un et l’autre, aussi antithétiques soient-ils par ailleurs, ont formellement en commun d’être de longues patiences de la convergence mondiale.

En réalité les actions révolutionnaires concrètes se moquent bien de ces présupposés dogmatiques. La plupart du temps, elles naissent sans avoir demandé l’autorisation ni des révolutionnaires professionnels ni des intellectuels internationalistes. Elles naissent localement, c’est-à-dire nationalement, et pour une raison toute simple, et entièrement pratique : sauf aux yeux des activistes polyglottes à plein temps, cette internationale étroite du capital culturel voyageur, le renversement d’un ordre institutionnel demande un intense travail de préparation du terrain et une densité d’interactions politiques – débats, réunions, rencontres, actions – qui, en pratique, ne se rencontrent que dans un cadre local, national – dont la première caractéristique est tout de même d’offrir une communauté linguistique, c’est-à-dire la communauté de débat politique la plus simplement accessible…

Pour un internationalisme réel

C’est en général le moment où de pénétrants esprits viennent expliquer que « le national n’étant pas international, la révolution va se trahir à s’enfermer derrière de hauts murs », etc. Il faudrait, par exemple, reprendre l’histoire de la Commune pour faire litière de ce genre d’imbécillités. Et je voudrais pour ce faire m’aider du livre passionnant de Kristin Ross [4], même s’il me semble montrer une Commune reconstruite qui n’est pas exactement la Commune réelle. Car la Commune n’est pas d’abord une insurrection internationaliste. Elle commence même comme un soulèvement en grande partie patriotique-national. Mais le propre de ce processus qu’est la Commune, c’est qu’il va modifier sa nature dans le cours même de son effectuation. En chemin, la Commune liquide la part patriotique de ses commencements pour devenir intégralement une révolution sociale à portée universelle. D’une certaine manière Kristin Ross se fait alors à elle-même sa meilleure objection au travers de son évocation d’Elisée Reclus, dont je crois qu’on pourrait faire un personnage représentatif : à l’origine partisan classique de la République classique, la République républicaine si l’on veut, Elisée Reclus est dégoûté par la trahison des républicains de cette farine et devient un militant de la République universelle — comme un témoignage en personne de la nature évolutive du processus auquel il participe.

Mais jusqu’où pouvait-elle aller, en pratique, cette République universelle ? Commencée sur une base nationale, et même locale, mais dépassant le localisme de ses origines, elle attire à elle, de toute l’Europe, des individus qui perçoivent distinctement que « Français » n’est pas la qualité pertinente pour se sentir concerné par ce qui est en train de se passer, et pour avoir envie de s’y joindre activement. Cependant, si la Commune, en son devenir, acquiert l’essence d’une insurrection internationaliste, en pratique elle ne l’est que marginalement au-dedans – et au dehors pas du tout. Elle reste une insurrection dans un seul pays. Elle s’est déclenchée dans un seul pays, et a lutté dans un seul pays – sans attendre ! il est vrai qu’à cette époque, l’internationalisme n’a pas encore pris sa forme et son impuissance dogmatiques.

Quelles seraient alors les coordonnées d’un internationalisme bien compris, d’un internationalisme qui serait moins rêvé que réel ? Par exemple celles-ci :

1. Tout ce qui vient décentrer les individus de leur particularisme national est bon à prendre. Dans ce « bon à prendre », le meilleur est à trouver dans les luttes d’émancipation anti-capitalistes et dans tout ce qui, oui, les intensifie par le tissage de leurs solidarités internationales.

2. Les soulèvements n’en naissent pas moins localement, dans des milieux nationaux, parce que ce sont les plus à mêmes de voir l’activité politique passer ses seuils de densité critique.

3. Il n’en est pas moins vrai qu’il n’est de révolution progressiste qu’à visée universelle, donc comme adresse à l’humanité générique, donc internationaliste par destination. Une telle adresse est par soi un appel à tous ceux qui s’y reconnaitront, sans égard pour leur appartenance nationale.

4. Mais dans quelle mesure cet appel sera-t-il entendu ? Combien de non-nationaux rejoindront-ils effectivement l’action révolutionnaire là où elle vient de naître ? C’est une question dont la réponse est largement indéterminée a priori. Mais enfin il serait prudent à son propos de ne pas trop se raconter d’histoires…

5. A défaut, combien d’autres pays emboîteront ils le pas à celui qui a montré la voie ? On ne sait pas davantage. On sait cependant qu’il y a peu de chance que le mûrissement des conjonctures nationales soit synchronisé.

6. Le pays qui s’est engagé en premier ferait-il alors mieux d’attendre la Grande Coordination Internationaliste ? A ce compte-là, il ne se produira jamais rien, nulle part. Heureusement, dans le pays où ça se passe, les gens s’en foutent. En réalité, ils ne se posent même pas la question.

Souveraineté et autoposition

Rendu en ce point la question du national et de l’internationalisme vient inévitablement se nouer à celle de la souveraineté. Et là encore au risque des mêmes réflexes sans réflexion, puisque le posturalisme tient beaucoup à établir, comme il se doit, que souveraineté = fascisme. Si c’est une entreprise sans espoir que d’expliquer aux esprits les plus bornés la profonde inanité de ce court-circuit – au regard même des idées qu’ils disent pourtant défendre ! –, la question est d’intérêt suffisamment général pour mériter d’y revenir. Et d’abord en rappelant que, dans son concept pur, la souveraineté n’est pas autre chose qu’un décider en commun. Poser que nous décidons en commun, c’est faire déclaration de notre être souverain, c’est donner une réalisation au principe de souveraineté – on se demande bien d’ailleurs quelle conception alternative de la politique on pourrait opposer à celle-là ; s’il s’en fait connaître une on aimerait vraiment en découvrir les termes…

En tout cas il faut partir de cette prémisse pour comprendre que, dans son concept, la question de la souveraineté n’est pas la question nationale – même si, à l’évidence, c’est aujourd’hui l’Etat-nation qui est la forme historique dominante de réalisation du principe.

Conceptuellement parlant donc, la question de la souveraineté n’est pas la question nationale, ou alors sous une redéfinition – mais tautologique – de la nation, précisément comme la communauté souveraine. Tautologie très productive en fait puisque elle nous conduit, entre autres, à une redéfinition contributive de la nation. Qu’est-ce que la nation dans ces nouvelles coordonnées ? C’est une collectivité régie, non par un principe d’appartenance substantielle, mais par un principe de participation – de participation à une forme de vie. Dans ces conditions, la souveraineté ne se définit pas par une identité collective pré-existante, mais par la position commune d’objectifs politiques. C’est cette affirmation de principes, qui est en soi affirmation d’une forme de vie, qui fait la communauté autour de soi, c’est-à-dire qui invite tous ceux qui s’y reconnaissent à la rejoindre – et à y contribuer : à y appartenir en y contribuant.

Mais il ne faut pas s’y tromper : ceci reconstituera un groupe fini. Et même un groupe fermé ! Fermé à tous ceux qui n’adhèrent pas à cette forme de vie. Un reportage récent sur la communauté Longo Maï [5] ramène une parole très caractéristique, et même hautement symptomatique : « ici, c’est pas pour tout le monde », déclare un membre de la communauté. On pourrait, on devrait même, s’étonner de ce qui ne peut être lu autrement que comme une parole d’exclusion. Mais, d’un certain point de vue, une parole d’exclusion légitime, relativement à l’affirmation de cette forme de vie. Qui se révèle ici, par soi, un principe de clôture, au moins relative.

On pourrait considérer également le Chiapas comme très représentatif de cette logique : le Chiapas est une nation. Mais une nation qui a dépassé l’indigénat des origines pour se porter au stade du pour-soi, une nation consciente et conscientisée par la position explicite – c’est-à-dire souveraine – de ses principes politiques, qui, en tant que tels, débordent les anciennes nations, les nations de l’en-soi, simplement consolidées dans et par l’imaginaire substantialiste des origines.

Rien de ceci, donc, n’abolit ni la nation, ni l’appartenance, mais en produit un profond remaniement. Un remaniement qui est un progrès en raison, puisqu’il exprime une plus grande conscience, un affranchissement des emprises passionnelles imaginaires, celles des passés mythiques et mythiquement reconstruits, à quoi va venir se substituer un supplément d’auto-position réfléchie. Non pas la nation substance : la nation politique.

Si donc on veut bien se donner la peine d’y réfléchir deux secondes, la souveraineté, c’est cela ! Évidemment les situations historiques réelles ne nous donnent jamais à voir les concepts sous leur forme pure – les concepts ne se donnent à voir que sous l’altération de leurs réalisations historiques concrètes. Au demeurant, le paysage de la souveraineté est toujours fragmenté et multiscalaire : il y a de la souveraineté partielle à toutes les échelles, et à des degrés variables. Le cas de la Grèce, sous ce rapport, est typique, et ceci d’autant plus que la destruction de l’État social a conduit à une multitude d’initiatives locales d’auto-réorganisation : cantines communes, jardins collectifs, dispensaires autogérés, etc. – la souveraineté, c’est aussi cela.

Mais ça n’est pas que cela… et ça ne peut pas l’être. Car il y aura nécessairement une composition de toutes les souverainetés locales et partielles en une totalité souveraine de rang supérieur, qui en l’occurrence s’appelle la Grèce. Sans doute la souveraineté grecque, comme celle de tous les autres pays en fait, reste-t-elle marquée par la forme nationale classique, avec tous ses reliquats d’imaginaire substantialiste. Mais l’épreuve de la crise en a aussi indiscutablement augmenté la teneur d’autoposition politique – le clair rejet de l’austérité européenne, c’est bien une affirmation positive de souveraineté !

Non pas la communauté substantielle

Décidément la Grèce d’aujourd’hui est un laboratoire. Un laboratoire de pratiques, mais aussi, du point de vue de l’analyse, une sorte de bain photographique, un révélateur qui éclaire les pensées, et surtout les impensés de la gauche radicale. Que nous montre en effet la Grèce – et ceci par-delà même toutes les probabilités d’échec du processus initialement rêvé par Syriza ? Quel spectacle la Grèce nous offre-t-elle qui devrait quand même donner un peu à penser aux militants de l’altereuropéisme et de l’internationalisme imaginaire ?

La Grèce nous montre d’abord que l’Union européenne a maintenant acquis la seconde nature d’une entité entièrement et irrémédiablement néolibérale, et qu’on ne lui fera passer cette seconde nature qu’en la faisant passer elle-même de vie à trépas – je redis les termes de l’alternative : la souffrir, la détruire, ou la fuir. En attendant, cette Union européenne, elle, est bien décidée à faire la peau à toute expérience qui la contredirait – terrible leçon de choses tout de même pour tous les naïfs qui rêvaient d’une transformation de l’euro de l’intérieur et par la force de la démocratie.

La Grèce nous montre cela, mais elle nous montre surtout autre chose. Elle nous montre un corps politique qui, de son propre mouvement, y va tout seul. Un corps politique, de son propre mouvement : c’est la souveraineté. Qui y va tout seul : en l’occurrence, et contrairement aux apparences, c’est l’internationalisme réel, puisqu’il est évident que ce qui se passe en Grèce a une portée largement extranationale : ce qui se passe en Grèce nous concerne, nous requiert, et devrait nous induire – c’est cela l’internationalisme concret.

Si donc la vraie gauche voulait un instant se défaire de ses fétiches intellectuels (dans le meilleur des cas) et de ses postures avantageuses (dans le pire), elle s’interrogerait elle-même sur cette bizarrerie qui l’a conduite à la célébration d’une forme d’internationalisme qui n’existe pas et à la détestation d’une souveraineté qui elle existe – et la concerne très directement : la souveraineté du « décider en commun », constitutive et institutrice d’une forme de vie, dont la définition, proprement politique, ne fait pas acception des nations présentes… et ceci quoique elle naîtra nécessairement des nations présentes, mais, plus encore, quoique elle ne fera pas autre chose que donner une nouvelle forme historique à la nation, non pas la forme de la communauté substantielle, mais la forme de l’autoposition consciente, c’est-à-dire la forme de la nation proprement politique, cette forme qui fraye péniblement ses voies dans l’histoire depuis maintenant deux siècles, la nation de la Convention, la nation de Robespierre si l’on veut, qui, ouverte à tous les vents, n’avait pourtant pas peur de s’appeler « nation », et n’en pas moins été un moment historique de l’émancipation. Encore un effort donc : un autre internationalisme est possible !

Source : Comité Valmy, pour Réveil Commununiste, le 9 avril 2015.

Notes

[1] Mes remerciements vont en particulier à Stella Magliani-Belkacem et Félix Boggio-Ewanjée-Epée pour l’organisation de ce débat. En vidéo ci-dessous :

[2] Il devrait être inutile de préciser que la controverse de l’internationalisme a en soi toute sa légitimité. C’est à certaines manières de la conduire qu’on pense ici. En toute rigueur, il faudrait citer et dire qui l’on vise. Mais on ne se résout pas à apporter quelque supplément publicitaire à des entreprises posturales qui pratiquent déjà essentiellement le vertuisme publicitaire. Et dont certaines n’attendent des polémiques que les bénéfices publicitaires.

[3] Voir « L’alternative de Syriza : passer sous la table ou la renverser », La Pompe à Phynance, Le Monde Diplomatique, 17 janvier 2015.

[4] Kristin Ross, L’imaginaire de la Commune, La Fabrique, 2015.

[5] Jade Lindgaard, « La ferme des radicaux », Mediapart, 26 février 2015.

Source: http://www.les-crises.fr/la-grece-doit-sortir-de-leuro-selon-leconomiste-frederic-lordon/


Revue de Loi sur le renseignement du 03/05/2015

Sunday 3 May 2015 at 00:18

Aujourd’hui, une nouvelle revue sur la loi sur le renseignement en commençant si nécessaire par un petit rattrapage, puis le retour d’une ministre dont on notait la semaine dernière l’absence sur le sujet, alors que l’on distingue le fond de la loi de ses prétextes, et, pour finir, quelques analyses avec hauteur du démographe Nicolas Bourgoin. Merci à Didier Arnaud pour sa veille active sur le sujet.

Source: http://www.les-crises.fr/revue-de-loi-sur-le-renseignement-du-03052015/


Revue de presse du 02/05/2015

Saturday 2 May 2015 at 04:33

Cette semaine dans la revue, des thèmes Economie, Réflexion et Société particulièrement bien achalandés ; Google, l’Allemagne et les interventionnistes – ces amis qui vous veulent du bien ; et une bonne nouvelle “modérons les Charlie” de chez Bombardier. Merci à nos contributeurs.

Source: http://www.les-crises.fr/revue-de-presse-du-02-05-2015/


Le climat de la France au 21è siècle : actualisation des projections

Saturday 2 May 2015 at 03:00

Le volume 4 du rapport “Le climat de la France au 21è siècle” a été rendu public, le 6 septembre 2014. Ce document propose une « synthèse approfondie sur les scénarios de référence à considérer pour la mise en œuvre du plan national d’adaptation français au changement climatique ». Il a été établi dans le cadre de la mission confiée par le Ministère de l’Ecologie, du Développement durable et de l’énergie à Jean Jouzel, en juillet 2010.

Crédits photo : Serge Zastavkin_Fotolia

Le rapport « Le climat de la France au 21e siècle »

Cet ouvrage a pour but de présenter les changements climatiques futurs en France jusqu’en 2100.” Il vise à présenter les changements climatiques futurs à l’échelle de la France, simulés à partir de deux modèles climatiques régionaux mis en œuvre par le CNRM (Centre National de Recherches Météorologiques de Météo-France) et l’IPSL (Institut Pierre Simon Laplace) en collaboration avec l’INERIS (Institut National de l’Environnement Industriel et des Risques).

Le Volume 4 du rapport « Scénarios régionalisés – Editions 2014 pour la métropole et les régions d’outre-mer »

Contrairement aux volumes précédents, ce rapport ne rassemble pas les indices de températures, précipitations et vent de manière exhaustive, car ces derniers sont mis à disposition sur le portail DRIAS. Suite au projet GICC DRIAS, ce portail met à disposition des utilisateurs, des projections climatiques régionalisées sous différentes formes que ce soit des données corrigées (avec les observations), des indices ou encore des représentations cartographiques. Le présent document est destiné à fournir un accompagnement à l’analyse et l’interprétation de ces données.

Une autre nouveauté importante est que les scénarios climatiques de référence ne sont plus fondés sur les scénarios d’émissions de gaz à effet de serre dits SRES (Special Report on Emissions Scenarios) comme dans les précédents rapports, mais sur les nouveaux scénarios RCP (Representative Concentration Pathway), en cohérence avec le 5e rapport d’évaluation du GIEC.

Une fine résolution horizontale est adoptée dans les simulations, nécessaire pour la régionalisation des projections, en lien avec les processus de petite échelle liés à l’orographie notamment. Pour la première fois, des projections climatiques à résolution aussi fine ont aussi été produites pour les régions d’outre-mer.

Ce rapport propose aussi une nouvelle représentation des incertitudes autour des projections climatiques des deux modèles climatiques régionaux. On s’attache ici à prendre en compte l’incertitude liée au choix des modèles via une analyse multi-modèle (voir la partie 2.3).

Les analyses sont présentées sous forme de séries temporelles, pour les saisons hivernale et estivale, en moyenne sur la France métropolitaine dans un premier temps, pour la température et les précipitations, associées à des tableaux récapitulant les valeurs d’incertitudes liées à la modélisation climatique. Nous présentons également des cartes d’indices d’extrêmes calculés à partir des données corrigées de température et de précipitations. Dans un second temps, nous nous penchons sur le changement climatique dans les régions d’outre-mer, en terme de température et précipitations moyennes, et nous nous appuyons sur l’expertise du GIEC pour analyser l’impact du changement climatique sur l’activité cyclonique.

Découvrir la version complète du rapport

Les principales conclusions du volume 4 sont les suivantes :

A l’horizon proche (2021-2050), le rapport montre (pour la métropole) :

A l’horizon plus lointain (2071-2100), le rapport indique :

Concernant les régions d’outre-mer :

Découvrir la version complète du rapport

Source : Ministère de l’Ecologie, du Développement Durable et de l’Energie, le 4 septembre 2014.

======================================

Le climat de la France au XXIe siècle vol 5 publié par les-crises

======================================

Volumes à télécharger :

Source: http://www.les-crises.fr/le-climat-de-la-france-au-21e-siecle-actualisation-des-projections/


L’UPR appelle les députés à “censurer” le gouvernement français au sujet de son aide à l’Ukraine (+ Le Pen)

Saturday 2 May 2015 at 01:12

Heureuse initiative de l’UPR que je reproduis

(pour les trolls groupies essayant de poster plusieurs fois par jour sur ce parti en commentaire sur ce blog, pour une fois vous pourrez donner libre court à votre prosélytisme dans les commentaires de ce billet…  :) )

Communiqué de presse

Pravy-Sektor-upr

L’UPR APPELLE TOUS LES DÉPUTÉS À DÉPOSER IMMÉDIATEMENT UNE MOTION DE CENSURE CONTRE LE GOUVERNEMENT FRANÇAIS QUI FINANCE – VIA SES VERSEMENTS À L’UE – LE GOUVERNEMENT UKRAINIEN QUI EMBAUCHE, ARME ET FINANCE LES MILICES NÉO-NAZIES.

Dmitriy Yarosh, 43 ans, chef de Pravy Sektor, groupe néo-nazi paramilitaire dont des membres combattent aux côtés de l’armée ukrainienne dans l’Est séparatiste pro-russe et ont commis d’innombrables exactions, a été nommé lundi 6 avril conseiller du chef de l’état-major de l’armée ukrainienne Viktor Moujenko (http://www.lemonde.fr/europe/article/2015/04/06/ukraine-le-leader-ultranationaliste-dmytro-iaroch-nomme-au-ministere-de-la-defense_4610275_3214.html).

Selon le porte-parole de l’armée, Oleksii Mazepa, «Dmitriy Yarosh jouera le rôle de médiateur entre les bataillons de volontaires et l’état-major. Nous voulons être unis face à l’ennemi et notre objectif est la coopération et l’intégration des bataillons de volontaires au sein des forces armées. »

Un porte-parole de Dmitriy Yarosh a expliqué que sa milice paramilitaire néo-nazie Pravy Sektor resterait une structure « autonome » mais serait désormais « financée par le ministère de la défense » en précisant : « nos combattants seront désormais bien armés. Jusqu’à présent, c’était des volontaires qui nous fournissaient des équipements ».

L’UPR rappelle :

L’UPR rappelle également :

Pour l’ensemble de ces faits proprement ahurissants, l’Union Populaire Républicaine (UPR) appelle solennellement tous les députés français à déposer immédiatement une motion de censure du gouvernement français et de censurer le gouvernement de Manuel Valls.

L’UPR rendra publique la liste des députés qui lui auront répondu, ainsi que le contenu de leur réponse.

L’UPR rendra également publique la liste des députés qui auront gardé le silence face à notre demande et qui auront ainsi laissé faire cette forfaiture qui entraîne la France dans des alliances scandaleuses et dans le risque d’une escalade sans précédent vers un conflit avec la Russie,  2e puissance nucléaire mondiale.

Source : Union Populaire Républicaine, le 7 avril 2015.

====================================================

Les américains promeuvent leur marionnette « Marine Le Pen adoubée par les américains » lors du gala du magazine Time à New York

marine-le-pen-time-fnumps

Mme Le Pen s’était déjà rendue aux États-Unis en décembre 2011, dans le but de montrer patte blanche avant de se présenter à l’élection présidentielle de 2012.

Depuis lors, l’héritière de la SARL LE PEN a donné tous les gages de soumission à Washington. En particulier :

a)- le refus délibéré et constant du FN d’expliquer ce qui se cache derrière la construction européenne, qui en fut à l’origine et dans quels buts ;

b)- le refus non moins délibéré et constant de Mme Le Pen et du FN de proposer aux Français de sortir de l’UE et de l’euro, et d’expliquer en quoi consiste précisément l’article 50 du traité sur l’Union européenne (TUE) qui le permet ; (cf. https://www.upr.fr/dossiers-de-fond/fn-propose-pas-reellement-faire-sortir-france-lunion-europeenne-meme-leuro )

c)- le refus toujours délibéré et constant de Mme Le Pen et du FN de proposer aux Français de sortir de l’OTAN, et d’expliquer en quoi consiste précisément l’article 13 du traité de l’Atlantique nord qui le permet ;

d)- la focalisation permanente de Mme Le Pen et du FN sur la lutte contre le « terrorisme islamique » et sur l’islam, afin de satisfaire pleinement à la vision washingtonienne du « Choc des civilisations » ;

e)- de façon générale, la très grande discrétion – pour ne pas dire le silence complice – de Mme Le Pen et du FN sur le TAFTA et sur les dérives dictatoriales de la classe dirigeante des États-Unis dans tous les domaines.

Dans ces conditions, on comprend que Mme Le Pen soit promue de façon massive et éhontée, depuis son voyage de décembre 2011, par tous les grands médias français fidèles à la géopolitique euro-atlantiste. ( http://www.upr.fr/actualite/france/temps-de-parole-dans-les-medias-fn-surrepresentes-sur-les-chaines-dinformation-en-continu )

Et l’on n’est pas surpris de voir que l’héritière de la SARL LE PEN vient d’avoir droit à ce que le Figaro appelle « son festival de Cannes à elle » : le tapis rouge a été déroulé pour elle au fameux Lincoln Center, l’un des endroits les plus huppés du monde de la finance et des affaires new-yorkais, où se tenait le très chic « Gala annuel » de Time Magazine censé couronner « les cent personnalités les plus influentes du monde ». .

Pendant cinq minutes, selon Europe 1, Mme Le Pen a pris la pause devant les photographes américains, en robe de cocktail bleu pétrole, accompagnée de son compagnon Louis Aliot, le vice-président du FN, en smoking pour l’occasion.

[ source : http://www.lefigaro.fr/politique/2015/04/22/01002-20150422ARTFIG00015-marine-le-pen-adoubee-par-les-americains.php ]

CONCLUSION

Cette mise en scène hollywoodienne et l’adoubement anglo-saxon de la prétendue « nouvelle Jeanne d’Arc » est aussi risible que pathétique.

Tout cela n’étonnera aucun de nos lecteurs qui savent que le FN n’est qu’un leurre et que la pseudo « opposante » au Système en est en réalité la dernière roue de secours ( http://www.upr.fr/communiques-de-presse/gouvernement-aux-abois-fait-nouveau-promotion-du-fn )

Ce sketch avilissant fait penser à l’analyse percutante, et toujours d’actualité, que Charles de Gaulle faisait de la politique des dirigeants américains vis-à-vis des autres pays du monde :

« Roosevelt était un type qui voulait dominer l’univers et, bien entendu, décider du sort de la France. Alors, de Gaulle, ça l’embêtait ; il ne le trouvait pas assez souple. […] La politique de Roosevelt, c’était exactement celle qu’ont aujourd’hui les Américains dans le Sud-Est asiatique. Ils ne peuvent pas en imaginer d’autres. DES MARIONNETTES, C’EST ÇA QU’ILS VEULENT EN FACE D’EUX. »

[ Source : Charles de Gaulle, Salon doré, 17 juin 1964, cité par Alain Peyrefitte dans « C’était de Gaulle », Fayard, 1997, T.II, pages 52 et 54.]

De Gaulle avait tout compris. L’élite de la banque, des affaires et des médias américains vient de convoquer l’héritière de la SARL LE PEN au Gala new-yorkais de Time pour exhiber leur marionnette.

François Asselineau, 23 avril 2015 

Source: http://www.les-crises.fr/lupr-appelle-les-deputes-a-censurer-le-gouvernement-francais-au-sujet-de-son-aide-a-lukraine/


Un réchauffement climatique plus rapide que prévu après une pause de plusieurs années…

Friday 1 May 2015 at 02:20

Quelques enseignements du « hiatus » dans le réchauffement climatique

Pourquoi le réchauffement atmosphérique global a-t-il ralenti de 1998 à 2012 ? Cette question, discutée à l’issue de la publication du 5e rapport du GIEC, a été récemment revisitée par les chercheurs du Centre national de recherches météorologiques – Groupe d’étude de l’atmosphère météorologique (Météo-France/CNRS). Les résultats confirment que la variabilité naturelle du Pacifique tropical joue un rôle majeur dans le ralentissement du réchauffement, mais relancent également le débat sur l’existence d’autres contributions et sur la manière d’évaluer la sensibilité des modèles aux forçages anthropiques. Ils impliquent par ailleurs une prochaine ré-accélération du réchauffement global. Ces travaux ont été publiés en ligne sur le site de Geophysical Research Letters le 16 février 2015.

L’accumulation de gaz à effet de serre dans l’atmosphère provoque depuis la fin du 19e siècle un réchauffement global du système Terre, dont les mesures de température de l’air en surface restent l’un des indicateurs privilégiés au vu de la couverture spatio-temporelle et de la relative précision des instruments utilisés. Ces observations ont toutefois montré un net ralentissement du réchauffement global de 1998 à 2012 relativement à l’ensemble de la période 1951-2012Ce « hiatus » dans le réchauffement atmosphérique global peut paraître d’autant plus intriguant qu’il semble difficilement conciliable avec la plupart des simulations effectuées lors de la 5ème phase du projet d’intercomparaison des modèles de climat CMIP (qui a en partie servi de support à la rédaction du 5ème rapport du GIEC). Le ralentissement observé relève-t-il dès lors uniquement de la variabilité naturelle du climat ? Traduit-il aussi une mésestimation des forçages radiatifs anthropiques, voire une trop grande sensibilité des modèles à ces forçages ?

Les travaux les plus récents sur ce thème tendent à privilégier la première piste, en désignant plus particulièrement le Pacifique tropical et le régime des alizés. Ce bassin océanique est en effet le siège d’une forte variabilité naturelle qui se manifeste aux échelles interannuelle (phénomène ENSO, pour El Niño/Southern Oscillation) et multi-décennale (PDO pour Pacific Decadal Oscillation) et se traduit notamment par de fortes fluctuations des vents dominants. L’hypothèse avancée est la suivante : l’intensification récente des alizés aurait provoqué un transfert de chaleur de la surface vers la subsurface de l’océan Pacifique tropical, via le renforcement des courants océaniques.

Les chercheurs du CNRM-GAME se sont penchés sur la question en exploitant les simulations CMIP5 et en réalisant de nouvelles simulations visant à étudier plus spécifiquement le rôle du Pacifique tropical. Ces dernières ont été menées selon deux protocoles expérimentaux. Le premier consiste à piloter dans la simulation l’évolution des températures de surface de la mer de manière à la reproduire le plus fidèlement possible (y compris dans sa chronologie) et le second à piloter la dynamique de l’océan superficiel (via l’influence qu’ont sur elle les vents de surface) afin de privilégier le réalisme des échanges de chaleur entre l’atmosphère et l’océan.

Les résultats des travaux menés au CNRM-GAME montrent que:

- les études antérieures ont pu être biaisées par une surestimation de l’influence du Pacifique tropical sur la température du globe dans les modèles utilisés ;

- l’influence du Pacifique tropical sur le réchauffement simulé par un modèle donné dépend en partie du protocole expérimental utilisé.

Ils confirment toutefois l’importante contribution de la variabilité naturelle du Pacifique tropical au ralentissement récent du réchauffement global observé. Le réchauffement a dès lors vocation à s’accélérer au cours des prochaines décennies – à moins d’être entravé par un forçage externe, comme une éruption volcanique majeure.

Source : Météo France, le 25 février 2015.


Un réchauffement rapide après une pause climatique ?

Depuis 1998, les températures ont augmenté moins vite que ne le prévoyaient les modèles. Même si 2014 a été marquée par un record de chaleur, la tendance décennale au réchauffement a été moins importante dans les années 2000 que dans les années 1990. Selon des scientifiques du Met Office et de l’Université d’Exeter, ce hiatus, sans doute lié à la variabilité naturelle du climat, a environ 15% de chances de se prolonger encore 5 ans. Une brutale phase de réchauffement devrait ensuite mettre un terme à cette pause.

D’après les modèles climatiques, les températures sont censées augmenter de 0,2°C par décennie à cause du forçage des gaz à effet de serre. En raison de la variabilité naturelle du climat, ce réchauffement est plus ou moins marqué selon les décennies.

Une nouvelle étude publiée dans Nature Climate Change analyse les chances pour que la variabilité du climat contrarie ponctuellement la tendance de fond au réchauffement climatique. Il s’avère que la variabilité naturelle a potentiellement la capacité de contrarier le rythme du réchauffement en annulant tout ou partie de la hausse décennale moyenne de 0,2°C annoncée par les modèles.

Grâce à la puissance de calcul des modèles climatiques, les auteurs de l’étude ont pu déterminer que les périodes de hiatus climatiques d’une durée de 20 ans n’étaient susceptibles de se produire qu’une fois tous les 100 ans. Une fois qu’une pause est amorcée et qu’elle dure 15 ans, il y a ensuite 15% de chances pour qu’elle se poursuive encore 5 années supplémentaires.

L’autre résultat important de l’étude est que les périodes de pause dues à la variabilité naturelle sont associées à l’enfouissement de chaleur dans l’océan. Lorsque se phénomène s’inverse, le largage de chaleur conduit à une phase de réchauffement rapide. La tendance décennale peut alors atteindre un rythme de 0,40°C, deux fois celui prédit par les modèles.

Entre 1990 et 1999, les températures ont augmenté à un rythme de 0,25°C par décennie, selon les chiffres de la Nasa. Entre 2000 et 2009, ce rythme est retombé à 0,10°C par décennie et le réchauffement a même été quasiment nul entre 2003 et 2013. Si l’on considère que la variabilité naturelle du climat peut expliquer une baisse de 0,2°C des températures sur une dizaine d’années, cela signifie que la tendance moyenne au réchauffement (+0,2°C) peut être annihilée. Cela expliquerait pourquoi, depuis 1998, les températures onnt plafonné avec des conditions peu propices dans le Pacifique. Malgré cela, des records de chaleur ont quand même été battus en 2005, 2010 et 2014. Sans la variabilité naturelle, les records auraient été encore plus marqués.

L’oscillation décennale du Pacifique (PDO) figure parmi les principaux candidats pour expliquer la pause. Il s’agit d’une variation de la température de l’océan Pacifique dont le cycle se déroule sur 15 à 30 ans.  Dans sa phase positive, l’oscillation favorise les phénomènes El Niño, ce qui tend à réchauffer l’atmosphère.  Mais après une période marquée par le largage de chaleur par l’océan, une phase de refroidissement prend le relais, c’est la phase négative de la PDO.  Les conditions sont alors plus propices au phénomène La Niña.

Phase positive de l’Oscillation décennale du Pacifique (PDO). Source : UCAR

La PDO était dans une phase négative avant 1976, puis dans une phase positive entre 1976 et 1998, une période qui a coïncidé avec une forte élévation des températures atmosphériques. Ensuite, une nouvelle phase négative a débuté en 1999, coïncidant avec la pause dans le réchauffement de la planète.

Le rôle de la PDO semble confirmé par les résultats d’une étude publiée en janvier 2015 dans Nature Climate Change : les  océans ont continué à se réchauffer entre 2006 et 2013, à un moment où les températures de l’air plafonnaient. Le réchauffement a été observé jusqu’à 2000 mètres de profondeur, confirmant que l’océan avait probablement absorbé une grande partie de la chaleur excédentaire due aux gaz à effet de serre.

Entre la surface et 2000 mètres de profondeur, on a constaté depuis 2006 un réchauffement de 0,4 à 0,6 watts par mètre carré. Cette observation a pu être réalisée grâce au programme de développement des balises Argo qui enregistrent les températures dans les 2 premiers kilomètres.

Une autre cause a été récemment avancée pour expliquer le hiatus du réchauffement climatique : le fait que les agences météo ne prennent pas suffisamment en compte les températures de l’Arctique dans le calcul de la température moyenne de la planète. Or il s’avère que les années 2000 ont été marquées par une forte élévation des températures de l’Arctique. Si on ne les prend pas en compte, on fausse partiellement la mesure de la moyenne mondiale. C’est ce qu’on noté les scientifiques Cowtan et Way, qui ont proposé une nouvelle méthode pour mieux prendre en compte la situation au pôle nord. Leur calcul de température a permis d’établir que le rythme du réchauffement était plus important (+0,16°C par décennie entre 2000 et 2009) que celui trouvé par les autres agences, surtout la NOAA et le Met Office, qui ne prennent pas assez en compte le climat des hautes latitudes.

Quelles que soient les causes du hiatus climatiques, la tendance de long terme au réchauffement n’a pas été démentie par le ralentissement des années 2000. Si l’on prend en compte la période qui va des années 1970 à aujourd’hui, la tendance au réchauffement est conforme à ce que prévoient les modèles. L’étude parue dans Nature Climate Change montre en tous cas que le récent hiatus reste dans les limites des variations naturelles et que cette dynamique interne du climat ne peut pas être exclue comme une cause possible du moindre réchauffement climatique depuis 1998.

Source : Johan Lorck, pour global-climat, le 26 février 2015.


Confirmation du rôle du Pacifique dans les variations du climat

Les émissions de gaz à effet de serre liées aux activités humaines favorisent l’élévation des températures sur le long terme. Mais le rythme de cette hausse varie sur des échelles de temps plus courtes en raison de causes naturelles. Parmi celles-ci, il y a les oscillations du Pacifique, de plus en plus suspectées d’être le principal facteur de modération du réchauffement ces 15 dernières années.

Océan Pacifique (Source : NASA)

Océan Pacifique (Source : NASA)

Entre 1990 et 1999, les températures ont augmenté à un rythme soutenu, de l’ordre de 0,25°C par décennie, si l’on prend comme référence les données de la Nasa. Mais entre 2000 et 2009, ce rythme s’est ralenti, retombant à 0,10°C par décennie, soit moins que les prévisions des modèles (0,20°C par tranche de dix ans).

Dans le même temps, la planète est toujours en déséquilibre radiatif : en raison des gaz à effet de serre, il y a davantage d’énergie qui entre dans le système terrestre qu’il n’en ressort. Les données satellitaires montrent même une accélération de cette accumulation d’énergie entre la période 1985-1999 et 2000-2012. Dès lors, comment expliquer que ce déséquilibre radiatif ne se traduise pas par un réchauffement ? Où cette chaleur est-elle partie ?

De nombreuses études ont tenté ces dernières années d’expliquer pourquoi la Terre s’était moins réchauffée que ne le prévoyaient les modèles depuis 1998. Michael Mann, climatologue à l’université de Pennsylvanie, assure que le réchauffement ne s’est pas arrêté : il a été atténué par des facteurs naturels… Mais temporairement. Sur la base d’une nouvelle étude publiée dans Science, il désigne le Pacifique comme principal responsable de la pause. Les modèles climatiques ne sont donc pas viciés, estime encore Michael Mann sur le site Realclimate.

Dans leur enquête sur les variations naturelles du climat, Michael Mann et ses collègues Byron Steinman et Sonya Miller se sont concentrés sur l’hémisphère Nord et le rôle joué par deux des principales oscillations de températures de surface de la mer connues : l’Oscillation Atlantique Multidécennale ou « AMO » et l’Oscillation décennale du Pacifique ou « PDO ». Les températures moyennes de l’hémisphère Nord sont censées résulter d’une combinaison de l’AMO et de la PDO.

Michael Mann et ses collègues ont utilisé une nouvelle méthode pour l’identification de ces oscillations, basée sur les simulations climatiques utilisées dans le plus récent rapport du GIEC. Grâce à ces simulations, il est possible d’estimer la composante des variations de température due à l’augmentation des concentrations de gaz à effet de serre, aux éruptions volcaniques et aux changements observés dans l’activité solaire. Lorsque l’on retire l’influence de ces différents facteurs sur les températures, on peut observer quel est le véritable poids des oscillations que sont l’AMO et la PDO. Il doit donc être possible de déterminer leur influence respective en écartant tout autre facteur agissant sur le climat.

Les chercheurs ont constaté que l’état actuel des oscillations compensait une partie du réchauffement de l’hémisphère Nord. L’AMO semble avoir relativement peu joué sur les changements de température à grande échelle au cours des deux dernières décennies. Son amplitude a été faible, et elle est actuellement relativement plate. Dans le même temps, la PDO, a une tendance forte à la baisse. C’est donc la PDO (qui est liée à la prédominance des conditions froides de type La Niña dans le Pacifique tropical au cours de la dernière décennie) qui apparaît responsable du ralentissement de réchauffement.

La PDO était dans une phase négative avant 1976, puis dans une phase positive entre 1976 et 1998, une période qui a coïncidé avec une forte élévation des températures atmosphériques. Ensuite, une nouvelle phase négative a débuté en 1999, coïncidant avec la pause dans le réchauffement de la planète.

Il apparaît donc que le refroidissement naturel dans le Pacifique est le principal contributeur au ralentissement récent du réchauffement à grande échelle. Ce résultat confirme d’autres études récentes. Un article paru en février 2014 dans Nature Climate Change avait montré que les alizés exceptionnellement forts le long de l’équateur permettaient d’enfouir davantage de chaleur dans l’océan Pacifique tout en faisant remonter de l’eau froide à la surface plus à l’est. Il y a donc moins de chaleur disponible pour élever les températures de l’atmosphère, ce qui permet de compenser temporairement l’accumulation des gaz à effet de serre. Selon Matthew England, directeur de l’étude menée par l’université de New South Wales, les vents auraient eu un effet refroidissant de 0,1 à 0,2°C, un niveau permettant d’atténuer de 50% l’impact des gaz à effet de serre.

Une autre étude parue dans Nature Geoscience montre que ce processus est déjà arrivé, mais dans la direction opposée : des vents plus faibles ont permis d’accélérer le réchauffement au début du 20è siècle. Lorsque les vents ont commencé à se renforcer après 1940, le réchauffement a ensuite ralenti. Des scientifiques du Centre national pour la recherche atmosphérique (NCAR) et de l’Université d’Arizona, emmenés par Diane Thompson, ont utilisé une nouvelle méthode basée sur l’analyse chimique du corail afin de reconstituer la configuration des vents tropicaux du Pacifique entre 1894 et 1982. Entre 1910 et 1940, les températures mondiales se sont élevées de 0,4°C alors que le forçage dû aux gaz à effet de serre d’origine humaine n’était que de 0,3 W m−2. Depuis 1970, on a constaté un réchauffement de 0,75°C mais avec un forçage beaucoup plus important, de l’ordre de 1,5 W m−2. Les vents du Pacifique seraient le facteur clé expliquant l’effet moindre des gaz à effet de serre lors de certains périodes.

Des travaux conduits par Kevin Trenberth et John Fasullo, du Centre national pour la recherche atmosphérique (NCAR), montrent qu’il y a eu davantage d’enfouissement de chaleur dans le sous-sol de l’océan Pacifique au cours de ces 10 dernières années. Une autre étude réalisée par James Risbey démontre que les simulations des modèles qui suivent le plus fidèlement la séquence observée d’El Niño et La Niña durant la dernière décennie ont tendance à reproduire le ralentissement de réchauffement. James Risbey explique que sur le long terme les effets d’El Niño et La Niña s’annulent mais que ponctuellement ils peuvent expliquer des variations au niveau mondial. Certaines périodes, comme ces dernières années, ont été plus marquées par des événements de type La Niña qui tendent à refroidir la surface de l’océan Pacifique.

D’autres explications ont été récemment évoquées pour expliquer la pause des températures. Parmi celles-ci, il y a la sous-estimation du réchauffement réel qui a eu lieu en raison de lacunes dans les données d’observation. Les années 2000 ont été marquées par une forte élévation des températures de l’Arctique. Si on ne les prend pas en compte, on fausse partiellement la mesure de la moyenne mondiale. C’est ce qu’on noté les scientifiques Cowtan et Way, qui ont proposé une nouvelle méthode pour mieux prendre en compte la situation au pôle nord. Leur calcul de température a permis d’établir que le rythme du réchauffement était plus important (+0,16°C par décennie entre 2000 et 2009) que celui trouvé par les autres agences, surtout la NOAA et le Met Office, qui ne prennent pas assez en compte le climat des hautes latitudes.

Parmi les autres explications, on trouve aussi des facteurs naturels comme les petites éruptions volcaniques et la légère baisse de l’activité solaire qui ont eu une légère influence rafraîchissante sur le climat de la Terre.

Si le Pacifique est le principal facteur expliquant la pause des températures, les prochaines années pourraient être marquées par un rythme de réchauffement plus soutenu. Le Bureau australien de météorologie vient de délivrer son dernier pronostic pour les chances de voir émerger un phénomène El Niño en 2015 : elles sont de l’ordre de 50%. Quand des conditions de type El Niño règnent sur le Pacifique, on l’a vu, les conditions sont propices à l’élévation des températures. Selon une étude statistique publiée récemment, le largage de chaleur lié à des conditions El Niño dans le Pacifique peut conduire à une phase de réchauffement rapide. La tendance décennale peut alors atteindre un rythme de 0,40°C, deux fois celui prédit par les modèles.

Source : Johan Lorck, pour global-climat, le 3 mars 2015.


Steinman, Mann et Miller à propos des oscillations de température entre Atlantique/Pacifique et l’Hémisphère Nord


Pas de pause pour le réchauffement des profondeurs de l’océan

Les océans ont continué à se réchauffer entre 2006 et 2013, selon une étude publiée dans Nature Climate Change. Le réchauffement a été observé jusqu’à 2000 mètres de profondeur, confirmant que l’océan avait probablement absorbé une grande partie de la chaleur excédentaire due aux gaz à effet de serre.

Entre la surface et 2000 mètres de profondeur, on a constaté depuis 2006 un réchauffement de 0,4 à 0,6 watts par mètre carré. Cette observation a pu être réalisée grâce au programme de développement des balises Argo qui enregistrent les températures dans les 2 premiers kilomètres.

Grâce à la l’utilisation de modèles océaniques, des chercheurs emmenés par Sybren Drijfhout, de l’Université de Southampton, avaient montré en 2014 que la chaleur emmagasinée par les océans entre les années 1990 et 2000 avait augmenté d’environ 0,7 Wm-2, mais avec une marge d’incertitude plus importante que dans la nouvelle étude.

L’océan continue donc à emmagasiner de la chaleur à un rythme soutenu. 93% de l’énergie excédentaire reçue à la surface de la Terre en raison des gaz à effet de serre serait en effet absorbée par les mers du globe.

Contenu de chaleur dans les 2000 premiers mètres des océans (source : NOAA)

Contenu de chaleur dans les 2000 premiers mètres des océans (source : NOAA)

Les températures à la surface de la mer  ont quand à elles augmenté de 0,1°C par décennie depuis 1951 mais il n’y a pas eu de tendance significative au réchauffement sur la période 1998-2013, précise la nouvelle étude parue dans Nature Climate Change. La situation a cependant évolué en 2014 puisque cette année a été marquée par les températures de surface de la mer les plus élevées jamais enregistrées, si l’on en croit notamment les données du Met Office.

Avant le réchauffement de 2014, la pause dans  les températures de surface de la mer constatée entre 1998 et 2013 serait due à des conditions de type La Niña dans le Pacifique. Les périodes où prévalent des épisodes La Niña sont marquées par un renforcement des vents d’est dans le Pacifique qui tendent à enfouir davantage de chaleur dans l’océan que lors des épisodes El Niño.

Cependant, c’est la chaleur accumulée et non les températures de surface de le mer – où de l’atmosphère – qui reflètent le véritable déséquilibre radiatif de la Terre, rappellent les auteurs de l’étude. La grande variabilité des températures de surface de la mer montrent que c’est un piètre indicateur du réchauffement climatique. Car dans le même temps les satellites montrent que la Terre accumule davantage d’énergie qu’elle n’en émet, donc qu’elle est en déséquilibre radiatif. Si les températures de surface de la mer et de l’atmosphère augment lentement, on a désormais la confirmation que l’énergie excédentaire a en fait été enfouie dans les profondeurs de l’océan.

La chaleur a été emmagasinée aussi bien dans la couche supérieure de l’océan, entre 0 et 500 mètres, que dans les couches plus profondes, entre 500 et 2000 mètres. Plus intéressant encore : si les températures de surface de l’océan ont suivi l’évolution dans le Pacifique entre les phase El Niño et La Niña, la couche située entre 100 et 500 mètres a connu une évolution opposée. Entre 0 et 500 mètres, l’océan s’est réchauffé de 0,005°C par an sur la période 2006-2013. Entre 500 et 2000 mètres, un réchauffement de 0,002°C par an a été observé. Entre 67 et 98% de l’accumulation de chaleur s’est faite dans les océans extratropicaux de l’hémisphère sud, notamment dans le Pacifique et l’océan indien, et dans une moindre mesure dans l’Atlantique sud.

Source : Johan Lorck, pour global-climat, le 3 février 2015.

P.S. Comme on l’a répété plusieurs fois, la quasi-totalité des climatologues spécialisées (voir ce billet par exemple, avec 97 % d’accord) sont d’accord et nous demandent d’agir pour ne pas prendre le risque de bouleverser le climat.

Et comme le rappelle ici Jancovici, ou bien on croit un consensus scientifique (qui n’est jamais unanime à 100 %, ni une preuve absolue de vérité, le consensus pouvant toujours, un jour, à base de travaux sérieux, évoluer – mais pour 1 Galilée, il y a eu 1000 anti-Galilée expliquant après lui que la Terre était bien plate…) parce qu’on n’a pas d’autre choix, ou bien on perdra alors toute capacité d’aboutir à une certitude (certes relative et temporaire) permettant d’agir.

Autrement dit, si le grand public décide de suivre les opinions ultra-minoritaires, il ne pourra plus décider, car il y aura toujours plein d’opinions ultra-minoritaires et leurs contraires simultanément. Ces opinions, importantes, doivent rentrer dans une méthode scientifique, à savoir être publiées dans des revues à comité de lecture, et se battre pour démontrer leur justesse et convaincre leurs pairs, aboutissant éventuellement à une modification du consensus…

Bref, comme il y a un clair consensus (d’autant que, sachant que le CO2 est un important gaz à effet de serre, et qu’il y en a de plus en plus dans l’atmosphère et pas qu’un peu, le fait que ça se réchauffe est tout sauf surprenant…), je ferme les commentaires pour éviter le trollage…

97 % des climatologues spécialisés ne doutent donc pas du réchauffement…

L’étude source Duran 2009 est téléchargeable ici.

Elle se complète avec celle-ci Anderegg 2010. Une autre a été publiée en 2013 : Cook et al. : ”Entre 1991 et 2011, sur près de 4.000 articles (3.896 exactement) exprimant une opinion à ce sujet et écrits dans des revues scientifiques à comité de lecture par des chercheurs du même domaine (« évaluation par les pairs ») par plus de 10.000 scientifiques (10.188), 97,1% entérinent la thèse de l’origine humaine du changement climatique”.

Pour comprendre la stratégie classique à l’oeuvre ici (semer le doute pour paralyser la prise de décision) déjà utilisée sur le tabac ou la couche d’ozone, je vous renvoi sur ce billet indispensable :

[Livre exceptionnel] Les marchands de doute, de Naomi Oreskes et Erick Conway

Source: http://www.les-crises.fr/un-rechauffement-climatique-plus-rapide-que-prevu-apres-une-pause-de-plusieurs-annees/


Le changement climatique : points de repère, par Alain Grandjean

Friday 1 May 2015 at 01:10

Ce petit texte vise à donner les points de repère qui me semblent essentiels à tous ceux qui  s’interrogent de bonne foi sur l’origine des informations qui permettent de fonder un diagnostic solide sur le changement climatique et ses causes.  Merci à ceux qui repéreraient une erreur ou une omission significative, cette note n’ayant en aucun cas pour vocation d’être exhaustive mais juste de constituer un socle de départ. C’est ici sa deuxième version. Merci à François-Marie Bréon (chercheur au Laboratoire des Sciences du Climat et de l’Environnement) pour ses remarques et suggestions relatives à la première version.

1) Un diagnostic qui repose sur des bases et des sources solides

La physique de l’effet de serre est bien connue depuis les travaux précurseurs de Joseph Fourier en 1824. Il s’agit principalement de l’application des lois régissant les transferts de chaleur par rayonnement. Le rôle de l’atmosphère  et de ses différents composants dans la température moyenne planétaire de surface n’est plus discutable. Sans son atmosphère notre planète connaîtrait une température  de surface de -19°C. au lieu de 15°C,  sa moyenne actuelle.

L’instrumentation qui permet d’analyser les phénomènes en jeu (température, niveau de la mer,..)  est de plus en plus fine et sophistiquée grâce notamment au recours aux satellites. Ses résultats sont de plus en plus convergents. Pour la température par exemple, les conclusions sur l’évidence de sa hausse depuis le milieu du XIX° siècle sont issues du recoupement des données compilées par quatre laboratoires de réputation mondiale[1] à partir de données de multiples agences (dont Météo France par exemple).

En ce qui concerne la  modélisation du climat nécessaire pour projeter son avenir en fonction de divers scénarios, elle progresse régulièrement tant du fait de progrès permanent dans la progression des processus, des mesures que des capacités de calculs qui permettent d’affiner  et d’enrichir les modèles[2]. Ainsi au niveau mondial, on dénombre une vingtaine de modèles globaux[3]. Même si, du fait de la complexité des phénomènes, les  résultats des simulations font apparaître des écarts d’un modèle à l’autre, notamment au niveau régional, les principales conclusions que nous développerons dans la suite (points 2, 3 et 4 suivants) s’avèrent très robustes et mènent au même constat global. Et les principaux arguments des « climato-sceptiques » ont reçu des  réponses documentées et convaincantes[4] sur lesquelles nous ne reviendrons pas dans cette note de synthèse.

Le GIEC[5] (groupement intergouvernemental d’experts sur le climat) réalise un travail de synthèse de très grande rigueur qui fait l’objet d’une publication environ tous les 5 ans depuis. (1990, 1995, 2001, 2007, 2013-2014). Le dernier a été rédigé par 831 experts[6] (les meilleurs spécialistes de leur discipline) qui ont bénéficié du travail de centaines de contributeurs et de milliers de relecteurs, issus de  plus de cent pays, et ont passé plusieurs dizaines de milliers d’études au crible. De tels moyens n’ont jamais été mis en œuvre dans l’histoire des sciences pour vérifier une hypothèse.

Les conclusions du GIEC sont partagées de manière quasi-consensuelle par les communautés scientifiques concernées[7]. Depuis 2001, de nombreuses académies des sciences nationales ont fait des déclarations (parfois conjointes) affirmant la cause anthropique du réchauffement global observé et demandant aux nations de réduire leurs émissions de gaz à effet de serre. Plusieurs études analysant le contenu des articles scientifiques sur le climat montrent que la quasi-totalité des articles qui prennent position sur les causes du réchauffement climatique appuient le consensus scientifique selon lequel ce réchauffement est attribuable à l’activité humaine.

2) Le climat se réchauffe depuis 150 ans et les conséquences en sont visibles

Bien évidemment, à l’échelle de l’histoire de la planète (4,5 milliards d’années) le climat n’a cessé de changer sous l’influence de grands déterminants (irradiance solaire, variation de l’orbite terrestre, dérive des continents, volcanisme, émissions de méthane et d’oxygène par le vivant, capacité d’absorption des océans, etc.). Mais un  changement climatique récent,  peut s’observer depuis le milieu du siècle dernier, et il se caractérise par plusieurs éléments distincts et convergents.

Tout d’abord, la hausse de la température moyenne planétaire[8] est évaluée à 0,85°C [0,65 à 1,06] °C sur la période 1880-2012. Elle a été plus forte au milieu du siècle dernier et son rythme de croissance actuel est de l’ordre de 0,12 [0,08 à 0,14] °C par décennie sur la période 1951−2012. En outre, le rythme d’élévation du niveau moyen des mers[9], autre indicateur essentiel d’un réchauffement de la planète, se situe depuis le milieu du XIX° siècle, à un niveau supérieur au rythme moyen des deux derniers millénaires. Entre 1901 et 2010, le niveau moyen des mers à l’échelle du globe s’est élevé de 0,19 m [de 0,17 à 0,21 m].

On relève par ailleurs un faisceau de signaux qui sont la signature du réchauffement et qui en traduisent déjà les premières conséquences[10]. Les températures ont plus augmenté la nuit que le jour au-dessus des continents. Les épisodes de précipitations intenses et d’inondation ont augmenté dans l’hémisphère nord. On a observé un plus grand nombre de vagues de chaleur extrême et ces vagues touchent un plus grand nombre de régions. Sur les deux dernières décennies, temps très bref à l’échelle de l’histoire, la masse des calottes glaciaires a diminué, les glaciers de pratiquement toutes les régions du globe ont continué à reculer, et de  manière accélérée, les étendues de la banquise arctique et du manteau neigeux de printemps de l’hémisphère nord ont diminué. Le réchauffement des eaux de surface fait sortir les cyclones tropicaux de leur route habituelle. C’est le cas de l’ouragan Sandy de l’automne 2012, qui a touché la Nouvelle Angleterre.

3) Les causes de ce changement climatique sont bien identifiées : la principale est l’émission anthropique de gaz à effet de serre

Sur très longue période,  le climat obéit à de multiples paramètres. Mais, pour les dernières décennies, le réchauffement et sa structure spatiale s’expliquent principalement par  l’évolution de la composition de l’atmosphère et par l’augmentation des gaz à effet de serre d’origine anthropique; les autres facteurs sur cette période (volcanisme, émissions d’aérosols, cycle du soleil, variation climatique « naturelle », notamment oscillations ENSO[11], changement d’albedo[12] dû au changement d’affectation des sols), jouent un rôle de second ordre[13].

Les concentrations atmosphériques des principaux gaz à effet de serre que sont le dioxyde de carbone (CO2), le méthane (CH4) et le protoxyde d’azote (N2O) ont toutes augmenté depuis 1750 en raison des activités humaines[14], pour atteindre des niveaux sans précédent depuis au moins 800 000 ans. La concentration du dioxyde de carbone a augmenté de 40 % depuis l’époque préindustrielle. Cette augmentation s’explique en premier lieu par l’utilisation de combustibles fossiles et en second lieu par le bilan des émissions dues aux changements d’utilisation des sols (notamment déforestation pour laisser place  à l’agriculture) . L’océan a absorbé environ 30 % des émissions anthropiques de dioxyde de carbone, ce qui a entraîné une acidification de ses eaux[15].

4)  L’humanité a une influence considérable sur la planète

Que l’humanité puisse modifier le climat provoque généralement un mouvement d’incrédulité. Quelques éléments permettent néanmoins de comprendre que l’humanité est devenue une force « tectonique », qui peut faire jeu égal avec la nature.

L’énergie consommée par l’activité humaine est de l’ordre de 12 milliards de Tep[16]. Elle permet par exemple  de déplacer annuellement des quantités de matériaux de l’ordre de grandeur de ce que les volcans du monde entier expulsent (30 à 40 milliards de tonnes par an) lors de leurs éruptions[17].

L’empreinte de l’humanité sur l’ensemble des écosystèmes, sur les ressources naturelles est marquante  (eau, aridification et épuisement des sols, déforestation, destruction des ressources halieutiques, destruction de la biodiversité[18]). A nouveau ces impacts sont malheureusement indiscutables[19] et en eux-mêmes ils sont sources de grandes difficultés pour les plus pauvres qui seront aggravées par le changement climatique.

5) Dans un scénario de prolongation des tendances actuelles, le changement climatique aura des conséquences lourdes

Le réchauffement climatique dépend principalement des concentrations de GES, accrues par les émissions  qui sont actuellement croissantes. Si nous poursuivons cette croissance, les modèles climatiques montrent  que la hausse des températures moyennes sera comprise entre +3,7°C et +4,8°C, à horizon 2100 (et sa progression continuera après)[20].  Or nous savons que l’écart de températures entre une période glaciaire et une période interglaciaire – comme celle que nous vivons depuis environ 12 000 ans – est de 5°C environ. La hausse potentielle de la température est donc considérable ; un changement d’ère climatique se réaliserait en un siècle (contre des millénaires naturellement). Les impacts de ces changements sont l’objet d’études approfondies. On sait déjà qu’ils sont tragiques  pour les pays du sud (accroissement de l’aridité et de la désertification dans les zones déjà sèches, bouleversement des moyens d’existence (approvisionnement alimentaire et en eau potable, risque d’effondrement des écosystèmes marins) des zones côtières, insécurité alimentaire, migrations climatiques…). Dans les pays développés, elles seront lourdes aussi (un été sur deux en 2050 en moyenne  sera caniculaire comme 2003 en Europe de l’ouest avec des risques de mortalité et de morbidité, particulièrement pour les populations urbaines) ; elles  nécessiteront d’entreprendre de très gros travaux d’adaptation, notamment pour les résidences, installations  industrielles et infrastructures situées auprès des mers et océans.

Ces impacts viennent se surajouter aux sources actuelles d’injustice et de dureté de la vie que connaissent des milliards d’êtres humains.

———————————————————-

[1]NASA GISS, NOAA NCDC, HadCRUT4, Cowtan& Way.L’évaluation de la température mondiale planétaire suppose de disposer de nombreux capteurs bien placés, mais aussi de retraiter les informations fournies. C’est un travail scientifique délicat. Voir http://www.realclimate.org/index.php/archives/2014/01/global-temperature-2013/#more-16736.

[2] Ces modèles intègrent  la circulation de l’air dans l’atmosphère, et les transports d’eau qui y sont associés,la circulation océanique et les interactions entre l’océan et l’atmosphère,la formation et la fonte de la glace de mer les nuages, les échanges de carbone entre l’atmosphère et la planète, et certaines rétroactions du réchauffement sur les émissions « naturelles » de gaz à effet de serre, et notamment le comportement de la végétation.

[3] Voir par exemple http://www.universcience.fr/climobs/rubrique/mecanismes_modeles-climatique/

[4] Voir par exemple le site http://www.realclimate.org une des  références dans la communauté scientifique qui travaille sur les questions climatiques

[5] Créé en 1988 par l’Organisation Météorologique Mondiale (OMM) et le Programme pour l’Environnement des Nations Unies (PNUE), il rassemble des membres de tous les pays appartenant à l’Organisation des Nations Unies. Voirhttp://www.ipcc.ch/

[6] Voir http://www.developpement-durable.gouv.fr/Les-auteurs.html

[7] http://fr.wikipedia.org/wiki/Positionnement_de_la_communaut%C3%A9_scientifique_envers_le_r%C3%A9chauffement_climatique

[8] Depuis 1000 ans, la température moyenne n’a varié que de quelques dixièmes de degré par siècle.

[9] Dû au réchauffement de l’eau, qui la dilate et à la fonte des glaciers et des banquises

[10] Voir par exemple http://www.universcience.fr/climobs/2012/12/19/effets-deja-visibles-du-rechauffement/

[11] ENSO est un acronyme composé à partir des termes El Niño et Southern Oscillation (oscillation australe). C’est un phénomène climatique et océanographique reliant le phénomène El Niño et l’oscillation australe de la pression atmosphérique.

[12] L’albedo est le pouvoir réfléchissant d’une surface qui verra selon le type de couverture : les glaces ont une albedo élevée au contraire de l’océan ou d’une forêt. L’albedo de la planète (égale à 0,30) diminue avec le réchauffement climatique, ce qui tend à l’accroître.

[13] Le forçage radiatif anthropique total (qui mesure l’impact de certains facteurs affectant le climat sur l’équilibre énergétique du système couplé Terre/atmosphère) en 2011 par rapport à 1750 est de 2,29 [1,13 à 3,33] W m-2 . Le forçage radiatif dû aux changements de concentration de ces gaz est de 2,83 [2,26 à 3,40] Wm-2 .

[14] En 2011, les concentrations respectives de ces gaz à effet de serre étaient de 391 ppm, 1803 ppb et 324 ppb, et dépassaient les niveaux préindustriels d’environ 40 %, 150 % et 20 %.

[15] L’acidification de l’océan est quantifiée par la diminution du pH. Le pH de l’eau de mer a diminué de 0,1 depuis le début de l’ère industrielle, soit une augmentation de 26 % de la concentration en ions hydrogène. Les conséquences de cette acidification sur les écosystèmes marins sont graves en elles-mêmes.

[16] Tonnes équivalent pétrole. Cette consommation a cru depuis 1900 de manière exponentielle (2,9% par an, soit une multiplication par 17)). Elle représente aujourd’hui 1,7 Tep ou 20 MWh par personne, avec des écarts considérables entre les pays.

[17] Voir par exemple http://www.planetoscope.com/environnement/sols

[18] Voir par exemple http://www.millenniumassessment.org/fr/Reports.html ou http://www.cnrs.fr/cw/dossiers/dosbiodiv/?pid=decouv_chapA_p2_f1

[19] Voir par exemple Anthony D.Barnosky et al. Approaching a state shift in Earth’s biosphere, Nature 486,52–58 (07 June 2012)

[20] Voir http://www.ipcc.ch/

Source : Alain Grandjean, le 5 janvier 2015.

P.S. Comme on l’a répété plusieurs fois, la quasi-totalité des climatologues spécialisées (voir ce billet par exemple, avec 97 % d’accord) sont d’accord et nous demandent d’agir pour ne pas prendre le risque de bouleverser le climat.

Et comme le rappelle ici Jancovici, ou bien on croit un consensus scientifique (qui n’est jamais unanime à 100 %, ni une preuve absolue de vérité, le consensus pouvant toujours, un jour, à base de travaux sérieux, évoluer – mais pour 1 Galilée, il y a eu 1000 anti-Galilée expliquant après lui que la Terre était bien plate…) parce qu’on n’a pas d’autre choix, ou bien on perdra alors toute capacité d’aboutir à une certitude (certes relative et temporaire) permettant d’agir.

Autrement dit, si le grand public décide de suivre les opinions ultra-minoritaires, il ne pourra plus décider, car il y aura toujours plein d’opinions ultra-minoritaires et leurs contraires simultanément. Ces opinions, importantes, doivent rentrer dans une méthode scientifique, à savoir être publiées dans des revues à comité de lecture, et se battre pour démontrer leur justesse et convaincre leurs pairs, aboutissant éventuellement à une modification du consensus…

Bref, comme il y a un clair consensus (d’autant que, sachant que le CO2 est un important gaz à effet de serre, et qu’il y en a de plus en plus dans l’atmosphère et pas qu’un peu, le fait que ça se réchauffe est tout sauf surprenant…), je ferme les commentaires pour éviter le trollage…

97 % des climatologues spécialisés ne doutent donc pas du réchauffement…

L’étude source Duran 2009 est téléchargeable ici.

Elle se complète avec celle-ci Anderegg 2010. Une autre a été publiée en 2013 : Cook et al. : ”Entre 1991 et 2011, sur près de 4.000 articles (3.896 exactement) exprimant une opinion à ce sujet et écrits dans des revues scientifiques à comité de lecture par des chercheurs du même domaine (« évaluation par les pairs ») par plus de 10.000 scientifiques (10.188), 97,1% entérinent la thèse de l’origine humaine du changement climatique”.

Pour comprendre la stratégie classique à l’oeuvre ici (semer le doute pour paralyser la prise de décision) déjà utilisée sur le tabac ou la couche d’ozone, je vous renvoi sur ce billet indispensable :

[Livre exceptionnel] Les marchands de doute, de Naomi Oreskes et Erick Conway

Source: http://www.les-crises.fr/le-changement-climatique-points-de-repere-par-alain-grandjean/


Exemples de problèmes climatiques actuels…

Friday 1 May 2015 at 01:05

Les glaces de l’Arctique au plus bas cet hiver

Cette année, l’extension hivernale des glaces de l’Arctique est la plus faible jamais relevée depuis le début des mesures en 1979. C’est donc à un niveau nettement inférieur à la moyenne que va s’amorcer la fonte printanière.

La saison d’extension de la glace de mer est apparemment terminée, selon les experts du Centre américain de données sur la neige et la glace (NSIDC). Mais ce pic d’extension des glaces de l’Arctique est bien bas avant le début de la période de fonte qui doit culminer en septembre.  Il est même à un niveau record depuis le début des mesures satellites.

Selon le dernier bulletin du NSIDC émis le 19 mars, la surface est donc moins étendue de 1,10 million de km2 par rapport à la moyenne de 15,64 millions km2 mesurée de 1981 à 2010. La superficie de la banquise a atteint 14,54 millions de km2 le 25 février, ce qui devrait être le maximum pour l’année. C’est 130 000 km2 de moins que le précédent record établi en 2011. Avec 14,91 millions de km², mars 2014 avait connu la 5è plus faible extension pour une fin de saison hivernale.

Extension de la glace de mer en Arctique actualisée le 18 mars 2015 (Source : NSIDC). Saison 2014-15 en bleu, moyenne en gris foncé.

Extension de la glace de mer en Arctique actualisée le 18 mars 2015 (Source : NSIDC). Saison 2014-15 en bleu, moyenne en gris foncé.

Cette année, le maximum a été atteint quinze jours plus tôt que la moyenne, qui survient autour du 12 mars, précise le NSIDC. Mais la date du pic d’extension est très variable selon les années.

La formation de glace de mer arctique semble être terminée, même si une progression dans certaines régions n’est pas exclue. Il est possible que la banquise continue à s’étendre au cours des deux ou trois prochaines semaines. En tous cas, une nouvelle extension ne devrait pas permettre de dépasser la superficie atteinte le 25 février.

Ces dernières décennies, l’Arctique est la région du globe où le réchauffement climatique s’est fait le plus sentir, élevant les températures à un rythme deux à trois fois plus rapide que sur le reste de la planète. En conséquence, la glace de mer de l’océan arctique s’est réduite de 30% par rapport au début des relevés satellites en 1979.

L’Arctique affiche habituellement sa plus grande extension en mars et sa superficie la plus réduite en septembre. Dans les deux cas, la tendance est à la baisse. Mais c’est le niveau minimum constaté à la fin de l’été qui est le plus surveillé. C’est pour cette période là que le déclin de la glace de mer a été le plus impressionnant depuis le début des relevés en 1979. Le record de la plus faible extension au terme de la saison estivale a été établi en 2012. Il n’a pas battu cette année mais le NSIDC a quand même annoncé que le 6è plus bas niveau avait été atteint le 15 septembre 2014 avec 5,07 millions de km2.

Les causes du record cette année

La circulation atmosphérique explique en partie le faible niveau d’extension de la glace de mer observé cette année. En raison des circonvolutions des vents de haute altitude, la chaleur a pu faire une incursion en Arctique côté Pacifique, ce qui a limité l’extension de la glace dans les mers de Bering et d’Okhotsk. C’est cette configuration qui a aussi favorisé des conditions chaudes dans l’ouest des Etats-Unis et la sécheresse en Californie. Début mars, le côté atlantique a également connu des températures plus élevées que la normale, jusqu’à +8°C dans la région de la mer de Barents, située à l’est du Groenland.

Pourquoi le niveau d’extension de la glace de mer est important

Une des raisons pour lesquelles la diminution de la glace de mer est préoccupante, c’est que cette surface est très réfléchissante alors que l’océan liquide est très absorbant. Alors, quand la zone de couverture de la glace de mer est réduite, les rayons du soleil sont moins réfléchis vers l’espace. Cela signifie une plus grande absorption du rayonnement solaire par la Terre et un réchauffement climatique qui s’ajoute à celui des gaz à effet de serre. Ainsi, le réchauffement de l’Arctique est deux fois plus rapide que celui du reste du globe.

Le réchauffement de l’Arctique favoriserait certains phénomènes climatiques extrêmes en Amérique du Nord, en Europe et en Asie, selon certains scientifiques. Jennifer Francis, de l’Université de Rutgers, est l’un des principaux défenseurs de cette thèse liant l’affaiblissement de la circulation atmosphérique aux hivers extrêmes. Normalement, la différence de température entre l’Arctique et les moyennes latitudes est telle que des vents de haute altitude extrêmement puissants, les jet streams, séparent la masse d’air polaire de celle du reste de l’hémisphère nord. Mais la différence de température s’amoindrit à la faveur du fort réchauffement de l’Arctique et les vents latéraux jouent moins leur rôle de barrière. Les jet streams sont moins rapides quand l’écart de température entre les deux masses d’air se réduit et tendent alors à onduler. De l’air polaire peut ainsi faire des incursions au sud tandis que de l’air chaud peut s’engouffrer dans le nord. C’est ce que l’on a vu ces hivers deniers dans l’est de l’Amérique du Nord.

Jin-Ho Yoon, du Pacific Northwest National Laboratory, a proposé dans la revue Nature Communications un mécanisme légèrement différent pour expliquer le lien entre la fonte de la glace de mer et les vagues de froid en Amérique du Nord, en Europe et en Asie. Selon lui, la fonte de la glace de mer favorise un fort réchauffement local et cette chaleur se propage ensuite aux plus hautes couches de l’atmosphère, ce qui affaiblit les vents de haute altitude.

Une étude récente publiée le 12 mars 2015 dans la revue Science montre que le réchauffement de l’Arctique risque surtout de conduire à des été caniculaires. Selon Dim Coumou, du Potsdam Institute for Climate Impact Research, l’augmentation des températures des  hautes latitudes peut aussi induire des vagues de chaleur plus au sud en favorisant les situations de blocage atmosphérique. En cause, la réduction de l’activité des tempêtes en été, elle-même liée à une modification de la circulation atmosphérique.

Les glaces de mer progressent en Antarctique

La glace de mer autour de l’Antarctique a atteint le 22 septembre 2014 un niveau d’extension record, selon le National Snow and Ice Data Center (NSIDC) américain. Le 22 septembre 2014, la glace de mer autour de l’Antarctique a atteint 20.11 millions de km2. Le précédent record datait de 2013 et cela fait maintenant plusieurs années que la glace de mer tend à progresser dans l’hémisphère sud.

Cette évolution peut surprendre dans un contexte de réchauffement de la planète mais il pourrait bien s’agir d’une des manifestations des changements climatiques en cours. Le NSIDC avance plusieurs explications pour comprendre le phénomène.

La force des vents est l’une des causes possibles. De forts vents du sud ont soufflé sur la mer de Weddell au cours du mois de septembre 2014. Les vents sont aussi renforcés par l’oscillation de l’Antarctique. Le vortex polaire s’est en effet intensifié depuis une trentaine d’années. Dans la phase positive de l’oscillation de l’Antarctique, les vents d’ouest se renforcent, favorisant l’empilement et l’épaississement de la glace. Les endroits où la glace a été balayée laissent alors à découvert l’océan dans des zones où il peut à nouveau geler en surface, selon une étude dirigée par Jinlun Zhang, chercheur à l’université de Washington. La destruction de la couche d’ozone est soupçonnée être liée au phénomène. En refroidissant la stratosphère, la perte d’ozone favorise les forts vents d’ouest et donc la constitution de glace de mer.

L’autre cause évoquée est la fonte des glaciers qui libère une eau douce plus susceptible de geler. L’eau de fonte est en effet plus douce que l’eau de mer.

Au total (Arctique + Antarctique), la glace de mer est de moins en moins étendue

L’extension de la glace de mer autour de l’Antarctique ne compense pas les pertes de l’Arctique, selon une nouvelle étude de la NASA. Dans l’ensemble, la planète a perdu de la glace de mer à un rythme annuel moyen de 35 000 km² depuis 1979.

Même si la banquise antarctique a atteint un nouveau maximum record en septembre 2014, la baisse se poursuit au niveau mondial si l’on additionne les niveaux atteints dans les deux régions polaires. C’est la conclusion de l’étude de Claire Parkinson, chercheur au Goddard Space Flight Center de la NASA. La diminution de la banquise arctique dépasse de loin les augmentations de la banquise antarctique. La cause est sans nul doute le réchauffement accéléré de l’Arctique, dont le rythme est deux fois plus élevé que pour le reste de la planète. Lors de la première partie de l’année 2010, notamment, les températures ont été de 4°C supérieures à celles de la moyenne 1968-1996, selon la NOAA (météo américaine).

Source : Johan Lorck, pour global-climat, le 21 mars 2015.


Graphique extension de la banquise arctique

Extension de la banquise arctique en millions de km2 de janvier à mai en moyenne sur 1981-2010 (courbe grise), en 2012 (en tirets verts) et 2015 (en bleu) © NSIDC

Source : Météo France, le 9 avril 2015.


Record de chaleur pulvérisé en Californie au 1er trimestre 2015

L’année 2014 avait déjà été la plus chaude depuis le début des relevés météo en Californie mais ce début d’année (janvier-mars) est marqué par une anomalie positive encore plus importante, selon l’agence américaine NOAA. L’Etat est en même temps touché par une sécheresse exceptionnelle et l’approvisionnement en eau est menacé, le manteau neigeux des montagnes californiennes ayant quasiment disparu.

Les hivers se suivent et se ressemblent aux Etats-Unis, avec un ouest chaud et un est glacial. C’est ce que l’on appelle le « dipôle » : des hautes pressions prévalent au nord-est de l’océan Pacifique tandis qu’une dépression permet à l’air arctique de s’engouffrer de l’autre côté du pays. Conséquence, les tempêtes hivernales bloquées par les hautes pressions sont déplacées bien au nord de la Californie, qui ne reçoit plus de pluies. L’Etat traverse ainsi une sécheresse depuis 4 ans, peut-être la pire des 1200 dernières années, selon une récente étude. Il y a déjà eu des périodes de précipitations déficitaires mais c’est surtout la conjonction avec des températures aussi élevées qui rend cette sécheresse exceptionnelle.

Moyenne des températures pour la période janvier-mars en Californie (Source : NOAA)

Moyenne des températures pour la période janvier-mars en Californie (Source : NOAA)

Si l’air froid venu de l’Arctique a plongé dans l’est des Etats-Unis cet hiver, les températures les plus extrêmes ont été enregistrées dans l’ouest. Le climat est donc très contrasté dans le pays. Sur janvier-mars, New York et le Vermont ont connu des anomalies négatives record avec respectivement -3,8°C et -3,6°C. La Californie, de son côté, a enregistré sur la période janvier-mars un record de chaleur assez stupéfiant avec une anomalie positive de +4,2°C. On trouve de tel écarts à la moyenne dans tous les Etats de l’ouest américain : +4,3°C dans l’Idaho et l’Oregon et même +4,5°C dans le Nevada !

Il aura ainsi fait en moyenne 11,7°C sur les trois premiers mois de 2015 en Californie. Le précédent record avait été établi en 2014 avec 10,7°C sur janvier-mars. Sur l’ensemble du pays, les températures sont de +1,1°C par rapport à la moyenne malgré la vague de froid dans l’est.

La marque du changement climatique ?

Reste maintenant à déterminer si cette configuration est liée au changement climatique. Dans une étude parue en septembre 2014, deux chercheurs de l’université de Stanford, Noah Diffenbaugh et Daniel Swain, affirmaient que la persistance et l’intensité du système de haute pression étaient inégalées depuis 1947, date des premières données disponibles sur la circulation atmosphérique. Des simulations climatiques ont été menées afin de déterminer comment pouvait évoluer le climat avec et sans accroissement de la quantité de gaz à effet de serre. Le résultat est que les systèmes de haute pression comme celui de 2013-2014 ont trois fois plus de chances de se produire sous le climat actuel que sous celui d’avant la révolution industrielle.

Simon Wang, un chercheur de l’université de Utah State, a également découvert un possible lien entre le réchauffement climatique et les phénomènes comme la sécheresse en Californie, couplée à des vagues de froid dans l’est des Etats-Unis. Dans Geophysical Research Letters, l’étude de Simon Wang décrivait en mai 2014 un véritable jeu de dominos climatique favorisant l’existence de deux pôles, l’un formé par des hautes pressions dans l’ouest des Etats-Unis, l’autre formé par des basses pressions au niveau des Grands Lacs, dans l’est du pays. A l’origine de cette configuration, le réchauffement de l’ouest du Pacific tropical qui aurait perturbé la circulation atmosphérique de haute altitude jusqu’au nord-est du Pacifique, favorisant un système de haute pression dans cette région.

Une théorie concurrente – ou complémentaire – impute la perturbation de la haute atmosphère au réchauffement de l’Arctique, susceptible également de conduire à des situations de blocage météo avec des canicules, des sécheresses ou des vague de froid. Cette idée est défendue par Jennifer Francis, spécialiste du climat à la Rutgers University.

Avec l’arrivée annoncée d’un épisode El Nino, la Californie pouvait espérer des pluies mais finalement le phénomène a tardé à se manifester. S’il a été officiellement annoncé il y a quelques semaines, il est d’intensité modérée et n’a pas permis d’améliorer la situation. Près  de la moitié de la Californie est encore dans un état de « sécheresse exceptionnelle », le niveau le plus sévère.

En raison de la sécheresse, le gouverneur de l’Etat, Jerry Brown, a annoncé pour la première fois des restrictions d’eau, une décision inédite qui conduit les villes à abaisser leur consommation de 25%. Il n’y a quasiment plus de neige dans les montagnes de la Sierra Nevada, principal pourvoyeur en eau de la Californie. Les derniers relevés montrent que le déficit en couverture neigeuse a atteint un niveau record : seulement 5% de la moyenne. Le précédent record était de 25%. A Philips, la neige a même totalement disparu, un phénomène qui ne s’était jamais produit depuis 1941, date des premières mesures.

Source : Johan Lorck, pour global-climat, le 11 avril 2015.


GRAND FORMAT. Sécheresse aux USA : 18 alarmantes photos avant/après

Face à une sécheresse historique, la Californie a annoncé, le 1er avril, des mesures d’urgence pour réduire de 25% la consommation d’eau. L’heure est grave : aucune trace de neige n’a été constatée à 2.000 mètres dans les montagnes de la Sierra Nevada. Une première en 75 ans.

La pénurie n’est pas nouvelle. Depuis plusieurs années, elle frappe l’ouest des Etats-Unis, et l’été dernier, nous avions publié ce diaporama d’images comparant la situation au fil du temps sur plusieurs sites de la région. Alors que la situation ne fait qu’empirer, nous vous le reproposons.

Enterprise Bridge, lac Oroville, Californie, juillet 2011

Enterprise Bridge, lac Oroville, Californie, juillet 2011
L’Enterprise Bridge passe au-dessus du lac Oroville, près du port de plaisance Bidwell, le 11 juillet 2011. Le plan d’eau, qui apparaît bien rempli, est le second plus grand réservoir de Californie. (Paul Hames/California Department of Water Resources via Getty Images)

Enterprise Bridge, lac Oroville, Californie, août 2014

Enterprise Bridge, lac Oroville, Californie, août 2014
Trois ans plus tard, le 19 août 2014, le même lieu est presque à sec. La sécheresse dans l’ouest américain menace l’approvisionnement en eau dans cette région où vivent 40 millions de personnes, indique une étude parue fin juillet dans la revue “Geophysical Research Letters”. (Justin Sullivan/Getty Images/AFP)

Port Bidwell, lac Oroville, Californie, juillet 2011

Port Bidwell, lac Oroville, Californie, juillet 2011
Haut niveau d’eau au port de plaisance Bidwell, au lac Oroville, le 20 juillet 2011, en Californie. (Paul Hames/California Department of Water Resources via Getty Images)

Port Bidwell, lac Oroville, Californie, août 2014

Port Bidwell, lac Oroville, Californie, août 2014
Au même endroit, le 19 août 2014, soit trois ans plus tard, des terres naguère immergées ont surgi, réduisant considérablement la taille de la marina. (Justin Sullivan/Getty Images/AFP)

Port Bidwell, lac Oroville, Californie, juillet 2011

Port Bidwell, lac Oroville, Californie, juillet 2011
Plein niveau d’eau au port de plaisance Bidwell, sur le lac Oroville, le 20 juillet 2011. (Paul Hames/California Department of Water Resources via Getty Images)

Port Bidwell, lac Oroville, Californie, août 2014

Port Bidwell, lac Oroville, Californie, août 2014
Trois ans plus tard, le même site photographié le 19 août 2014. Grâce au système GPS, des scientifiques ont constaté que la sécheresse dans l’ouest des Etats-Unis entraîne une élévation du sol due aux pertes souterraines, a rapporté l’AFP le 22 août. (Justin Sullivan/Getty Images/AFP)

Green Bridge, lac Oroville, Californie, juillet 2011

Green Bridge, lac Oroville, Californie, juillet 2011
Le Green Bridge, sur le lac Oroville, près du port de plaisance Bidwell, le 20 juillet 2011. (Paul Hames/California Department of Water Resources via Getty Images)

Green Bridge, lac Oroville, Californie, août 2014

Green Bridge, lac Oroville, Californie, août 2014
Le niveau de l’eau est bien plus bas trois ans plus tard, le 19 août 2014. Au 26 août, le lac Oroville n’était rempli qu’à 31% de sa capacité de 4,3 kilomètres cubes, contre 47% en moyenne à cette époque de l’année. (Justin Sullivan/Getty Images/AFP)

Green Bridge, lac Oroville, Californie, juillet 2011

Green Bridge, lac Oroville, Californie, juillet 2011
Vue resserrée du Green Bridge datant du 20 juillet 2011. (Paul Hames/California Department of Water Resources via Getty Images)

Green Bridge, lac Oroville, Californie, juillet 2014

Green Bridge, lac Oroville, Californie, juillet 2014
Trois ans plus tard, le même Green Bridge sur un lac Oroville bien plus bas, le 19 juillet 2014. En janvier, le gouverneur de Californie a décrété l’état d’urgence en raison de la sécheresse, peut-être la plus grave depuis un siècle. Récoltes perdues, risques accrus de feux de forêt font partie du lot de calamités qu’une telle pénurie d’eau est susceptible de provoquer. (Justin Sullivan/Getty Images/AFP)

Lac Folsom, Californie, juillet 2011

Lac Folsom, Californie, juillet 2011
Autre réservoir californien, le lac Folsom est ici vu à plein niveau, retenu par le barrage de Folsom, le 20 juillet 2011. (Paul Hames/California Department of Water Resources via Getty Images)

Lac Folsom, Californie, août 2014

Lac Folsom, Californie, août 2014
Voici où en est la situation à Folsom trois ans plus tard, le 19 août 2014. Au 26 août, le réservoir n’était rempli qu’à 39% de sa capacité établie à 1,2 kilomètre cube, contre 62% en moyenne à cette date de l’année. (Justin Sullivan/Getty Images/AFP)

Marina du lac Mead, Nevada, juillet 2007

Marina du lac Mead, Nevada, juillet 2007
Direction le lac Mead, réservoir de 36 kilomètres cubes qui alimente Las Vegas. Ici, des bateaux amarrés dans la marina de sa zone de loisirs, le 26 juillet 2007. (Ethan Miller/Getty Images)

Marina du lac Mead, Nevada, juillet 2014

Marina du lac Mead, Nevada, juillet 2014
Le 17 juillet 2014, la marina a tout bonnement disparu et il n’y a guère plus de trace du lac à cet endroit. En fait, le port de plaisance a été déplacé dès 2008 en raison des faibles niveaux d’eau. (Ethan Miller/Getty Images/AFP)

Marina du lac Mead, Nevada, juillet 2007

Marina du lac Mead, Nevada, juillet 2007
Des bateaux amarrés dans le port de plaisance du lac Mead, dans le Nevada, le 25 juillet 2007. (Ethan Miller/Getty Images)

Marina du lac Mead, Nevada, juillet 2014

Marina du lac Mead, Nevada, juillet 2014
Le 17 juillet 2014, seuls deux locaux sanitaires sur des pontons flottants abandonnés rappellent qu’une marina existait naguère en ces lieux désormais asséchés. (Ethan Miller/Getty Images/AFP)

La Californie vue de l’espace en janvier 2013

La Californie vue de l'espace en janvier 2013
Depuis l’espace également, la comparaison est saisissante. Ici, la Californie verdoyante sur une image satellitaire de la Nasa datant du 18 janvier 2013. (Nasa)

La Californie vue de l’espace en janvier 2014

La Californie vue de l'espace en janvier 2014
Du marron à la place du vert, quasiment pas de neige sur la Sierra Nevada : la Californie a triste mine, le 18 janvier 2014, un an jour pour jour après le précédent cliché. Cliquez ici pour lire (en anglais) l’article que l’agence américaine consacre au phénomène. (Nasa)

Source : L’Obs, le 4 avril 2015.

P.S. Comme on l’a répété plusieurs fois, la quasi-totalité des climatologues spécialisées (voir ce billet par exemple, avec 97 % d’accord) sont d’accord et nous demandent d’agir pour ne pas prendre le risque de bouleverser le climat.

Et comme le rappelle ici Jancovici, ou bien on croit un consensus scientifique (qui n’est jamais unanime à 100 %, ni une preuve absolue de vérité, le consensus pouvant toujours, un jour, à base de travaux sérieux, évoluer – mais pour 1 Galilée, il y a eu 1000 anti-Galilée expliquant après lui que la Terre était bien plate…) parce qu’on n’a pas d’autre choix, ou bien on perdra alors toute capacité d’aboutir à une certitude (certes relative et temporaire) permettant d’agir.

Autrement dit, si le grand public décide de suivre les opinions ultra-minoritaires, il ne pourra plus décider, car il y aura toujours plein d’opinions ultra-minoritaires et leurs contraires simultanément. Ces opinions, importantes, doivent rentrer dans une méthode scientifique, à savoir être publiées dans des revues à comité de lecture, et se battre pour démontrer leur justesse et convaincre leurs pairs, aboutissant éventuellement à une modification du consensus…

Bref, comme il y a un clair consensus (d’autant que, sachant que le CO2 est un important gaz à effet de serre, et qu’il y en a de plus en plus dans l’atmosphère et pas qu’un peu, le fait que ça se réchauffe est tout sauf surprenant…), je ferme les commentaires pour éviter le trollage…

97 % des climatologues spécialisés ne doutent donc pas du réchauffement…

L’étude source Duran 2009 est téléchargeable ici.

Elle se complète avec celle-ci Anderegg 2010. Une autre a été publiée en 2013 : Cook et al. : ”Entre 1991 et 2011, sur près de 4.000 articles (3.896 exactement) exprimant une opinion à ce sujet et écrits dans des revues scientifiques à comité de lecture par des chercheurs du même domaine (« évaluation par les pairs ») par plus de 10.000 scientifiques (10.188), 97,1% entérinent la thèse de l’origine humaine du changement climatique”.

Pour comprendre la stratégie classique à l’oeuvre ici (semer le doute pour paralyser la prise de décision) déjà utilisée sur le tabac ou la couche d’ozone, je vous renvoi sur ce billet indispensable :

[Livre exceptionnel] Les marchands de doute, de Naomi Oreskes et Erick Conway

P.S. Comme on l’a répété plusieurs fois, la quasi-totalité des climatologues spécialisées (voir ce billet par exemple, avec 97 % d’accord) sont d’accord et nous demandent d’agir pour ne pas prendre le risque de bouleverser le climat.

Et comme le rappelle ici Jancovici, ou bien on croit un consensus scientifique (qui n’est jamais unanime à 100 %, ni une preuve absolue de vérité, le consensus pouvant toujours, un jour, à base de travaux sérieux, évoluer – mais pour 1 Galilée, il y a eu 1000 anti-Galilée expliquant après lui que la Terre était bien plate…) parce qu’on n’a pas d’autre choix, ou bien on perdra alors toute capacité d’aboutir à une certitude (certes relative et temporaire) permettant d’agir.

Autrement dit, si le grand public décide de suivre les opinions ultra-minoritaires, il ne pourra plus décider, car il y aura toujours plein d’opinions ultra-minoritaires et leurs contraires simultanément. Ces opinions, importantes, doivent rentrer dans une méthode scientifique, à savoir être publiées dans des revues à comité de lecture, et se battre pour démontrer leur justesse et convaincre leurs pairs, aboutissant éventuellement à une modification du consensus…

Bref, comme il y a un clair consensus (d’autant que, sachant que le CO2 est un important gaz à effet de serre, et qu’il y en a de plus en plus dans l’atmosphère et pas qu’un peu, le fait que ça se réchauffe est tout sauf surprenant…), je ferme les commentaires pour éviter le trollage…

97 % des climatologues spécialisés ne doutent donc pas du réchauffement…

L’étude source Duran 2009 est téléchargeable ici.

Elle se complète avec celle-ci Anderegg 2010. Une autre a été publiée en 2013 : Cook et al. : ”Entre 1991 et 2011, sur près de 4.000 articles (3.896 exactement) exprimant une opinion à ce sujet et écrits dans des revues scientifiques à comité de lecture par des chercheurs du même domaine (« évaluation par les pairs ») par plus de 10.000 scientifiques (10.188), 97,1% entérinent la thèse de l’origine humaine du changement climatique”.

Pour comprendre la stratégie classique à l’oeuvre ici (semer le doute pour paralyser la prise de décision) déjà utilisée sur le tabac ou la couche d’ozone, je vous renvoi sur ce billet indispensable :

[Livre exceptionnel] Les marchands de doute, de Naomi Oreskes et Erick Conway

Source: http://www.les-crises.fr/exemples-de-problemes-climatiques-actuels/