OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Les emplois au pifomètre du gaz de schiste http://owni.fr/2012/10/08/les-emplois-au-pifometre-du-gaz-de-schiste/ http://owni.fr/2012/10/08/les-emplois-au-pifometre-du-gaz-de-schiste/#comments Mon, 08 Oct 2012 14:02:09 +0000 Sylvain Lapoix http://owni.fr/?p=121895

Voici deux mois qu’industriels et éditorialistes défendent le gaz de schiste à l’aide de promesses d’emplois complètement fantaisistes. Le “gisement de 100 000 emplois” que représenterait l’exploitation de ces hydrocarbures profonds est le deuxième argument favori (après l’indépendance énergétique) pour balayer d’un revers de calculatrice les risques environnementaux et sanitaires des méthodes brutales d’extraction qu’elle nécessite (la fracturation hydraulique). Mais si les réserves ont été évaluées à l’aide de méthodes et de données géologiques professionnelles, le potentiel social de cette industrie l’a été avec un outil mathématique de niveau CM2.

Gaz de schiste : révolution énergétique, menace écologique

Gaz de schiste : révolution énergétique, menace écologique

Après avoir révolutionné le marché énergétique américain, les gaz de schistes sont désormais convoités à travers le ...

Prédire l’avenir avec une règle de trois

L’évaluation la plus populaire sous nos climats éditoriaux est l’œuvre d’un rapport livré par la société Sia conseil. Cabinet de consulting en management, Sia compte parmi ses plus gros clients GDF Suez, partenaire de Schuepbach LLC sur deux permis d’exploration pour les gaz de schiste en France et leader du secteur. Son logo apparaît par ailleurs discrètement en pied de page de Gas in focus, “Observatoire du gaz naturel” autoproclamé, coédité par GRT Gaz, filiale à 75% du géant français des bonbonnes de propane.

Pour arriver à un bénéfice de 100 000 emplois directs et indirects grâce aux gaz de schiste, la société part d’un calcul savant portant sur les trois principaux permis du Sud de la France :

Le nombre de forages par concession ne peut pas excéder 30 forages de puits par an. Pour mémoire, aux Etats-Unis, certaines zones comportent plusieurs milliers de puits. Après avoir déterminé le profil de production d’un puits type, nous avons ensuite appliqué les niveaux d’emploi observés aux Etats-Unis sur les deux périodes de vie d’un puits : sur les trois premières années (forage), 13 personnes par puits sont nécessaires ; sur les vingt années suivantes (exploitation), il suffit de 0,18 personnes par puits. Les emplois indirects et induits représentent 1,52 emploi par puits. Nous avons retraité cette moyenne américaine des horaires de travail en France (2 080 heures annuelles aux Etats-Unis contre 1 650 en France, soit un facteur de 1,26).

Conclusion : la totalité des trois concessions représenterait un potentiel de 10 000 emplois à l’horizon 2010. Jusque là, l’analyse est fine et, sinon incontestable, efficacement argumentée.

Quand soudain, peut-être usés par la quantité de statistiques sociales brassées pour savoir combien de foreurs iraient percer le plateau du Larzac, les experts de Sia rangent leurs tableaux Excel et dégainent leur Casio :

Généralisées à la totalité des ressources françaises, ces exploitations créeraient 100 000 emplois d’ici 2020 dont 40 000 emplois industriels directs, dans une hypothèse maintenant les conditions d’exploitation retenues.

Le calcul n’est pas précisé mais nous avons pu reconstituer la formule ayant permis cette conclusion :

10% x Gaz de schiste en France = 10 000 emplois
Gaz de schiste en France = 10 000 emplois x 1/10% = 100 000 emplois

En d’autres termes, les experts de Sia conseil (jugeant que toutes les extractions de gaz de schiste sont les mêmes) se targuent de prédire l’avenir avec une règle de trois.

Fact checking

Si elle peut sembler “de bon sens”, cette idée selon laquelle “un puits est un puits” est techniquement fausse : piégé dans les roches de schiste, le gaz du même nom peut se trouver en fines couches entre 2 000 et 3 500 mètres de profondeur selon les bassins. Difficile d’imaginer qu’avec plusieurs centaines de mètres de différence, il faille autant de temps et de personnel pour forer à ces différents niveaux, selon qu’on soit en Languedoc ou en Lorraine. Et pour cause.

L’argument selon lequel les gisements seraient tous pareils sur le plan de l’emploi ne survit pas longtemps à l’analyse de l’exploitation effective des gaz de schiste aux Etats-Unis. Si la règle de trois employée par Sia conseil était juste et puisqu’elle se base sur les emplois nécessaires pour exploiter les ressources, le nombre d’emplois créés devrait être proportionnel à la production de chaque Etat.

En croisant les chiffres de production de l’Agence d’information sur l’énergie américaine et les calculs d’emplois par Etat de l’institut IHS, il apparaît clairement que les deux chiffres sont totalement décorrélés : avec deux fois moins de production, la Pennsylvanie revendiquait en 2010 près de deux fois plus d’emplois que l’Arkansas. Les deux Etats affichent cependant un bénéfice social combiné inférieur au Colorado… qui a extrait mille fois moins de gaz de schiste qu’eux en 2010 !

Autrement dit, la règle de trois s’avère un outil plutôt difficile à appliquer à une industrie dépendante d’une somme de facteurs aussi large que l’énergie.

Cela n’a cependant pas empêché cette estimation de se répandre comme une traînée de poudre, ni d’autres du même calibre mathématique. Le groupement patronal britannique Institute of Directors a ainsi fait sensation le 21 septembre en annonçant un potentiel de 35 000 emplois dans l’exploration-production des gaz de schiste. Le rapport Britain’s shale gas potential sur lequel repose ce coup de com’ expose cependant clairement sa méthode pour arriver à ce chiffre à partir d’une estimation d’une hausse de 8 % de la production grâce à ces hydrocarbures :

L’industrie gazière et pétrolière britannique assure directement et indirectement l’emploi de 440 000 personnes. En supposant que l’emploi soit directement proportionnel à la production, alors une hausse de 8 % de la production de 2011 générerait un gain de 35 000 emplois, aidant à contrecarrer les pertes liées au déclin de la production conventionnelle de pétrole et de gaz au Royaume-Uni.

Ce postulat du “tous pareils” est également à l’origine de deux estimations du think tank Iref Europe. L’auteur de l’article, qui présente un potentiel de 42 000 à 62 000 emplois, a cependant l’honnêteté de reconnaître “les limitations statistiques” de la règle de trois.

Promesses

Avant la mise en exploitation des grands gisements du Nord-Est et du Sud des Etats-Unis, des promesses d’emplois toutes aussi alléchantes avaient été formulées par les industriels. En mai 2011, un rapport était repris par le quotidien Patriot News estimant à 48 000 emplois le nombre d’embauches réalisées en 2010 grâce au développement des gaz de schiste en Pennsylvanie. Signé par le département Travail et Industrie de l’Etat, le document semblait au dessous de tout soupçon.

Le mirage social du pétrole guyanais

Le mirage social du pétrole guyanais

Défendue par les élus locaux et la compagnie Shell à coup de chantage à l'emploi, l'extraction de pétrole au large de la ...

A ceci prêt que le terme d’embauche n’est pas synonyme de “création d’emploi“, une nuance relevée par l’institut Keystone, dans le même rapport ! Les “embauches” remplacent en effet parfois des départs en retraite, des licenciements ou des démissions, sans augmenter le nombre total d’emplois pourvus dans la zone. Le bénéfice “réel” pour l’emploi serait en fait de 10 000 personnes sur trois ans (2008 à 2010), ce qui pèse pour moins de 10% de la hausse de l’emploi industriel dans l’Etat, selon la même source.

Avec plus de 24 000 emplois directs au 2e trimestre 2012 dans les industries extractives, la France dispose déjà de professionnels dans les différents corps de métier nécessaires au développement des gaz de schiste. Comme pour la Guyane, de nombreuses opérations de prospection sismique ou de forage mobilisent pendant un temps limité des équipes de spécialistes qui repartent aussitôt le travail fini avec leur coûteux matériel, sans créer d’autre richesse sur le territoire que celle liée à leurs besoins quotidiens.

De quoi sauver une filière, peut-être. Mais pas de quoi s’attendre à un autre boom que celui qui fait trembler le sous-sol lors de la fracturation hydraulique.


Photo par Arimoore [CC-by-nc-sa] via Flickr

]]>
http://owni.fr/2012/10/08/les-emplois-au-pifometre-du-gaz-de-schiste/feed/ 23
Mélenchon extrapole des emplois http://owni.fr/2012/04/17/melenchon-extrapole-des-emplois/ http://owni.fr/2012/04/17/melenchon-extrapole-des-emplois/#comments Tue, 17 Apr 2012 17:37:53 +0000 Marie Coussin http://owni.fr/?p=106554 OWNI-i>Télé de crédibilité des six principaux candidats à la présidentielle, Marine Le Pen et Nicolas Sarkozy tiennent la dernière place, dans une stricte égalité.]]>

L’égalité est visuellement parfaite dans les dernières places du classement quotidien du Véritomètre, permettant de vérifier l’exactitude des déclarations chiffrées ou chiffrables des six principaux candidats à la présidentielle. Marine Le Pen et Nicolas Sarkozy affichent 44,4 % de crédibilité. François Bayrou n’est pas loin de les rejoindre, avec 44,8 %, tandis que Jean-Luc Mélenchon se maintient à 63,3 %, devant Eva Joly (60,6 %) et François Hollande (54,3 %).

Durant ces dernières 24 heures, l’équipe du Véritomètre a vérifié 49 citations chiffrées des candidats à l’élection présidentielle. Résumé des quelques faits qui ont retenu notre attention.

Jean-Luc Mélenchon prend des heures pour des emplois

Lors de son discours de Lille le 27 mars dernier, Jean-Luc Mélenchon avait chiffré les conséquences d’une des lois phares du quinquennat de Nicolas Sarkozy : la loi en faveur du travail, de l’emploi et du pouvoir d’achat (Tepa), sur la défiscalisation des heures supplémentaires.

400 000 emplois, voilà ce qu’ils vous ont pris en allégeant le prix des heures supplémentaires et en les défiscalisant.

Aucun document officiel ne chiffre la perte d’emplois liée à la désfiscalisation des heures supplémentaires.
Les conséquences sur l’emploi sont même très partagées : le rapport au Sénat sur l’économie française et les finances publiques à l’horizon 2013 estime ainsi que “l’impact sur l’emploi de la loi Tepa est ambigu, car il est la somme de deux effets” ; l’un positif sur l’emploi (baisse marginale du coût du travail), l’autre négatif (incitation à allonger la durée du travail).
Le seul chiffrage qui permette de comprendre d’où vient peut-être le raisonnement de Jean-Luc Mélenchon est celui tenu par Arnaud Montebourg sur Europe 1 en février 2012 : “En 2008, il y a eu 727 millions d’heures supplémentaires, c’est l’équivalent de 466 000 emplois équivalents temps-plein.”.

En 2011 le nombre d’heures supplémentaires s’est établi à 735 millions, soit l’équivalent de 457 373 emplois. Quand bien même on prendrait en compte ce mode de calcul, Jean-Luc Mélenchon se tromperait de 12,5 %. Mais surtout, avec cette formulation “voilà ce qu’ils vous ont pris, le candidat du Front de gauche établit une équivalence directe entre heures supplémentaires et création d’emplois, ce qui n’est pas n’a jamais été confirmé par les comptes officiels.

Nicolas Sarkozy s’envole sur le photovoltaïque

Dans notre chronique quotidienne du Véritomètre du 16 avril, nous vous expliquions comment Nicolas Sarkozy évaluait le chantier de l’éolien en France : en prenant une donnée correspondant à l’investissement de l’ensemble des pays européens pour celui de la France. L’éolien n’est pas la seule énergie renouvelable sur laquelle le président-candidat brasse de l’air. Sur le photovoltaïque, ses données sont également très étonnantes (et incorrectes).

Lors de sa conférence de presse de présentation de programme, le 5 avril dernier, il exprimait ainsi :

Depuis que je suis Président de la République, les énergies renouvelables ont été multipliées (…) par 5 pour le photovoltaïque.

Il n’existe pas une mais plusieurs façons de comptabiliser ce que le président-candidat nomme “le photovoltaïque” : le nombre d’installations de panneaux, la puissance du parc photovoltaïque français ou encore sa production électrique. Consciencieusement, nous avons donc vérifié ces trois pistes. Et aucune ne s’est révélée ne serait-ce qu’approchante de l’estimation fournie par Nicolas Sarkozy.

Ainsi, le nombre d’installations photovoltaïques est passé, d’après le tableau de bord éolien-photovoltaïque du ministère du développement durable, de 24 583 en 2008 (aucune donnée plus ancienne) à 242 295 fin 2011, soit une multiplication par 9,86.

Si l’on considère la puissance du parc photovoltaïque français, celle-ci a été multipliée par 40, en passant de 70 MW en 2007 à 2 802 MW fin 2011, selon les données du Syndicat des énergies renouvelables et du tableau de bord éolien-photovoltaïque pour le quatrième trimestre 2011.

Enfin, d’après les données du ministère de l’écologie et du développement durable, la production d’électricité d’origine photovoltaïque est passée de 0,039 TWh en 2007 à 0,57 TWh en 2010 (dernières données disponibles), soit une multiplication par 14,6. Quelle que soit la donnée retenue, les propos de Nicolas Sarkozy sont donc nettement incorrects.

Marine Le Pen prolonge Nicolas Sarkozy

La candidate du Front national faisait partie des invités de la première soirée Des paroles et des actes sur France 2 le 11 avril dernier. Elle s’est livrée à un chiffrage de la carrière politique de son adversaire UMP :

Ça fait 10 ans qu’il [Nicolas Sarkozy] est en charge de l’immigration.

Dans sa volonté de démonter le bilan de Nicolas Sarkozy, Marine Le Pen lui a rajouté des années d’exercice. En effet, le site Internet du ministère de l’Intérieur indique que Nicolas Sarkozy a occupé le poste de ministre de l’Intérieur à deux reprises, entre mai 2002 et mars 2004 puis entre juin 2005 et mars 2007, soit sur un total de 3 ans et demi. Par ailleurs, Nicolas Sarkozy a été élu à la Présidence de la République le 6 mai 2007, comme le confirme le site de l’Élysée. Au total, Nicolas Sarkozy a donc été “en charge de l’immigration” sur une durée de 8 ans et 7 mois. Et non pendant dix ans.


Les vérifications des interventions sont réalisées par l’équipe du Véritomètre : Sylvain Lapoix, Nicolas Patte, Pierre Leibovici, Grégoire Normand et Marie Coussin.
Retrouvez toutes nos vérifications sur le Véritomètre et nos articles et chroniques relatifs sur OWNI
Illustrations par l’équipe design d’Owni /-)

]]>
http://owni.fr/2012/04/17/melenchon-extrapole-des-emplois/feed/ 2
Le consulat de Total au Canada http://owni.fr/2012/03/01/le-consulat-de-total-au-canada/ http://owni.fr/2012/03/01/le-consulat-de-total-au-canada/#comments Thu, 01 Mar 2012 18:50:25 +0000 Sylvain Lapoix http://owni.fr/?p=100299

Inauguré le 5 août 2010 dans la province d’Alberta, égarée dans les grands espaces canadiens, le consulat français de Calgary a hérité d’un doux surnom : “le consulat Total”. Seule représentation de Paris créée depuis 2009 en dehors des Etats nouvellement indépendants, ce bureau dessert un territoire où les Français sont encore rares mais dont le géant pétrolier convoite les ressources en hydrocarbures : dans la région de l’Athabasca, Total a obtenu des autorisations pour exploiter les sables bitumineux, gisements à l’exploitation ultra polluante d’hydrocarbures lourds. Une perspective dont le ministère des Affaires étrangères français a tenu grand compte au moment d’installer cette représentation exceptionnelle.

Un réseau consulaire “à l’os”

Au regard de la communauté française au Canada, la création d’une antenne à Calgary se justifiait peu : là où l’on compte plus de 10 000 Français à Vancouver et Québec et 50 000 à Montréal, la capitale de l’Alberta ne réunit que 1 650 expatriés. Trois fois moins que Vancouver qui disposait déjà d’un consulat général, offrant tous les services nécessaires aux ressortissants.

Au Quai d’Orsay, certains agents se sont étonnés de la création d’un consulat à Calgary. D’autant plus que, selon une expression fort peu diplomatique du rapport sur l’action extérieure de l’État dans le cadre du projet de loi de Finances 2012, le réseau consulaire mis à la diète par l’application de la Révision générale des politiques publiques (RGPP) est désormais “à l’os” du fait des réductions d’effectifs. Le sénateur socialiste Richard Yung pousse même le constat un peu plus loin :

Nous ne sommes même plus à l’os : ça commence à craquer ! Les effectifs ont été tellement réduits que les consulats ne reçoivent désormais plus que sur rendez-vous et que la moindre tâche administrative de base prend trois semaines. La question que nous posons avec ce rapport, c’est de savoir s’il faut maintenir un tissu aussi dense : à Los Angeles, par exemple, il y a un consulat d’Allemagne, un pour l’Italie, un autre pour la France… Alors qu’ils passent leur temps à délivrer des visas Schengen. Tout cela pourrait être fait par un consulat Schengen unique.

A Calgary, le problème ne se pose pas : si la Grande-Bretagne projette d’y installer une représentation en 2012, la France est pour l’instant le seul État européen à disposer d’un bureau. Total a, en cela, précédé son concurrent britannique BP dans le lobbying auprès de son pays d’origine.

“Consulat d’influence”

Installée depuis 2008 à Calgary, la filiale Total E&P Canada a été, selon un source diplomatique, fort déçue de la décision de Paris d’en faire un consulat d’influence, et non un consulat général. Ce statut ajoute à la présence diplomatique toute la panoplie des services qui facilitent la vie des expats (visas, papiers administratifs…).

Au vu du potentiel des sables bitumineux d’Athabasca, et malgré l’impact écologique désastreux de leur exploitation dénoncé par de nombreuses ONG, le groupe français a mis de gros moyens pour développer son ancrage canadien. Perspectives d’investissements : 20 milliards de dollars canadiens et 1 500 salariés sur place à l’horizon 2020 pour diversifier les sources d’approvisionnement en pétrole brut. Une somme qui ne comprend pas que la location des locaux et le paiement des salaires.

Gymnase Total au lycée français

En plus d’une bourse à l’école d’ingénierie de Calgary, la société a pris à sa charge 1,2 millions sur les 7 millions de dollars canadiens qu’a coûté l’extension du lycée français de Calgary, Louis Pasteur, dont le gymnase porte désormais le nom de “Gymnase Total E&P Canada”. Elle finance aussi à hauteur de 200 000 dollars canadiens un programme de la faculté de sciences de l’université de Calgary. Les dirigeants du groupe auraient activement plaidé pour l’implantation du consulat, sujet abordé selon un habitué du Quai d’Orsay, “à l’occasion des visites que font les dirigeants des multinationales françaises au ministère des Affaires étrangères”.

Chantage au pétrole sale

Chantage au pétrole sale

Gros exportateur de carburant issu des sables bitumineux, le Canada est visé par une directive sur la qualité de l'énergie ...

Mais l’intérêt stratégique et politique n’est pas que celui de la firme pétrolière, nous assure un membre du corps diplomatique proche du dossier. Calgary est la ville d’origine de l’actuel Premier ministre du Canada, Stephen Harper, leader du parti conservateur diplômé en économie de l’université de la ville. Une ville qui a aussi donné naissance à l’équivalent canadien de “l’école de Chicago”, qui défend dans la branche conservatrice la dérégulation et la libéralisation de la plupart des secteurs de l’économie, dont le secteur de l’énergie.

C’est sous l’impulsion de cette mouvance que l’Alberta a facilité l’accès à ses ressources en hydrocarbures aux sociétés pétrolières étrangères. De son côté, le Premier ministre a été l’objet d’accusations de lobbying en faveur des gaz de schiste et sables bitumineux. Révélés par la branche britannique des Amis de la Terre, plusieurs échanges ont montré l’acharnement des autorités canadiennes pour torpiller la directive européenne sur la qualité des carburants, qui menaçait les exportations de pétrole d’Alberta vers le Vieux Continent.

Comme OWNI l’a rappelé dans un précédent article, Bercy avait poussé en faveur du gouvernement canadien dans ce combat, contre l’avis du ministère de l’Écologie. Et ce à la demande de Total. En installant une cabane au Canada pour plaider la cause du pétrolier français, le Quai d’Orsay offre la preuve que le leader du Cac 40 a plus d’un ministère dans son sac.


Photos sous licence Creative Commons par buliver et splorp/Flickr

]]>
http://owni.fr/2012/03/01/le-consulat-de-total-au-canada/feed/ 5
Les data en forme http://owni.fr/2012/02/06/les-data-en-forme-episode-19/ http://owni.fr/2012/02/06/les-data-en-forme-episode-19/#comments Mon, 06 Feb 2012 18:43:56 +0000 Paule d'Atha http://owni.fr/?p=97546 En guise d’amuse-gueule, un petit article [EN] sur le design informationnel, où l’on voit bien – à travers le livre Graphic Methods for Presenting Facts de 1917, notamment – que nos infographies d’aujourd’hui n’ont rien de révolutionnaire. On en profite ici pour dire bonjour à Karen, grande veilleuse parmi les veilleurs, pour qui la plupart des liens de journalisme graphique que nous vous fournissons chaque semaine ne sont pas inconnus.

DataWOW

Alors que nous sommes en train de finaliser pour la présidentielle française un très beau joujou dont nous sommes très fiers et que nous avons hâte de vous montrer, nous ne pouvons pas manquer l’occasion cette semaine de faire honneur à deux applications de très haut niveau. Si vous rêviez de vous promener aux confins de la “big data” sans vraiment oser rentrer dedans, en voici deux magnifiques illustrations.

Les plates-formes eXplorer de la société suédoise NComVA manipulent de très gros volumes de données pour créer de remarquables visualisations statistiques. Par exemple, Europe Explorer [EN] permet de naviguer dans un large dataset (téléchargeable) d’informations économiques et démographiques sur les pays européens et de personnaliser (c’est le point fort) l’affichage de ces données – telles que la croissance du PIB, le taux de fertilité, l’espérance de vie à la naissance, ou encore la population par tranches d’âge.

Total Annual Building Energy Consumption for New York City [EN] est une application un poil titanesque réalisée par l’équipe du groupe de recherche du Professeur Viraj Modi, spécialiste de sources d’énergie et de mécanique des fluides à l’université de Columbia. Comme son nom l’indique, cette application interactive veut pouvoir fournir une estimation de la consommation d’énergie de chaque bâtiment new-yorkais à partir d’une étude ad hoc [EN] et d’une méthodologie assez épurée [EN]. Rien qu’imaginer le temps qu’il a fallu pour rassembler les données et les harmoniser… donne un peu mal à la tête. Nous avons là, typiquement, un travail qui pourrait être le reflet idéal d’un monde parfaitement “open data”, dans lequel ce genre d’information serait aisément à la portée de tous.

Datacheap

Une fois n’est pas coutume s’agissant de la campagne présidentielle étasunienne, les éléments incontournables de notre veille cette semaine sont moyennement excitants. Petite déception, vu que le New York Times et le Washington Post nous ont habitués à beaucoup mieux. Ou alors on devient plus exigeants avec le temps, possible aussi.

Pour accompagner un (bon) article d’analyse politique [EN] du discours de l’état de l’Union, le NYT s’est donc fendu d’une infographie [EN] comparant la fréquence d’usage des mots du Président Obama avec ceux prononcés par ses adversaires républicains putatifs. La mise en forme en histogramme est ici assez originale dans le contexte de l’analyse lexicale – pour nous être également prêtés au jeu, on vous confirme que le rendu d’un tel corpus est loin d’être évident à modéliser. En revanche pour le reste, deux écueils majeurs (l’échelle du temps et l’échelle de numération) rendent particulièrement décevante cette expérience : primo, Obama est scruté sur ses quatre adresses à la Nation (2009-2012) tandis que les candidats républicains sont étudiés sur les neufs derniers mois au cours de “plusieurs entretiens”. Secundo, le nombre d’occurrences observées ne dépasse 7 qu’une seule fois – la plupart du temps, on compare des fréquences situées entre 1 et 5 fois ; rendant le diagnostic particulièrement biaisé au vu de la taille du corpus étudié.

La deuxième “déception” de la semaine (les guillemets parce qu’il nous reste un peu d’humilité quand même) provient de la visualisation en treemap [EN] qui accompagne un papier économique plutôt technique [EN, paywall] qui déchiffre les “déficits” Obama et qui établit une comparaison avec ceux provoqués par Bush fils. Le format treemap[EN] est toujours performant pour comparer des budgets (on se souvient de celui, brillant, de Jean Abbiateci) mais on attend – forcément – du WashPo autre chose qu’une pauvre image compressée, des cubes à géométrie variable et des projections jusqu’à 2017.

Datacoq

D’autant que l’économie est un sacré terrain de jeu pour faire de l’infographie et de la bonne datavisualisation. Pour preuve, le blog “Echosdataviz” de Frédéric Vuillod, qui a pondu une vidéo très simple et très didactique à l’occasion de l’introduction en bourse de Facebook. Deux regrets : 18 secondes de pub en pré-roll (désolé) et une vidéo non-embeddable. On va dire que c’est pour faire du business à la française.

Dataworld

Et puisqu’on parle de business à la française, difficile de ne pas évoquer cette semaine le bras armé de la moralisation du capitalisme qui se réunit chaque année à Davos en Suisse. Le célèbre Forum Economique Mondial nous gratifie d’une jolie vidéo – limite décadente – pour présenter le rapport 2012 des “risques globaux” qui peuvent transformer notre planète en véritable chambre de torture si les grands de ce monde ne font rien pour les détruire à la racine. Notre “risque” préféré est sans aucun doute “les graines de la contre-utopie” (“the Seeds of Dystopia”) – symbolisé par des drapeaux, des poings levés et un masque d’Anonymous – et leur “côté sombre de la connectivité” (“the Dark Side of Connectivity”) et son logotype de port USB, véritable empêcheur d’épanouissement humain. Passée la propagande, la vidéo [EN] est objectivement bien foutue, donc pourquoi pas.

Cliquer ici pour voir la vidéo.

Databowl

Heureusement, pour contrer les anarchistes et les hackers, il reste le Super Bowl. On n’insultera ici ni les amateurs ni les détracteurs de ce spectacle en omettant volontiers de donner le résultat de la finale du championnat de football américain, qui vient de se dérouler. A ceux qui douteraient qu’il s’agit bien d’un sport, les laboratoires de Brandwatch ont pondu une application de réputation sociale [en] (basée sur Twitter) des annonceurs figurant dans la liste très courue de ceux qui peuvent se payer 30 secondes de pub pendant cette messe annuelle. C’est marrant, ça parle de sentiment, et donc presque d’amour.

Et en parlant d’amour, on se quitte sur la nécessaire vidéo de la semaine de Stephen Malinowski. Paix et gloire sur vos data !

Cliquer ici pour voir la vidéo.


Retrouvez les précédents épisodes des Data en forme !

]]>
http://owni.fr/2012/02/06/les-data-en-forme-episode-19/feed/ 2
L’Élysée couvre les gaz de schiste http://owni.fr/2011/10/04/sarkozy-mou-sur-le-schiste-permis-sarkozy-gasland-total/ http://owni.fr/2011/10/04/sarkozy-mou-sur-le-schiste-permis-sarkozy-gasland-total/#comments Tue, 04 Oct 2011 11:26:55 +0000 Sylvain Lapoix http://owni.fr/?p=82101

En décidant d’abroger seulement trois permis d’exploration d’hydrocarbures dans le Sud de la France, Nicolas Sarkozy est loin de fermer la porte aux gaz de schiste. Étalées sur près de 10 000 km² autour des Cévennes, les concessions de Montélimar, Nant et Villeneuve-de-Berg ne sont que trois des dizaines de permis d’exploration accordés par le ministère de l’Écologie dans toute la France ces dernières années. Grâce auxquels des compagnies pétrolières ou gazières pourront continuer de fouiller le sous-sol par la technique controversée de fracturation hydraulique.

Les permis de gaz de schiste n’existent pas

L’annonce a pourtant produit l’effet désiré sur le plan médiatique. À la faveur d’articles titrés « le gouvernement abroge les permis de gaz de schiste », les militants impliqués dans le débat ont poussé sur les réseaux sociaux un long ouf de soulagement toute la journée du lundi 3 octobre. Un peu rapide.

Car en réalité 61 autres permis d’exploration gaziers et pétroliers en vigueur en France, ouvrent la voie aux gaz de schiste et autres hydrocarbures non conventionnels. Au plan du droit, ils s’intitulent, formellement, « permis exclusifs de recherche de mines d’hydrocarbures liquides ou gazeux ». Autrement dit, des autorisations d’aller rechercher tout combustible volatile ou poisseux, à quelques profondeurs et dans quelque état que ce soit, depuis la classique poche de gaz jusqu’aux forages destructeurs à des kilomètres de profondeur.

Les trois permis abrogés (sur 64 actuellement en cours) / Carte : Marion Boucharlat pour OWNI.fr.

Quand elles déposent leur volumineux dossier au ministère pour obtenir un permis, les compagnies pétrolières et gazières exposent par le menu les opérations qu’elles souhaitent mener sur place : profondeur des forages, méthode d’extraction, emprise au sol des plateformes, etc. Un document tamponné par la direction générale de l’énergie et du climat. Seule cette note d’intention archivée dans un tiroir de cette administration énonce clairement si oui ou non la société compte aller chercher des gaz de schiste.

Or, pour déterminer le bienfondé des permis, la loi votée le 13 juillet ne prévoit de vérifications entre la réalité des explorations et le contenu de cette note d’intention qu’a posteriori. Il suffit pour le moment à chaque société, de jurer, la main sur un rapport, qu’elle ne pratiquera pas de fracturation hydraulique.

Couper l’herbe sous le pied de la gauche…

Or le double discours est déjà pour certaines sociétés une spécialité. Telle Toréador, administrée par le frère de Julien Balkany elle avait essayé en mars dernier de décourager une manifestation prévue en Seine-et-Marne contre l’exploration des huiles de schiste en diffusant auprès des habitants des tracts assurant qu’il ne s’agissait là que d’exploration pétrolière « classique ». Une version dont OWNI avait révélé le peu de sérieux dans les documents transmis aux actionnaires de Toréador, prévoyant d’exploiter des couches profondes (le « thème liasique », couche géologique à plus de 2 000 mètres de profondeur où du gaz peut être emprisonné dans le schiste) et de « produire des réservoirs » dans le Bassin parisien. Une expression désignant dans l’industrie pétrogazière la première fracturation hydraulique sur un gisement.

Mais ces réalités techniques ne semblent guère intéresser le gouvernement. La tonitruante promenade dans les Cévennes que nous organise l’Élysée tombe tout juste l’avant-veille de l’examen à l’Assemblée nationale de la proposition de loi portée par la gauche et les écologistes pour pallier les insuffisances de la première « loi sur les gaz et huiles de schiste » adoptée à la mi-juillet. En déchirant trois bouts de papiers, le Président dégonfle par avance un débat qui aurait pu empoisonner ce début de campagne. Et retire aussi de la place publique un vrai débat qui n’a toujours pas eu lieu sur les choix énergétiques de la France. Quid des autres techniques et des autres réservoirs comme le offshore profond, les gaz de houille, les schistes bitumineux… Au final, le texte voté le 13 juillet ne définit en fait pas grand chose. Pas même en quoi consiste la fracturation hydraulique.

Des questions énergétiques en suspens

Pour éviter les risques liés à la fracturation hydraulique, il faudrait rentrer dans d’ennuyeux détails : parler des quantités d’eau utilisées, des produits chimiques injectés dans le sol, des gaz de houille et du pétrole de schiste… Donc, débattre politique industrielle, ce que l’État se garde bien de faire. L’article 4 de la loi sur les gaz et huiles de schiste votée le 13 juillet prévoit ainsi un « rapport sur l’évolution des techniques d’exploration et d’exploitation et la connaissance du sous-sol français, européen et international en matière d’hydrocarbures liquides ou gazeux ». Une façon de « ne pas fermer la porte » aux hydrocarbures de schiste, comme le promettait Eric Besson. Surtout à l’heure où la compagnie Elixir Petroleum publie un rapport dépeignant la verte Lorraine en petit Koweït plein de 164 milliards de barils de pétrole de schiste et 650 000 milliards de pieds cube de gaz de même extraction.

Laissant les écologistes et les militants s’empêtrer dans les explications techniques, le gouvernement joue la montre sur les hydrocarbures comme il l’a fait sur le nucléaire, promettant contrôles et commissions sans donner de perspective précise. Un temps qu’il ne souhaite pas prendre en ce temps de campagne présidentielle. Car un projet énergétique, ça ne s’invente pas en une balade dans les Cévennes.


Carte et illustrations : Marion Boucharlat pour OWNI.fr.

Retrouvez toute l’actualité du schiste sur notre site dédié.


Retrouvez le livret “Gaz de Schiste, histoire d’une révolution énergétique hors de prix” par Sylvain Lapoix dans Le DVD du documentaire Gasland (Arte Éditions)

]]>
http://owni.fr/2011/10/04/sarkozy-mou-sur-le-schiste-permis-sarkozy-gasland-total/feed/ 54
[Infographie] Des huiles de schiste à Washington http://owni.fr/2011/08/26/infographie-des-huiles-de-schiste-a-washington/ http://owni.fr/2011/08/26/infographie-des-huiles-de-schiste-a-washington/#comments Fri, 26 Aug 2011 09:42:17 +0000 Sylvain Lapoix http://owni.fr/?p=77006 Retrouvez l’infographie dans son intégralité en cliquant ici

À Washington, au département de l’Énergie, un nouveau sous-comité sur le gaz naturel se montre très favorable au gaz de schiste ; à contre-courant de plusieurs réseaux d’experts. Depuis peu, des scientifiques américains s’en inquiètent. Interrogée cette semaine par OWNI, la porte-parole du secrétaire à l’Energie, Tiffany Edwards, plaide en faveur de la complémentarité des points de vue :

Le sous-comité respecte un équilibre entre expérience et expertise et chaque membre est proprement qualifié quant à la connaissance pratique et technique. Certains ont jugé le panel trop favorable à l’industrie, d’autres trop pro-écologistes. Nous pensons avoir touché juste et que la diversité des points de vue ne peut que renforcer la qualité du résultat final.

Une explication contestable au regard de la composition de cette instance, chargée de se prononcer sur les gaz de schiste aux Etats-Unis. Car sur les sept experts réunis dans le sous-comité, six s’avèrent liés à l’industrie énergétique.

Et c’est le gouvernement lui-même qui a organisé le mélange des genres. Formé le 5 mai dernier par le secrétaire à l’Energie Steven Chu, sa mise en place répond aux demandes du programme pour la “sécurité énergétique” annoncé le 30 mars par Barack Obama.

Sous le vernis académique, les fiches de paie industrielles

Ce sous-comité aligne de prestigieuses références. Des professeurs éminents du MIT et Stanford, deux des plus grandes universités américaines, y sont assis aux côtés d’anciens pontes du ministère de l’énergie de l’administration Clinton ou de responsables d’ONG. Mais, leur CV respectif fait aussi apparaître des intérêts industriels bien compris et quelques grandes compagnies, toutes intéressées par les gaz de schistes :

Retrouvez l’infographie dans son intégralité en cliquant ici

Le propre directeur du sous-comité, le professeur du MIT John Deutch, aligne à lui seul des liens avec Schlumberger, leader mondial des services d’extraction pétrolière, et Cheniere Energy, spécialiste du gaz naturel liquéfié, unique état où les gaz de schiste sont actuellement transportables. Ne manquent à l’appel que les entreprises pétrolières elles-mêmes (malgré la présence d’un membre de la direction de leur principal lobby) ou bien le géant Halliburton, inventeur de la fracturation hydraulique que ce collège était réuni pour analyser. Et le résultat est à la hauteur du casting.

Rien de bien frais… à part des subventions

Plus que des pincettes, c’est avec de véritables queues de billard que le sous-comité manipule les modestes recommandations qu’il a soumis le 11 août :

Bien que le comité s’accorde avec l’opinion précédemment admise selon laquelle le risque de fuite de liquides de fracturations dans les fissures formées dans des réservoirs de schiste profond est éloigné aux vues de la distance qui les sépare des eaux potables, le rapport considère qu’il n’y a aucune raison d’ordre économique ou technique qui justifie de ne pas informer le public des produits chimiques utilisés dans la fracturation hydraulique.

Pas un mot sur les fissures dans les puits, rien sur les incidents constatés aux quatre coins du pays, immortalisés par Gasland et les Américains mobilisés. Pour toute réglementation, le comité propose des systèmes déjà en place (une base de données publique, un contrôle régulier de la qualité de l’air à proximité des sites d’extraction…), d’autres comités ad hoc (air, eau, recherche et développement des gaz de schiste… le tout garanti 100% “multi acteurs du secteur et indépendant”) et, cerise sur le derrick, des demandes d’aide à l’industrie :

Nous sommes conscients des difficultés financières rencontrées par l’Etat. Mais nous réalisons le rôle clef que peut jouer un modeste soutien à la recherche et développement autour des questions environnementales.

Des scientifiques s’élèvent contre la stratégie du “business as usual”

Face à l’initiative gouvernementale, un groupe de 22 universitaires de 13 Etats différents a adressé au secrétaire à l’Energie une lettre soulignant le “manque d’impartialité” dans la composition du comité d’évaluation scientifique, et les liens financiers et professionnels évidents qui donnent à ses membres un biais plus que favorable aux extracteurs de gaz de schiste.

Ces conflits d’intérêts laissent apparaître que le sous-comité a plus été conçu pour servir l’industrie aux frais du contribuable que pour apporter au Président Obama et au public des conseils crédibles.

Cosignataire de la lettre, le Dr Stanley Scobies, de l’université de Binghamton (Etat de New York) met pour sa part directement en cause la façon dont le comité a évalué les risques liés aux gaz de schiste :

Les membres du sous-comité étaient pour la plupart des managers de haut niveau arrivés là avec des positions sur les questions politiques et énergétiques bien rodées. Avant et pendant leurs consultations, ils ont reconnu avoir négligé les aspects relatifs aux risques pour la santé humaine des gaz non conventionnels. Tout ce qu’a fait le président du comité, John Deutch, a consisté à convoquer l’expertise d’un économiste de la santé, qui semble être un de ses copains.

Depuis quelques mois, la communauté scientifique américaine est sous un couvercle de plomb : après avoir poussé dehors un prof trop critique vis-à-vis de l’industrie des gaz de schiste, l’Université de Pittsburgh a publié un rapport favorable à cette nouvelle énergie qui persille la Pennsylvanie de puits, dont on a appris qu’il avait été financé à hauteur de 100 000 dollars par l’association des entreprises exploitant lesdits puits.. Stanley Scobies reconnaît la perversion du système universitaire quant à la nouvelle donne énergétique, où les grandes universités qui ne sont pas financées par les entreprises sont perfusées par les aides publiques favorables au développement de ces nouvelles ressources.

Reposant sur le même coffre d’or gris que la Pennsylvanie (le gisement de la Marcellus shale), l’Etat de New York a déclaré de fait un moratoire de trois ans pour regarder le problème dans les yeux avant d’autoriser les forages. Une option décentralisée que certains scientifiques appellent de leurs voeux, soulignant l’existence d’une National Academy of Science ou bien de comités d’évaluation des autorités de protection de l’environnement à même d’assurer l’indépendance des experts de ces futurs groupes… Une alternative qui nécessiterait de donner un coup de frein à la course aux gaz de schiste lancée à pleine vitesse du Texas au lac Michigan. Mais une alternative qui gênerait comme un caillou dans la chaussure la marche du “business as usual”.




Crédits photo: Flickr CC Pay No Mind, ehpien, Infographie Sylvain Lapoix & Marion Boucharlat

]]>
http://owni.fr/2011/08/26/infographie-des-huiles-de-schiste-a-washington/feed/ 31
Et si on construisait des parcs éoliens coopératifs ? http://owni.fr/2011/06/05/et-si-on-construisait-des-parcs-eoliens-cooperatifs/ http://owni.fr/2011/06/05/et-si-on-construisait-des-parcs-eoliens-cooperatifs/#comments Sun, 05 Jun 2011 12:42:49 +0000 Nolwenne Weiler (Bastamag) http://owni.fr/?p=60498 Au départ, il y a Michel Leclercq, prof de dessin retraité, et Éric et Laure Vaillant, maraîchers dans le pays de Redon (Bretagne et Pays-de-Loire). Écolos, tous les trois, ils veulent installer une éolienne sur leur terrain, pour produire de l’énergie propre. « Cela s’est avéré compliqué et très fastidieux », se souvient Michel. « Et si on montait plutôt un parc éolien collectif ? », se sont-ils demandé. Cela s’est avéré encore plus compliqué. Mais la plus-value, c’est une aventure collective hors normes. Avec un projet ancré dans un territoire, et maîtrisé de bout en bout par la population locale. « Nous avions envie de réunir les gens autour d’un projet constructif, raconte Michel. Nous voulions nous battre pour quelque chose, alors que nous sommes plutôt habitués à nous battre contre… »

La réflexion collective commence en septembre 2002. Avec une trentaine de personnes. « Dès l’accord de la mairie sur le principe d’un parc éolien coopératif, nous faisons une réunion publique » précise Michel. « Nous tenions à ce que les riverains pilotent le projet et aient leur mot à dire, qu’ils participent au financement. Pour qu’il y ait des revenus locaux, car l’impact principal d’un parc éolien est local. » Deux zones sont identifiées pour implanter des éoliennes : Sévérac-Guenrouët en Loire-Atlantique et Béganne, dans le Morbihan. Pour encadrer les récoltes de fonds et le financement des études de faisabilité, l’association Éoliennes en pays de Vilaine (EPV) est créée. Nous sommes en mai 2003.

Une entreprise pas comme les autres

Arrive ensuite le temps des études pour l’obtention de permis de construire. Une entreprise sous statut SARL, Site à Watts, voit le jour. « Cette structure était plus adaptée aux financements de ces études qu’une association, » précise Michel. Le capital de cette SARL pas comme les autres regroupe des adhérents d’EPV, mais aussi trois CIGALES (Clubs d’Investisseurs pour une Gestion Alternative et Locale de l’Épargne Solidaire) réunissant 60 personnes. Le Conseil général de Loire Atlantique est également entré au capital de la SARL par l’intermédiaire d’une Société d’économie mixte (SEM).

Parmi les « cigaliers », Christophe Baron, agriculteur. « Intégrer ce projet, c’était logique pour moi. J’ai un rapport fort à l’environnement », explique ce producteur de lait bio à Allaire, dans le Morbihan. Il y a trois ans, il a posé des panneaux photovoltaïques sur les toits de sa ferme. Et possède un « échangeur à plaques » dans sa salle de traite, qui lui permet de produire de l’eau chaude, en récupérant la chaleur du lait. Convaincu des projets collectifs, il fait partie d’un Groupement agricole d’exploitation en commun (Gaec) depuis toujours. « Je me suis rendu compte, avec EPV et Site à Watts, que c’est une chance d’avoir ce statut juridique, pour qui veut jouer collectif en agriculture. » Pour l’éolien, c’est largement plus compliqué ! Il faut inventer un statut pour un projet collectif jamais pratiqué jusque-là.

D’énormes difficultés administratives

Aux savoir techniques de cette filière industrielle qu’il faut acquérir, les passionnés d’EPV ont dû ajouter l’apprentissage des outils financiers et juridiques, pour d’encadrer leur projet hors normes. Et quand on leur demande de récapituler les difficultés de ce vaste chantier, qui dure depuis 8 ans, salariés et bénévoles répondent comme un seul homme : « elles sont administratives ! » Charlène Suire, embauchée en mai 2010 par EPV, vient du secteur éolien privé, où elle a travaillé pendant deux ans. « Dans le secteur éolien, tout est long, explique-t-elle. Les études de faisabilité, les négociations avec les propriétaires, l’obtention des permis de construire. Sans compter que les textes de loi évoluent constamment. Mais quand on veut en plus faire participer une centaine de particuliers à l’exploitation d’un parc éolien, les contraintes juridiques sont encore pire ! »

Le Grenelle II, qui impose un minimum de cinq éoliennes par parc, favorise la centralisation et les grands projets plus difficiles à faire accepter par le voisinage. Il n’est pas favorable à l’éolien coopératif. Rien à voir avec nos voisins allemands ou danois. Chez eux, l’éolien s’est lancé sur ce modèle coopératif. C’est le point de départ de la filière. Les outils financiers sont donc au point depuis longtemps. « Au Danemark, 20% du parc doit être en participation citoyenne, explique Pierre Jourdain, salarié de Site à Watts. Il y a une obligation légale. En Ontario, au Canada, il y a des tarifs de rachat pour entreprises préviées et pour projets citoyens. Chez nous, il y a un frein culturel évident. Les projets participatifs ne sont pas habituels en France, d’autant moins en production d’énergie, pour laquelle on a l’habitude de tout déléguer à EDF. » Cela permet pourtant une réflexion collective et une appropriation par les citoyens des questions énergétiques. Sans être expert pour autant.

Une troisième structure pour la gestion des parcs

Les investisseurs (privés et publics) et riverains ont insisté pour financer un parc de leur territoire. Une troisième structure a dû être montée, pour la construction et l’exploitation des éoliennes. « La création de deux Sociétés par actions simplifiée (SAS) permet de relocaliser les projets. Cela permet en plus à Site à watts de garder sa compétence en développement de parcs éoliens », note Pierre Jourdain. A Béganne, la SAS s’appellera Bégawatts⋅

Pour que tout cela voit le jour, il a fallu une motivation quotidienne ! Aux conseils de l’Union régionale des sociétés coopératives de production (SCOP) se sont ajoutés une persévérance quasi sans faille de l’équipe et un vrai soutien de la population. Qui a toujours été tenue informée. Des bonnes et moins bonnes nouvelles. « Des réunions publiques sont organisées très régulièrement, explique Charlène Suire. Même quand le projet patine. Pour que les gens sachent pourquoi. » Le Zeff, un bulletin d’information, est édité régulièrement. Au printemps dernier, un autre rouage est venu compléter ces allers-retours entre porteurs de projet et population : le comité de suivi. Composé d’une petite dizaine de riverains et animé par Charlène Suire, ce comité est chargé d’assurer une information de proximité aux riverains inquiets, ou non, du lancement des travaux.

« Gouvernance industrielle coopérative »

L’équipe d’EPV, Site à Watts et Bégawatts est maintenant lancée dans le dernier et plus grand défi de cette aventure : la gouvernance d’un projet de type industriel à plusieurs, particuliers, Cigales, collectivités locales, Caisse des dépôts,… Sachant que le budget est de 12 millions d’euros, dont 25% de fonds propres. Le reste est emprunté, à une banque assez visionnaire et confiante pour accepter. Ni EPV, ni Site à Watts, ni Bagawatts ne peuvent faire d’appel public à épargne. Un outil participatif et financier a donc été créé : Énergie partagée.

Cette « plate-forme de l’éolien citoyen » est une structure nationale qui va récolter l’investissement citoyen sur des projets d’énergies renouvelables. Le site de Béganne pourra, entre autres, en bénéficier. Mais pour associer plus de 99 personnes à une société (ce qui est le cas du projet de parc éolien coopératif), il faut un visa de l’Autorité des marchés financiers (AMF). Énergie partagée attend ce visa pour pouvoir se lancer son appel à épargne populaire. L’objectif ? Que cette façon de produire de l’énergie « démocratique et écologique » se diffuse. Et que la France, champion mondial de l’énergie nucléaire, se mette enfin à imaginer un autre modèle énergétique.


Article initialement publié sur Bastamag

Photo flickr cccc Brent Danley ; cccccc ixavier

]]>
http://owni.fr/2011/06/05/et-si-on-construisait-des-parcs-eoliens-cooperatifs/feed/ 36
L’avenir sera atomique http://owni.fr/2011/04/28/lavenir-sera-atomique/ http://owni.fr/2011/04/28/lavenir-sera-atomique/#comments Thu, 28 Apr 2011 15:33:11 +0000 Pierre Ropert http://owni.fr/?p=59375 [Disclaimer : L'article ne reflète en rien les opinions de l'auteur ou de la rédaction. Il s'agit d'un exercice de style consistant à prendre volontairement un point de vue pro-nucléaire.]

Un mois et demi après l’accident de la centrale nucléaire de Fukushima Daiishi, la volonté d’une sortie du nucléaire n’est plus seulement l’opportunisme indécent qui était reproché aux Verts. L’idée a fait son chemin. Et si c’était possible ? Dans 30 ans, 50 au plus, affirment les écologistes, nous pourrions en avoir terminé avec l’atome au profit d’autres énergies.

Difficile d’envisager une telle option alors que la France a fait le choix du tout nucléaire il y a maintenant 40 ans. Le gouvernement ne peut pas décider facilement de sortir d’une industrie qui fournit 75 % de l’électricité consommée en France, et qui la fait rayonner pour son expertise à travers le monde (tout en générant chaque année près de 45 milliards d’euros de chiffre d’affaires pour EDF, qui appartient à 80 % à l’État).

La sortie rapide, c’est pourtant ce que prônent les anti-nucléaires, sans pour autant s’interroger sur son véritable rôle en France. Et si nous nous faisions l’avocat du diable ? Non pas pour minimiser la gravité de la situation à Fukushima Daiishi, mais bel et bien pour s’interroger sur l’utilité de l’atome à l’heure des énergies renouvelables.

Récupération politique

Plusieurs pays d’Europe ont même franchi le pas, en annonçant l’arrêt des projets en cours ou la fermeture de centrales en activité. En témoigne le revirement d’Angela Merkel et de son parti, jusqu’ici plus pro-nucléaires qu’anti. La réouverture d’anciennes centrales a été annulée, et l’Allemagne doit encore se prononcer sur la fermeture de la moitié de son parc nucléaire. Reste à savoir si ce brusque volte-face témoignait d’une véritable volonté de changement ou d’une récupération purement opportuniste, à quelques jours des élections régionales.

Si une telle décision ne risque pas de plonger nos voisins d’Outre-Rhin dans le noir, il faudra cependant accroître la production électrique des sources d’énergie alternatives. Ou acheter l’électricité ailleurs… comme en France, par exemple.
La politique énergétique de l’Allemagne a ceci de particulier que, révisée en 2000, elle doit déjà conduire à une sortie du nucléaire en 2021. Un engagement rendu possible par le fait que le nucléaire n’y représente que 24 % de la production électrique. Outre-Rhin, si les énergies renouvelables et le gaz occupent une place importante (respectivement 17 % et 14 %), ce sont encore les centrales à charbon, extrêmement polluantes, qui fournissent le pays en électricité : elles représentent pas moins de 42 % de la production allemande.

La moins dangereuse des énergies ?

Sauf que le nucléaire est, à bien y regarder, bien moins inquiétant que les énergies fossiles, qui dominent encore largement la production électrique à travers le monde.

Selon une infographie réalisée par le site NextBigFuture, qui s’appuie sur plusieurs sources [en] (dont l’Organisation Mondiale de la Santé ou l’Agence Internationale de l’Energie Atomique), le nucléaire est bien moins meurtrier que le charbon ou le pétrole. Elle calcule le nombre de morts par Térawattheure (1 TWh équivaut à 1 milliard de KiloWattheure, le KiloWattheure étant la mesure de l’énergie d’un appareil consommant 1000 watt en 1 heure de temps).

Cette infographie s’appuyait initialement sur les chiffres de l’AIEA (4.000 morts maximum à Tchernobyl). Même, en utilisant une étude beaucoup plus pessimiste (300.000 morts, en incluant les décès des cancers futurs), le nombre de morts par TWh dus au nucléaire reste de très loin inférieur à ceux du charbon, du pétrole, ou du gaz.

Ici le graphique réévalué : 161 morts par TWh pour le charbon, contre 2,7 pour le nucléaire.

Les décès imputés à la rupture du barrage de Banqiao, en Chine, est pris en compte, d’où le résultat élevé pour ce qui est de l’énergie hydraulique. Tout comme Tchernobyl, il s’agit d’un accident, et la famine, au même titre que les radiations, est une conséquence directe de la destruction de cette infrastructure.

Les énergies alternatives ? Du vent !

Si l’on considère la dangerosité, c’est donc incontestablement vers les énergies alternatives qu’il faudrait se tourner. Avec la menace, de plus en plus concrète, du réchauffement climatique, et donc la nécessité d’un arrêt de la production de CO2, les centrales nucléaires et les énergies renouvelables semblent être les solutions les plus viables. L’énergie atomique pose cependant le problème de la gestion des déchets radioactifs. L’urgence d’un changement de mode de production, couplée à ces déchets intraitables et difficiles à stocker, devrait donc nous amener à privilégier les énergies dites vertes. Sauf qu’au vu de l’augmentation quasi-constante de la consommation électrique, les énergies alternatives sont proprement insuffisantes en terme de rendement.

Tomroud explique parfaitement cette problématique sur son blog :

Pour stabiliser la concentration du CO2 dans l’atmosphère [...], il faudra produire d’ici 2050 une puissance supplémentaire équivalente à la puissance totale produite aujourd’hui sans brûler d’énergie fossile. Insistons : considérez toute l’énergie produite aujourd’hui en une seconde dans le monde. D’ici 2050, il faudra trouver une façon de doubler cette production énergétique sans rejeter la moindre molécule de CO2 supplémentaire dans l’atmosphère ! [...]

Il y a donc a priori beaucoup de place pour le renouvelable d’origine solaire, qui, comme on l’a dit, reste de toutes façons la seule “vraie” source d’énergie externe. Cependant, là encore, il faut faire du quantitatif. Et on s’aperçoit que ça cloche rapidement . Si on regarde tout le potentiel éolien à 10 m du sol, on arrive à seulement 4 TW. Rajouter 2TW en mettant des barrages un peu partout pour faire de l’hydroélectricité. 5 TW en transformant toutes les terres cultivées en bio-carburant. Bref, même en ruinant terres arables, écosystèmes et paysages pour produire de l’énergie, en réalité, le compte n’y est pas du tout, et je serais curieux de savoir quelle est donc l’alternative non carbonée proposée de façon réaliste par les écologistes !

La seule solution réaliste sur le moyen terme est de trouver un moyen d’utiliser directement l’énergie solaire. Le problème c’est que l’énergie solaire est très diffuse. En fait, comme on connaît exactement la quantité de soleil reçue pour une surface donnée, on peut montrer que pour qu’un panneau solaire soit rentable face à des carburants fossiles (c’est-à-dire qu’il fournisse autant de kWh par dollar investi), il faudrait que le prix d’un panneau solaire ne dépasse pas 10 fois le coût de la peinture nécessaire pour recouvrir sa surface. Le verdict est évident : la technologie solaire actuelle n’a aucune chance d’être compétitive économiquement face aux carburants fossiles.

La conclusion est simple : le problème est insoluble aujourd’hui. Et pour pasticher Thatcher, There Is No Alternative, la seule solution viable passe par une exploitation de la puissance solaire reçue, qui implique le développement de nouvelles technologies permettant de réduire le coût de production de l’énergie par unité de surface à celui d’une peinture de luxe. Bref, seule la science peut nous sauver.

Et de la même façon que la science peut améliorer le rendement des panneaux solaires ou améliorer le captage du CO2, il n’est pas exclu qu’elle permette de trouver des solutions à la problématique des déchets nucléaires.

Sortir du nucléaire, mais vers quoi ?

Dans l’immédiat, à moins d’un retour aux centrales à charbon, le réseau électrique est constitué de telle sorte qu’il est impossible de sortir du nucléaire. En Europe, la tension s’établit à 230 volts pour une fréquence de 50 htz. L’ensemble des appareils qui se branchent sont d’ailleurs calibrés sur cette mesure.

Si la tension augmente ou diminue trop, l’ensemble du réseau électrique disjoncte. C’est exactement ce qu’il s’est passé lors de la grande panne électrique de 2003 aux Etats-Unis : la tension s’est écroulée quand, après un déséquilibre à un point du réseau, les centrales restantes n’ont pas pu accélérer suffisamment pour répondre à la demande. L’ensemble du réseau a alors cessé de fonctionner, privant des millions d’Américains d’électricité.

En France, ce sont les centrales nucléaires qui fournissent l’énergie nécessaire. Chaque matin, quand la population se lève pour prendre sa douche et son café, la demande supplémentaire d’électricité entraîne des pics de consommation. Il faut alors augmenter la puissance électrique fournie. L’énergie nucléaire étant extrêmement longue à faire varier, il est nécessaire de démarrer des centrales d’appoint (thermiques), ou des barrages hydrauliques, pour encaisser la demande.

L’éolien ou les panneaux solaires ne sont malheureusement pas du tout adaptés à ces pics, puisqu’ils sont eux-mêmes soumis à des variations climatiques (les éoliennes doivent être freinées pour ne pas varier trop vite). De fait, la puissance électrique qu’ils fournissent n’est pas suffisante pour alimenter le réseau.

Idéalement, il faudrait pouvoir conserver l’électricité créée à l’aide d’énergies vertes. Mais les systèmes de stockage sont eux-mêmes particulièrement peu verts : les barrages hydrauliques peuvent emmagasiner l’électricité mais sont particulièrement nocifs pour les écosystèmes et les batteries susceptibles de la garder, basées sur des réactions chimiques, polluent énormément (sans compter un rendement peu efficace). On perdrait dès lors l’intérêt de ces énergies vertes comme énergies d’appoint.

Une diminution drastique de la consommation

La solution idéale serait donc une diminution drastique de la consommation mondiale d’électricité, qui continue de grimper régulièrement chaque année. Le passage au tout nucléaire voulu par le gouvernement permet, en France, des prix inférieurs de 35 % à la moyenne européenne (soit une facture d’environ 615 euros par an, contre à peu près 900 euros chez nos voisins). Cette politique d’une électricité moins chère incite à une surconsommation électrique impropre à la sortie du nucléaire. Un parfait cercle vicieux, qui rend beaucoup plus difficile l’idée d’une consommation moins poussée.

Quand bien même. Diminuer la consommation électrique ne permettrait pas de stopper centrales nucléaires et thermiques (charbon, pétrole et gaz). Les énergies renouvelables resteraient insuffisantes. Même en diminuant de manière drastique la consommation mondiale d’électricité, il manquerait énormément de TW au compteur : avec l’exemple d’une société à 2000 watt par personne, il manquerait ainsi 43.600 TWh.

Vers d’autres solutions

Tout comme les énergies fossiles que sont le pétrole et le charbon, l’uranium n’est cependant pas infini. Les réserves sont estimées suffisantes, au mieux, pour les 100 années à venir. Il faudra donc, à plus ou moins longue échéance, se tourner vers d’autres sources d’énergie.

Une des options envisagées n’est autre que la fusion nucléaire. C’est l’objectif du projet Iter, estimé à plus de 20 milliards d’euros, et qui devrait voir le jour en 2020 au plus tôt. “Iter sera le plus grand réacteur expérimental sur la fusion nucléaire”, explique Michel Claessens, le directeur de la communication d’Iter, actuellement en construction sur le site de Cadarache, dans les Bouches-du-Rhône :

Le but d’Iter est de produire de l’énergie grâce à des réactions de fusion nucléaire qui existent déjà dans les étoiles. Très schématiquement, au lieu d’essayer de couper les noyaux, comme avec la fission, nous allons essayer de les fusionner. Pour cela, on utilise l’hydrogène, l’atome le plus léger qui soit. A une température très élevée (plusieurs millions de degrés), les noyaux fusionnent et libèrent de l’énergie.

D’ici une bonne dizaine d’années, Iter devrait montrer que l’on peut produire de l’énergie nette grâce à la fusion. Mais les applications réellement industrielles ne seront pas possibles avant 40 ans.

Surtout, la fusion nucléaire serait sans risques, et l’éventualité d’une catastrophe nucléaire quasi nulle :

La fusion nucléaire est beaucoup plus sûre que la fission. Il y a bien de petits résidus radioactifs mais en très faible quantité, et surtout de très courte durée : une dizaine d’année. Le département sécurité a simulé l’accident le plus grave qui pourrait se produire : une fissure dans le réacteur suivie d’une fuite. Même dans ce cas, la radioactivité resterait 10 fois en dessous du seuil de tolérance de l’Etat francais. Il ne serait même pas nécessaire d’évacuer les populations.

À qui la faute si le mot nucléaire fait peur ?

Le problème n’est pas tant le nucléaire que sa gestion. À Tchernobyl comme à Fukushima Daiishi, ces catastrophes sont la conséquence directe d’un manque de prévention. L’accident au Japon témoigne cependant des progrès réalisés depuis la catastrophe ukrainienne. Informées, les populations ont pu évacuer à temps les lieux jugés dangereux. Les techniciens, s’ils sont loin de travailler dans des conditions idéales, sont toutefois mieux équipés que leurs homologues ukrainiens en 1986. Le véritable problème est en réalité celui de la communication, comme en atteste la façon dont cette dernière a été gérée par Tepco, le gestionnaire de la centrale, et les autorités japonaises.

L’absence d’informations claires, souvent démenties par la suite, participe du scepticisme anti-nucléaire. Difficile en France, par exemple, d’estimer si les fonds réservés au démantèlement futur des centrales nucléaires en fin de vie sont suffisants (28 milliards d’euros) quand on sait qu’ils sont quasi-quadruplés en Angleterre (103 milliards d’euros) pour un parc nucléaire bien moins important.

La peur panique de l’énergie atomique tient pour beaucoup aux informations contradictoires que se renvoient pro et anti-nucléaires. Les uns en refusant d’admettre des dangers, qui, s’ils ne sont pas prévenus, ont des conséquences dramatiques, les autres en diabolisant une énergie dont ils ne peuvent absolument pas se passer.

Lors d’une rencontre avec un agriculteur du Cotentin, en Normandie, près de l’usine de retraitement des déchets nucléaires de la Hague, celui-ci m’avait confié pouvoir comprendre qu’il y ait des problèmes avec le nucléaire mais regretter “qu’il faille toujours que ce soit des associations anti-nucléaires qui mettent le doigt dessus”.

Des années plus tôt, après un incendie impliquant l’usine de retraitement des déchets nucléaires, les agents de l’usine (gérée par la Cogema à l’époque) avaient conseillé à ses parents de ne pas faire sortir leur bétail pendant quelques jours.

Ils étaient même venus placer des dosimètres dans le buffet pour mesurer les radiations. Mon père avait demandé, quand ils étaient venus les récupérer, quels étaient les résultats.

Il ne les a jamais obtenus.

>> Photos Flickr CC par Bascom Hogue, jnyemb, zigazou76 et vgault.

Les autres articles de notre dossier :

La CGT d’EDF atomise les sous-traitants

“Une épidémie moderne pour préserver notre confort”

Image de une Marion Boucharlat pour OWNI, téléchargez-là :)

]]>
http://owni.fr/2011/04/28/lavenir-sera-atomique/feed/ 41
Horizon 2020: prévisions pour la prochaine décennie http://owni.fr/2011/04/08/horizon-2020-previsions-pour-la-prochaine-decennie/ http://owni.fr/2011/04/08/horizon-2020-previsions-pour-la-prochaine-decennie/#comments Fri, 08 Apr 2011 10:00:47 +0000 paristechreview http://owni.fr/?p=55624 Que pouvons-nous attendre de bon de 2020 ? Des vols commerciaux dans l’espace, prédit Esther Dyson, femme d’affaires et auteur spécialiste de la technologie. Des percées significatives dans la lutte contre le cancer, répond Michael S. Tomczyk, directeur exécutif au Centre Mack pour l’innovation technologique de Wharton. Une troisième révolution industrielle basée sur les énergies propres, affirme l’économiste et futurologue Jeremy Rifkin.

Mais ne faites pas tout de suite vos bagages pour la Lune. Historiquement, les prédictions se révèlent bien souvent trop optimistes, trop conservatrices ou tout simplement à côté de la plaque. “Ne faites jamais de prédictions”, recommandait le producteur américain Sam Goldwyn, “en particulier sur l’avenir”. Si on considère les performances des prévisionnistes, y compris les mieux informés, le conseil est judicieux.

Et pourtant, le monde change indubitablement, et souvent beaucoup plus radicalement et rapidement que n’importe qui l’aurait imaginé. La politique a toujours ses mystères – presque personne n’avait prédit la chute de l’URSS ou la montée en puissance de la Chine. Certains éléments suggèrent que le Département d’État américain n’avait même pas de plan d’urgence sur la manière de gérer une révolution en Égypte.

Même le monde de la technologie, supposé plus rationnel, s’est montré riche de surprises. Dans les années 1980, rappelle Andrew Odlyzko, mathématicien à l’Université du Minnesota et historien de la technologie, l’influent cabinet de conseil McKinsey & Company avait prédit que le marché américain des téléphones portables atteindrait 800 000 exemplaires en 2000 – une estimation 100 millions en dessous du nombre réel.

A tort ou a raison, voici ce que Esther Dyson, Michael Tomczyk et Jeremy Rifkin nous prédisent pour 2020 – et pourquoi.

Levez les yeux vers le ciel

Interrogée sur sa prédiction la plus folle pour 2020, Esther Dyson a décrit des voyages commerciaux dans l’espace et l’exploitation de ce dernier à des fins commerciales.

D’ici à 2020, un marché commercial dynamique se sera mis en place pour le voyage vers la Lune, vers des astéroïdes et vers des structures en orbites construites par des humains. Les entreprises s’y lanceront dans l’exploration minière des astéroïdes, la production de médicaments délivrés sur ordonnance, la captation de l’énergie solaire et autres activités lucratives, en utilisant pour ce faire la biologie de synthèse aussi bien que des outils de production traditionnels. Et, bien sûr, certaines personnes s’envoleront pour le fun – moi la première, j’espère !

...

Michael Tomczyk, de Wharton, pense également que les voyages dans l’espace arriveront plus vite que les gens ne l’imaginent. “Ayant moi-même été pionnier sur certaines technologies… Je peux témoigner qu’il ne faut pas grand-chose pour lancer une révolution technologique”, affirme Tomczyk, qui dirigeait il y a trente ans l’équipe qui développa et mis sur le marché le premier PC, le Commodore VIC-20, vendu à un million d’unités.

Selon lui, ces vols civils vers l’espace pourraient aussi mener à d’autres innovations : “Personne ne sait quels miracles technologiques apparaîtront au passage, ou comment les découvertes que nous faisons changerons nos vies et les rendront meilleures, mais je suis certain qu’elles seront fondamentales”.

Dans dix ans, des traitements contre le cancer bien plus performants auront aussi été développés, prédit Tomczyk.

Je pense que pour beaucoup de cancers, les possibilités de traitement et de guérison augmenteront considérablement d’ici à 2020, grâce aux nouvelles thérapies qui sont en train d’être développées, qui incluent des vaccins sur mesure contre le cancer, l’utilisation de nanoparticules et de nanomédicaments pour détruire les tumeurs, des tests de diagnostics génétiques et l’identification d’éléments cancérigènes que nous devons éviter »

Une troisième révolution industrielle

Jeremy Rifkin, maître de conférence à Wharton et conseiller de plusieurs gouvernements européens, entrevoit deux voies possibles pour le futur: une catastrophe mondiale provoquée par le réchauffement climatique et la pénurie d’énergies fossiles, ou une troisième révolution industrielle, cette fois-ci s’appuyant sur des énergies renouvelables produites, non pas à la manière du XIXème siècle dans des sites centralisés mais de manière distribuée.

Pour Rifkin, président de la Fondation sur les tendances économiques à Bethesda, dans le Maryland, l’histoire est en grande partie déterminée par la forme d’énergie utilisée par la société. “L’énergie est toujours critique”, dit-il. “C’est la base sur laquelle se crée une économie. Les flux d’énergie sont toujours déterminants, toujours”.

Rifkin place en 1979 le début de l’ère dans laquelle s’inscrit notre futur immédiat, lorsque les réserves de pétrole par tête ont atteint leur maximum. Davantage de pétrole a été trouvé depuis, explique-t-il, mais l’augmentation des naissances a réduit l’importance de ces gains.

De là découle ce qui est arrivé à l’été 2008, lorsque les prix records du pétrole ont provoqué des émeutes de la faim dans 22 pays. “Notre civilisation entière tourne autour du pétrole”, affirme Rifkin. Quand les prix ont atteint 147 dollars le baril, les limites de la mondialisation sont apparues clairement pour la première fois.

Selon lui, c’est ce choc sur le prix du pétrole qui constitua le vrai séisme économique. La crise financière de l’automne 2088 en était juste une réplique, affirme-t-il.

A partir de maintenant, dit-il, chaque fois que l’économie repartira et aura besoin d’énergie, les ressources limitées en pétrole mettront un frein à la croissance. “Le même scenario se reproduira”, dit-il. “La production mondiale mettra une pression trop forte sur les approvisionnements”.

“La prochaine fois que le pétrole montera, ce sera la panique car ils vont réaliser que nous sommes en fin de partie”, prédit Rifkin, convaincu qu’une demande en hausse et une offre en baisse vont conduire au choc.

Je ne vois aucune issue à ça. Ce sont deux tendances irréconciliables.

L’échec retentissant des discussions sur le climat du sommet de Copenhague en 2009 fut aussi une étape déterminante. “C’était probablement le plus gros défi que nous devions relever dans les 175 000 années que nous avons passé sur cette planète – et nous sommes tranquillement rentrés chez nous”, dit Rifkin.

...

Selon Rifkin, l’espèce humaine a cependant une chance de s’en sortir : les énergies renouvelables distribuées.

Dans le passé, les énergies renouvelables n’ont pas pris leur envol en partie à cause d’une difficulté d’ordre conceptuelle : comment pourrait-on générer suffisamment d’énergie nouvelle pour se substituer aux centrales électriques traditionnelles ? Mais dans le futur à énergie distribué de Rifkin, la vieille “usine” à énergie est remplacée par un réseau électrique décentralisé, jouant le même rôle qu’Internet pour la communication. Adieu la radio, bonjour l’iPod.

L’idée clé : chaque parcelle de cette planète reçoit virtuellement une forme ou une autre d’énergie renouvelable, solaire ou éolienne par exemple, explique-t-il. Pourquoi alors collecter cette énergie seulement en quelques endroits ? La nouveauté consisterait à utiliser des compteurs à double sens, qui permettent de produire l’énergie de manière hyper locale et de la distribuer également localement, peut-être même à l’intérieur de l’immeuble ou du quartier. A l’arrivée, de grandes quantités d’électricité peuvent ainsi être produites, de la même manière que l’informatique décentralisé a permis de disposer de la puissance de calcul de milliers d’ordinateurs.

Un regard en arrière

Certaines de ces prédictions se révèleront-elles exactes?

Certes, ces trois experts ont vu juste en plusieurs occasions par le passé – Dyson a compris le potentiel d’Internet bien avant beaucoup de gens ; Tomczyk, outre le développement du premier PC grand public, a collaboré au déploiement des premiers distributeurs automatiques de billets, et Rifkin a anticipé le débat autour des manipulations génétiques dès les années 1970, une anticipation judicieuse parmi d’autres dans sa longue carrière de prévisionniste. Mais comme on dit dans les hautes sphères de la finance, la performance passée n’est pas une garantie des résultats futurs.

Globalement, le futur s’avère étonnamment difficile à prévoir, même pour les futurologues les plus avertis. Michael Tomczyk fait en particulier remarquer que beaucoup de choses dont nous aurions pensé bénéficier aujourd’hui, comme les thérapies géniques, mettent beaucoup plus de temps à se réaliser que nous ne l’anticipions.

Odlyzko affirme, lui, que certains schémas se répètent– nous visons en général trop haut, même si nous sommes parfois dépassés par la réalité. “Nous constatons qu’en moyenne, la tendance a été à trop d’optimisme, en particulier de la part des investisseurs ou des promoteurs commerciaux d’une technologie, mais il y a aussi eu des cas où les prévisions ont été dépassées”, explique-t-il, citant le chiffre beaucoup trop bas donné par McKinsey pour les téléphones mobiles en 2000. Même les fabricants de portables n’étaient pas particulièrement optimistes sur ces derniers: Nokia avait prévu un taux de pénétration des mobiles de 30 % à cette échéance, rappelle Odlyzko.

Les gens comprennent souvent mal l’impact réel d’une invention, explique-t-il. Dans l’Angleterre du XIXème siècle par exemple, ceux qui développèrent les chemins de fer imaginaient avant tout le rail comme un moyen de transporter des marchandises, pas des hommes. L’enthousiasme que suscitèrent les trains de passagers les surprit. “Même les personnes qui ont de forts intérêts financiers en jeu ne réalisent souvent pas le potentiel de ce sur quoi ils travaillent”, dit Odlyzko.

Autre cas d’école : Ken Olsen, fondateur de Digital Equipment Corporation, l’un des plus gros fabricants informatiques dans les années 1970 et 1980, a complètement raté la marche des PC. “Il ne voyait pas pourquoi quelqu’un voudrait d’un ordinateur à la maison”, dit Odlyzko.

Souvent, des conséquences imprévues surviennent aussi. Ces dernières années, beaucoup ont bien perçu le déclin du courrier traditionnel, mais peu ont vu venir les besoins plus importants en livraison de colis que créerait le commerce en ligne.

Dans l’Angleterre du XIXème siècle, le chemin de fer signa assez rapidement la mort des diligences ; ceci a fait craindre une chute de la demande pour les chevaux, ce qui aurait constitué un danger pour la sécurité nationale. En réalité, quand le chemin de fer s’est développé, la demande en chevaux a augmenté. Davantage de biens devaient être transportés au niveau des gares. Ces animaux se révélèrent aussi fort utiles pour déplacer les wagons au niveau des aires d’aiguillages.

Les bateaux à voile devinrent aussi plus demandés lorsqu’eut lieu l’essor de la vapeur – et durèrent encore 50 ans après que les premiers rails soient posés. Les remorqueurs à vapeur les aidaient à éviter le danger des manœuvres d’entrée et de sortie du port. Selon Odlyzko,

les bateaux à vapeur ne pouvaient pas traverser l’Atlantique de manière financièrement compétitive mais ils pouvaient remorquer les bateaux à voile sur une vingtaine de kilomètres le long d’un fleuve, contre le vent.

Finalement, mieux vaut peut-être ne pas savoir de quoi on parle. Ironiquement, certains des meilleurs prévisionnistes existant pourraient bien être les moins qualifiés sur le plan technique. “Je crois que la science-fiction est une prescriptrice trop vite négligée d’innovations de rupture, radicales”, pense Tomczyk. Effectivement, le site Technovelgy.com liste des milliers d’inventions imaginées en premier lieu par des auteurs de science-fiction. Beaucoup de ces inventions sont aujourd’hui techniquement réalisables– des publicités personnalisées de Minority Report aux téléphones portables capables d’embrasser.

Retour sur cet article en 2020, lorsque les touristes enverront – ou pas – des baisers à leurs enfants depuis leur chambre d’hôtel, sur la Lune.


Article initialement paru sur Paris Tech Review

Illustrations CC FlickR: x-ray delta one, vonguard, ninja gecko

]]>
http://owni.fr/2011/04/08/horizon-2020-previsions-pour-la-prochaine-decennie/feed/ 6
Le pétrole éthique n’existe pas http://owni.fr/2011/04/07/le-petrole-ethique-nexiste-pas/ http://owni.fr/2011/04/07/le-petrole-ethique-nexiste-pas/#comments Thu, 07 Apr 2011 11:50:04 +0000 Evan O'Neil http://owni.fr/?p=55583

Article initialement publié sur OWNI.eu sous le titre : « There is no such a thing as ethical oil (or nuclear power) »

Sauf mention contraire, tous les liens contenus dans cet article sont en anglais.

Après la marée noire provoquée par BP dans le golfe du Mexique et maintenant la fusion des réacteurs nucléaires de Fukushima au Japon, il devrait être clair que le pétrole et l’énergie nucléaire ne sont pas des forces bénignes dans notre univers. Les deux sont des formes d’énergies toxiques, sales et insécures. Il est donc étonnant que l’industrie de l’énergie canadienne propose de combiner les deux.

La forêt boréale du Nord d’Alberta se trouve au sommet de l’un des plus grands gisements de combustibles fossiles du monde : les sables bitumineux de l’Athabasca. Les spécialistes de l’énergie l’appellent les “sables bitumineux” tandis que les écologistes préfèrent utiliser le terme de “sables goudronneux” – chacun y voyant ce qu’il préfère voir. À température ambiante, le bitume brut a la consistance de l’asphalte et ne peut s’écouler dans un pipeline sans être dilué ou transformé en pétrole brut synthétique.

Dans les sous-sols, le bitume existe sous la forme d’une mixture entre le sable et d’argile, et il existe deux techniques pour l’extraire. Les mines de surface ont été la méthode prédominante depuis que la production a commencé dans les années 60. Pour la mine de Suncor Energy – entreprise spécialisée dans l’extraction, la transformation et la distribution de pétrole – les fôrets primaires, la couche arable et les tourbières ont été dégagées. Puis, 50 mètres de mort terrain ont été enlevés afin d’exposer le dépôt de sables goudronneux, d’une épaisseur de cinquante mètres également. Le bitume est exploité 24h/24 avec de grandes bennes qui remplissent des camions hauts comme trois étages.

Les camions à benne transportent les sables bitumineux dans une unité de séparation où ils sont mélangés avec de l’eau chaude. Le bitume remonte à la surface et est écumé, tandis que les boues des eaux usées – qui contiennent sable, argile, sels, hydrocarbures aromatiques polycycliques, arsenic, acide naphténique, et autres substances – sont pompées vers de vastes bassins de décantation où elles reposent jusqu’à évaporation.

Le problème de ces bassins est que certaines particules mettent des années à se transformer en sédiments. Du coup, pour accélérer la remise en état du terrain, certaines entreprises expérimentent l’ajout de floculants polyacrylamide. Ce processus, similaire au traitement des eaux municipales, permet de contribuer à la séparation des solides et de l’eau.

Comme l’exploitation minière de gisements plus profonds n’est pas rentable, l’industrie a recours à des forages in-situ. Dans une installation classique, deux puits horizontaux sont forés l’un au dessus de l’autre. Le puits supérieur injecte de la vapeur dans le sable de manière à faire fondre le bitume, qui est ensuite pompé à partir du puits inférieur grâce à un procédé appelé “Steam-Assisted Gravity Drainage” (SAGD). Les infrastructures issues de ces installations parsèment cette région boréale reculée, d’un réseau de routes, pipelines et de lignes sismiques [ndlr : traces laissées par les engins d’exploration sismique].

Les mines et les opération in situ consomment beaucoup d’énergie. Mais, avantage de cette méthode, le territoire est moins perturbé, rendant plus facile le retour de la terre à son état naturel d’origine. La méthode SAGD sépare le sable et le bitume en sous-sol, ce qui nécessite significativement moins d’infrastructures.

Sur l’ensemble des gisements de l’Athabasca on estime que 80% d’entre eux peut être exploité in situ, et 20% par l’exploitation minière.

En revanche, la méthode SAGD consomme beaucoup de gaz naturel, pour produire de la vapeur. Du taux de vapeur à injecter pour extraire le pétrole dépend les émissions de carbones ainsi que la profitabilité de l’exploitation. Ainsi, l’exploitation minière et la méthode SAGD réunis consomment des centaines de milliards de mètres-cubes de gaz naturel par an, une part substancielle de la demande globale du Canada.

C’est là où le nucléaire intervient. Comme la production de bitume devrait augmenter pendant les décennies prochaines, et que la production de gaz va diminuer, il faudra que les producteurs consomment leur propre production de bitume (et donc réduire leurs bénéfices) ou bien qu’ils trouvent de nouvelles sources d’énergie pour produire de la chaleur ou de l’électricité.

L’énergie nucléaire a été évoquée pour résoudre ce problème. Et tandis que le Japon a choisi cette dernière lors du choc pétrolier des années 70 pour compenser sa dépendance au pétrole étranger, de manière très ironique, le Canada envisage aujourd’hui le nucléaire pour augmenter ses exportations de pétrole.

Car la plupart du pétrole issu des sables bitumineux est vendue au Sud de la frontière, à travers un réseaux de pipelines qui fournit la demande américaine. Dans les provinces de l’Est du Canada, on continue d’importer du pétrole.

On peut se demander pourquoi le Canada brûle autant de son gaz naturel, un combustible fossile plutôt propre, pour extraire une énergie encore plus sale. L’explication est évidemment une question de gros sous.

Car la plupart du pétrole du monde est contrôlé par des entreprises nationales, faisant du Canada l’un des derniers endroits où l’industrie de l’énergie peut jouer dans le bac à sable. Et les gisements de l’Athabasca, d’une taille similaire à l’État de New York sont, pour l’industrie, un très grand bac à sable. On estime qu’elle contient environ 1.700 milliards de barils de bitumes, dont environ 170 milliards sont extractibles avec les technologies existantes. Multiplié par 100$ le baril, les sommes en question sont plutôt éloquentes.

Mais l’extraction de ce pétrole non-conventionnel jusqu’au baril est “capitalistiquement” très intensive. Des centaines de milliards de dollars ont déjà été investis dans les sables bitumineux d’Alberta, où il faut un prix de vente d’environ 65 à 85 dollars le baril pour couvrir les coûts. Or, pas plus tard qu’en 2009, la chute du cours aux environs de 40$ avait suspendu ou ralenti de nombreux projets.

Alors, le pétrole des sables bitumineux est-il sale ?

Bien sur que oui. Tout pétrole est sale. La question est donc plutôt de savoir s’il est plus sale que d’autres sources ? En moyenne, oui. Selon le Cambridge Energy Research Institute, le pétrole d’Alberta a tendance à être entre 5 et 15% plus polluant que la moyenne du pétrole consommé aux États Unis, si on les compare avec la méthode “well-to-wheels” (du puits à la roue). 25% des émissions lié au pétrole se produit durant la phase de production, alors que 75% provient de la combustion par les véhicules.
Les experts de l’industrie répètent souvent l’argument suivant : c’est la faute du consommateur, qu’il s’agisse des propriétaires de voiture ou des américains en général.

“Si les consommateurs arrêtaient de conduire autant, nous arrêterions de déterrer tout ce pétrole pour vous l’envoyer”

Telle est la ligne de défense typique des industriels. Puis, à chaque fois que les américains renient leur affection pour le pétrole canadien, l’argument devient une menace : « Si vous arrêtez d’acheter notre pétrole, nous le vendrons simplement aux chinois plutôt qu’à vous ! ».

Cet argument n’a aucun sens du point de vue des individus. Car à la pompe, les consommateurs américains n’ont pas vraiment le choix. Leur choix se résume à trois indices d’octane et éventuellement un soupçon d’éthanol douteux dans le mélange. Le seul véritable pouvoir d’une personne pour réduire sa consommation réside dans le choix de son lieu d’habitation. Laisser tomber sa voiture pour déménager dans une communauté urbaine dense, et favorable aux piétons et deux-roues est la solution la plus efficace. Pour ceux qui ne peuvent ou veulent pas se déplacer, l’alternative restante est de s’engager politiquement pour changer les choses.

La plupart des familles n’a pas pris cette décision pour le moment. Leur seule réponse consiste à acheter une plus grosse voiture quand l’essence est peu chère, et inversement quand le prix remonte. En fait, sans un mécanisme de prix plancher, les américains ne se débarrasseront jamais de leur dépendance pétrolière, qu’elle soit étrangère ou domestique. Si la taxation du pétrole était suffisamment élevée, elle pourrait contribuer à instaurer un prix plancher, mais malheureusement, les Etats-Unis, ont choisi de fixer la barre très bas. De fait, la taxe sur les produits pétroliers est dérisoire par rapport au prix de l’essence, et surtout, elle n’est pas indexée à l’inflation, ce qui signifie que sa valeur a en fait diminué depuis les dernières décennies.

En prétendant qu’un collectif non-organisé et réactionnaire tel que les consommateurs seraient fautifs de la consommation de pétrole, les politiques ont abandonné leur responsabilité politique. L’essence de l’éthique est de savoir si nos institutions sont capables de prendre des décisions qui aillent dans le sens de l’intérêt général pour toutes les parties, qu’elles soient locales, internationales, et quel que soit leur coût.

Vu sous cet angle, est-ce que nous pouvons faire confiance aux gouvernements du Canada et d’Alberta de ne pas se transformer en état au service du pétrole ?

Les perspectives sont tristement sombres. Le ministre fédéral de l’environemment canadien a récemment déclaré que le pétrole du Canada était un « pétrole éthique ». Ce concept est directement tiré du livre du militant politique conservateur Ezra Levant, dans lequel il prétend que le pétrole du Canada est moralement supérieur au pétrole des pays où les droits de l’Homme sont menacés. Mais même si le Canada et les Etats-Unis boycottaient les importations de tous les pays considérés comme problématiques – une option qu’ils ne sont pas plus enclins à étudier – le pétrole demeurerait toujours une matière première négociée dont le prix serait fixé de manière globale. Et surtout, la consommation de pétrole continuerait de profiter à des dictateurs douteux.

A l’échelle de sa province, le gouvernement d’Alberta soutient l’opinion que l’exploitation des sables bitumineux “devrait” être développée davantage. Ceci malgré le fait qu’un panel ait récemment établi que le programme de surveillance de l’eau et de l’environnement était inapproprié.

Le développement de l’exploitation des sables bitumineux a aussi contribué à la violation des engagements du protocole de Kyoto. Plutôt que de réduire ses émissions de 6% par rapport au niveau des émissions de 1990, comme le stipulaient les engagements pris par le gouvernement, les émissions du Canada ont augmenté de 24%. Et ceci notamment à cause de l’exploitation des sables bitumineux, qui représente aujourd’hui près de 5% des émissions totales du pays.

Par ailleurs, Alberta a réussi à adopter une politique innovante que peu d’autres juridictions auraient ne serait-ce qu’envisagé : une taxe carbone de 15$ par tonne. Ce changement devrait être applaudi, mais est malheureusement accompagné par des des milliards d’investissements dans les technologies non éprouvées de captation et la séquestration du carbone – une couteuse béquille pour contribuer à l’avenir de l’industrie des énergies combustibles – avec une attention minimale portée à la recherche, le développement et le déploiement des énergies renouvelables.

Une autre préoccupation pour l’avenir énergétique du Canada est que le système de redevances (pdf) sur les sables bitumineux est trop faible. Le taux est fixé à 1% jusqu’à ce qu’un projet devienne rentable, et qu’il augmente jusqu’à 25% – ce qui reste bas comparé à d’autres pays. Avec ce système, Alberta risque de manquer une opportunité de renforcer son patrimoine souverain alors que les ressources du peuple disparaîtront dans les poches d’acteurs privés, laissant ainsi la province sans moyens financiers lui permettant de transiter vers une économie plus propre.

Les américains sont-ils bienveillants dans cette transaction, ou bien encouragent-ils simplement leurs collègues pétroliers ?

La proposition d’une extension du réseau de pipeline Keystone XL qui transporte le pétrole d’Alberta vers les États-Unis est en train d’être étudiée. En raison du franchissement d’une frontière internationale, la décision finale relève de l’autorité du département d’État américain. Cette dernière annonça le 15 mars qu’une déclaration supplémentaire sur l’impact environnemental sera publiée, suivie par une nouvelle période de débat public afin de déterminer si le projet est « dans l’intérêt national des Etats-unis ».

Au premier abord, acheter plus d’énergie à un ami voisin apparaît comme une bonne idée. Mais alors que la sécurité énergétique semble être un concept solide, il est en fait très relatif, et se déguise d’un halo de nécessité militaire – y compris en temps de paix. Le paradoxe est que les pays fournisseurs veulent la sécurité de la demande, tandis que les pays consommateurs veulent la sécurité de l’approvisionnement. Tout simplement car ce que l’industrie redoute le plus, c’est de ne plus faire d’affaires.

Philip Auerswald, expert en technologies et innovation écrit :

« Les producteurs qui recherchent la maximisation de leurs revenus à long terme voudront maintenir un prix du pétrole le plus haut possible, tout en évitant de grands investissements dans des produits de substitution »

Devrions-nous être inquiet du niveau actuel des prix ? Auerswald ne le pense pas, car les prix forts accélèrent simplement la transition vers une économie post-pétrole. Et si les estimations varient quant au moment où le pic pétrolier arrivera vraiment, la limitation des ressources n’est pas contestée, de même que l’arrivée du moment où l’extraction coûtera aussi cher que la valeur du produit.

Dire que les États-Unis devraient importer plus de pétrole issu des sables bitumineux est en fait juste une nouvelle version de l’argument du “perce ici, perce maintenant” actuellement en vigueur pour justifier l’exploitation des réserves naturelles de l’Alaska. L’administration Obama, il faut bien le noter, a été un moteur de la production domestique américaine, si bien que la production a fortement augmenté ces 5 dernières années. De son coté, la production canadienne a aussi augmenté significativement ces dix dernières années, grâce au développement des sables bitumineux. Mais après deux pics pétroliers majeurs durant la même période, en 2008 et maintenant, il apparaît clair que la production croissante au Canada ne permet pas de contrôler le cours mondial, et que la meilleure stratégie serait certainement de trouver des technologies de remplacement, et de réduire activement la demande.

Mais il est difficile de vendre cette idée quand vous pensez au nombre de camions bennes Caterpillar 797B requis pour extraire les sables bitumineux, et dont les pièces sont fabriquées dans tous les États-Unis, par un certain nombre de travailleurs… Ajoutez à cela la résistance du grand public à l’idée d’une augmentation des taxes sur les produits pétroliers, et vous comprendrez pourquoi il est si difficile de mettre en place la politique énergétique pourtant nécessaire. Et les centaines de millions de dollars que l’industrie pétrolière dépense en lobbying n’aident certainement pas nos sénateurs à être clairvoyants.

Depuis 50 ans, les politiciens américains ont toujours dit que nous avions besoin de nous débarrasser du pétrole étranger. De leur coté, les cadors de l’énergie et les politiciens canadiens ont des frissons lorsqu’ils entendent ce genre de choses. Ils sentent que d’une manière ou d’une autre, le pétrole canadien ne devrait pas être considéré comme étranger, puisqu’il vient du Nord de l’Amérique.

Mais l’éthique voudrait plutôt que les deux pays poursuivent une stratégie d’indépendance énergétique, fondée sur des sources d’énergies propres, renouvelables, qui ne polluent pas l’environnement, ni ne nuisent à la santé humaine, ou à l’équilibre du climat planétaire.

A l’heure du changement climatique, le Canada fait l’autruche, et a la tête dans le sable bitumineux.


Article initialement publié par PolicyInnovations.org. Une version de cet article est disponible sur Carnegie Ethics Online.

Traduction : Stanislas Jourdan

Photos crédit Evan O’Niel, Flickr CC Neogene et Stéfan ; Suncor Energy

]]>
http://owni.fr/2011/04/07/le-petrole-ethique-nexiste-pas/feed/ 4