L’humanité sous-estime-t-elle le risque de sa propre extinction ?

mardi 1er mai 2012.
 

Au fil de mes lectures diverses, ces dernières semaines, j’ai ramassé quelques pièces de puzzle et je me suis aperçu qu’elles s’emboîtaient plutôt bien, qu’il y avait comme un idée directrice derrière elles. Cela a commencé à la fin de 2011 à Durban, avec le nouvel échec de la communauté internationale pour se mettre d’accord sur la limitation des émissions de gaz à effet de serre (GES). Puis il y a eu cette annonce, fin décembre, de la création par des chercheurs de virus mutants de la grippe aviaire, susceptibles de se transmettre plus facilement entre humains contaminés. Annonce suivie, tout d’abord, d’un débat pour savoir s’il était bien pertinent de publier les méthodes avec lesquelles les biologistes avaient modifié le H5N1, puis de la question plus pragmatique : le terroriste lambda peut-il facilement y parvenir ?

Puis il y a eu une autre annonce, le 12 janvier, plus rituelle celle-là, mais aussi plus discrète : celle du Bulletin of the Atomic Scientists annonçant que l’horloge de la fin du monde qui, depuis 1947, prévient symboliquement l’humanité quand elle fait des pas vers son extinction ou la rassure quand elle prend des mesures pour s’en éloigner, était avancée d’une minute vers minuit. Il est désormais 23h55 à cette horloge et cette progression de la grande aiguille a été justifiée par l’absence de progrès dans la limitation tant de la prolifération nucléaire que des émissions de gaz à effet de serre. Le texte du communiqué précise : "La communauté mondiale pourrait être proche d’un point de non-retour dans ses efforts pour empêcher une catastrophe due aux changements dans l’atmosphère de la Terre. L’Agence internationale de l’énergie prévoit qu’à moins que les sociétés commencent, au cours des cinq prochaines années, à développer des alternatives aux technologies de l’énergie émettant du carbone, le monde est condamné à un climat plus chaud, à une montée du niveau des océans, à la disparition de nations insulaires et à une augmentation de l’acidification des océans." Ce n’est pas sans une certaine ironie qu’une autre information, en lien direct avec celle-ci, est tombée il y a quelques jours et je l’ai donnée, brute de fonderie, dans une de mes sélections hebdomadaires : jamais, au cours des 300 derniers millions d’années, l’acidification des océans n’avait augmenté à un tel rythme. Malgré son importance, la nouvelle n’a pas eu l’air d’émouvoir qui que ce soit...

Au moment même où quantité de livres se publient sur la thématique "2012, année de fin du monde prédite par le calendrier maya" (j’ai été sidéré de voir une table entière d’ouvrages à la FNAC sur ce sujet), les hommes jouant à se faire peur en sachant très bien qu’il s’agit de billevesées, on balaie sous le tapis les vraies raisons de s’inquiéter. D’où la question qui fait le titre de ce billet : l’humanité sous-estime-t-elle le risque de sa propre extinction en ne traitant pas les problèmes qui la menacent ou en risquant de faire tomber des technologies de destruction massive entre des mains mal intentionnées ? Je n’ai évidemment pas la réponse et je laisse à chacun le soin d’y réfléchir, mais je tenais, pour finir ce billet pas comme les autres, à signaler l’interview, dans The Atlantic, du philosophe suédois Nick Bostrom, qui enseigne à l’université d’Oxford, y dirige l’Institut sur le futur de l’humanité et est représenté en photo en haut de cette page.

Avec une formation en physique, en neurosciences et en philosophie des sciences, Nick Bostrom n’a pas forcément le profil-type du philosophe tel qu’on se le figure d’ordinaire. Il a beaucoup travaillé sur le concept de "risque existentiel", au sens d’un scénario-catastrophe conduisant « soit à une destruction totale de toute vie intelligente sur Terre, soit à une paralysie permanente de son potentiel de développement ». Dans cette interview, il ne s’intéresse donc pas aux conséquences, lointaines, du réchauffement climatique, mais, considérant que ce XXIe siècle sera crucial pour l’humanité en raison du développement rapide de technologies nouvelles, aux risques que ces dernières présenteront dans un futur très proche de nous : "A court terme, dit-il, je pense que plusieurs développements dans les domaines de la biotechnologie et de la biologie synthétique sont assez déconcertants. Nous sommes en train d’acquérir la capacité à créer des agents pathogènes modifiés et les plans de plusieurs organismes pathogènes sont dans le domaine public : vous pouvez télécharger sur Internet la séquence génétique du virus de la variole ou de celui de la grippe espagnole. Jusqu’ici, le citoyen ordinaire n’a que leur représentation graphique sur l’écran de son ordinateur, mais nous développons aussi des machines synthétisant l’ADN de plus en plus performantes, qui peuvent prendre un de ces plans numériques et fabriquer de véritables brins d’ARN ou d’ADN. Bientôt, ces machines seront suffisamment puissantes pour recréer ces virus. Donc, vous avez déjà une sorte de risque prévisible et si, ensuite, vous commencez à modifier ces organismes pathogènes de différentes manières, vous voyez apparaître une nouvelle frontière dangereuse. A plus long terme, je pense que l’intelligence artificielle, une fois qu’elle aura acquis des capacités humaines puis surhumaines, nous fera entrer dans une zone de risque majeur. Il y a aussi différentes sortes de contrôle des populations qui m’inquiètent, des choses comme la surveillance et la manipulation psychologique à l’aide de médicaments."

Quand le journaliste qui l’interroge lui demande pourquoi le risque d’un dérapage majeur est estimé à une ou deux chances sur dix au cours du siècle, ce qui est beaucoup, Nick Bostrom a cette réponse : "Je pense que ce qui mène à cela, c’est le sentiment que les humains développent ces outils très puissants (...) et qu’il y a un risque que quelque chose tourne mal. Si vous revenez en arrière avec les armes nucléaires, vous vous apercevez que pour fabriquer une bombe atomique, il vous fallait des matières premières rares comme de l’uranium enrichi ou du plutonium, qui sont très difficiles à se procurer. Mais supposez qu’il y ait eu une technique vous permettant de faire une arme nucléaire en cuisant du sable dans un four à micro-ondes ou quelque chose dans ce genre. Si cela avait été le cas, où en serions-nous maintenant ? On peut présumer qu’une fois cette découverte faite, la civilisation aurait été condamnée. A chaque fois que nous faisons une de ces découvertes, nous mettons notre main dans une grande urne pleine de balles et nous en tirons une nouvelle balle : jusqu’ici, nous avons sorti des balles blanches et des grises, mais peut-être que la prochaine fois, nous tirerons une balle noire, une découverte synonyme de désastre. Pour le moment, nous n’avons pas de bonne façon de remettre la balle dans l’urne si elle ne nous plaît pas. Une fois que la découverte a été publiée, il n’y a aucun moyen de la "dépublier"."

Nick Bostrom n’est absolument pas opposé à la technologie : au contraire, c’est un grand partisan du transhumanisme. Simplement, il milite pour que nous gardions le contrôle. Le contrôle de nos technologies, de notre planète, de notre avenir. Parce que l’extinction de l’homme n’est pas le seul risque que nous courons. L’autre visage du risque existentiel, c’est la disparition totale des libertés à l’échelle planétaire : "On peut imaginer le scénario d’une dystopie totalitaire mondiale. Encore une fois, c’est lié à la possibilité que nous développions des technologies qui rendront bien plus simple, pour des régimes oppressifs, d’éliminer les dissidents ou de surveiller leurs populations de façon à obtenir une dictature stable, plutôt que celles que nous avons vues au cours de l’histoire et qui ont fini par être renversées." George Orwell et son 1984 ne sont pas bien loin.

Pierre Barthélémy


Signatures: 0
Répondre à cet article

Forum

Date Nom Message