Une lettre signée par de grands noms de la science et de l’industrie, dont Elon Musk et Stephen Hawking, réclame une interdiction sur la production de robots tueurs autonomes pour protéger l’humanité. Etrange pétition… Elle retient l’attention en raison de la liste des signataires qui rassemble des noms illustres: Stephan Hawking, Elon Musk (fondateur de Paypal, SpaceX et Tesla), Steve Wozniak, cofondateur d’Apple avec Steve Jobs, Jaan Tallinn, cofontadeur de Skype ou Noam Chomsky. L’objectif de cette lettre publiée par l’Institut Future of Life, fondé, entre autres, par Jaan Tallinn, est de plaider pour une interdiction du développement de robots tueurs autonomes.
Une telle arme aurait la possibilité de décider elle-même d’appuyer sur la détente. Une sorte de permis de tuer rappelant celui d’un célèbre agent secret. Par rapport aux premiers robots tueurs, la nuance est d’importance. Les drones armés sont déjà en activité. Mais ils ne tirent leur missile que lorsqu’un être humain en prend la décision. C’est l’étape suivante que dénonce la pétition: la prise de décision autonome d’une machine de tuer un être humain. Un viol de la première des trois lois de la robotique imaginées par Isaac Asimov en 1942 qui stipule qu’«un robot ne peut porter atteinte à un être humain».
Intelligence artificielle
La pétition souligne que «la question cruciale pour l’humanité aujourd’hui est de décider si elle souhaite se lancer dans une course mondiale aux armes utilisant l’intelligence artificielle (AI) ou de d’empêcher qu’elle ne commence». L’AI se trouve ainsi logiquement au cœur de cette alternative. Sans elle, les robots ne peuvent agir seuls. Ils sont télécommandés par des êtres humains. De ce fait, l’AI joue un rôle central dans l’émergence de robot tueurs autonomes.
Les signataires de la pétition, dont plusieurs sont directement concernés par cette technologie, l’ont bien compris et ils craignent que les robots tueurs n’en ternissent l’image. Au point d’entraver sa croissance dans d’autres applications militaires mais également civiles. Le robot tueur autonome deviendrait alors pour l’AI ce que la bombe d’Hiroshima a été pour le nucléaire. Une catastrophe, aussi, pour la communication.
Derrière l’argument humaniste («Nous croyons que la course aux armes militaires avec AI ne serait pas bénéfique pour l’humanité»), pointe le corporatisme. Les signataires craignent «une réaction violente du public contre l’AI qui entrave ses futurs bénéfices pour la société». D’où la stratégie consistant à sacrifier des applications militaires extrêmes pour sauver toutes les autres.
Pour préserver l’image de l’intelligence artificielle, la lettre rappelle que d’autres scientifiques ont défendu des positions similaires. Elle cite les chimistes et les biologistes qui ne manifestent pas d’intérêt pour la fabrication d’armes chimiques ou biologiques. Elle note que les physiciens ont soutenu les traités bannissant les armes nucléaires dans l’espace et l’usage des lasers aveuglants. Elle aurait pu mentionner la Convention sur les armes à sous-munitions qui les a interdites en 2008. Mais ce traité là manque d’aspects purement scientifiques.
Des arguments erronés
Pour autant, ces exemples sont relativement marginaux si on compare ces quelques interdictions avec la panoplie considérables des armes utilisées. On se souvient que même Albert Einstein n’a pas réussi à éviter l’utilisation de la bombe atomique par les américains. Après avoir involontairement contribué à leur invention par ses travaux, le physicien indiquait que des «bombes d’un genre nouveau et d’une extrême puissance pourraient être construites». Aujourd’hui, la Convention sur certaines armes classiques n’a pas vraiment de quoi entraver la stratégie des états-majors. Et toutes la plupart des grandes nations, plus quelques autres, dispose du nucléaire militaire.
Le cas des armes chimiques est plus rassurant. Une Convention en interdit l’usage depuis 1997. Les Etats membres de l’Organisation pour l’interdiction des armes chimiques ne sont pas moins de 190. Ils représentent 98% de la population de la Terre. Néanmoins, l’argument des signataires de la pétition, c’est-à-dire le manque d’intérêt des chimistes pour la fabrication de telles armes, ne semble pas avoir été le principal moteur de cette interdiction.
Sentiment d’urgence
Quant aux robots tueurs autonomes, s’ils inquiètent autant aujourd’hui, c’est parce que leur arrivée sur les champs de bataille n’est plus qu’une question d’années. Avant cette pétition, d’autres voix ont exprimé leurs craintes. Fin 2012, Steve Goose, directeur de la division des armes de l’organisation Human Right Watch publiait un rapport intitulé: «L’humanité perdue: le procès contre les robots tueurs». Cette étude recommandait, comme la pétition d’aujourd’hui, une interdiction des armes autonomes. Steve Goose pointait précisément cette question de l’autonomie.
En Grande Bretagne, une campagne pour stopper les robots tueurs a reçu le soutien de plus de 1000 chercheurs en intelligence artificielle et autres scientifiques. Le sentiment d’urgence monte progressivement. Angela Kane, représentante de l’ONU pour le désarmement, estime que l’arrivée des robots tueurs autonomes sur le champ de bataille est «la prochaine étape».
Ce cri d’alarme s’explique facilement dès que l’on observe les modèles actuels de robots militaires en cours de développement dans les laboratoires. Derrière ces travaux, on trouve l’incontournable Darpa, l’agence américaine qui finance les technologies militaires. C’est elle qui organise chaque année un concours de robotique qui rassemble des laboratoires du monde entier. Il faut dire que les gagnants reçoivent pas moins de 3,5 millions de dollars de prix. La dernière édition de cette compétition, qui s’est conclue le 6 juin 2015, a été remportée par une université coréenne, Kaist, qui a empoché à elle seule 2 millions de dollars. Elle a ainsi battu l’institut américain IHMC qui se contente d’un million de dollars. Son robot «Running Man» est présenté comme semi-autonome.
Les robots sauveurs
Alors que certains de ces robots ressemblent aux petits frères de ceux qui peuplent Transformers, ils se livrent à des tâches on ne peut plus pacifiques. Les épreuves du concours de la Darpa sont fortement motivées par la catastrophe de Fukushima. Un drame pour l’image du nucléaire mais une formidable opportunité pour la robotique.
En effet, les Japonais, pourtant pionniers dans ce domaine, se sont retrouvés incapables d’envoyer des robots pour intervenir dans les bâtiments des réacteurs éventrés par les explosions d’hydrogène. Depuis, les laboratoires du monde entier cherchent à pallier ce manque. Intervenir dans une centrale nucléaire dévastée est en effet le challenge idéal, à la fois délicat à réussir et parfaitement justifiable. Le robot prend la place des hommes pour aller là où l’être humain serait mortellement atteint par les radiations.
La Darpa peut ainsi financer à coup de millions de dollars ces projets en apparence humanitaire. En réalité, rien ne distingue les difficultés rencontrées par les robots dans une centrale nucléaire de celles qu’ils devront surmonter sur un champ de bataille. Le secourisme sert donc de parfait alibi. Il masque pudiquement des objectifs nettement plus belliqueux. Comment éviter, en effet, que les robots, lorsqu’ils auront appris à éviter tous les obstacles, à ouvrir des portes ou à manœuvrer des vannes ne soient dotés d’un fusil mitrailleur?
Tout le problème est là. Il suffit d’explorer la panoplie de l’entreprise phare dans ce domaine, Boston Dynamics, pour s’en convaincre. Le modèle Atlas est le prototype de l’ambiguïté de la robotique de pointe. Présenté comme un «robot anthropomorphique agile», il mesure I,8 m pour 150 kg. L’imaginer équipé d’armes mortelles suffit à glacer le sang.
Imperfection
Seul aspect «rassurant», les robots de ce type sont encore loin d’être parfaits. pour l’instant, pas question, pour eux, de suivre l’entrainement des Marines. Ni d’être capables de se substituer à l’homme pour prendre la décision de tuer, comme le font aujourd’hui les pilotes de drones équipés de missiles. Pour l’instant…
Les progrès ne laissent que peu de probabilités à l’échec de la robotique autonome militaire
Pour autant, les progrès de l’électronique et de l’informatique ne laissent que peu de probabilités à l’échec de la robotique autonome militaire. La Darpa a déjà lancé des projets pour créer le futur «cerveau» de ses robots. Nul doute que l’autonomie est bien le prochain pas de la robotique. L’intelligence artificielle arrivera alors fatalement sur le devant de la scène. Mais s’agit-il vraiment du cœur du problème?
Les véritables questions ne sont-elles pas sociétales ou philosophiques? A quoi serviront les robots militaires? Seront-ils justifiés par le concept du zéro mort? De la même façon que nous acceptons de vivre dans une société mise sous surveillance, sommes-nous prêts à confier cette surveillance à des robots ayant droit de vie et de mort sur les êtres humains? Etre persuadé que, si nous n’avons rien à nous reprocher, nous n’avons rien à craindre est-il une garantie suffisante?