L'AUTRE QUOTIDIEN

View Original

Armes autonomes : le danger des machines qui apprennent à tuer toutes seules

Leur sigle en anglais est LAWS. Ce sont les systèmes d’armes létales autonomes, aussi appelés robots tueurs. Loin d’être des hallucinations futuristes d’auteurs de science-fiction, ils constituent l’une des clés dans la course actuelle aux armements. Un nouveau cycle de la Convention sur certaines armes classiques (CCAC) s’est tenu du  9 au 13 avril 2018 aux Nations Unies à Genève, où les représentants des gouvernements discuteront de la question des armements autonomes pour la cinquième année consécutive.

Les Etats-Unis mènent un plan agressif pour développer différents types d’armes semi-autonomes et autonomes, menant à la fois des recherches fondamentales et appliquées. Parmi les aspects centraux, les recherches sont menées pour améliorer la perception, le raisonnement et l’intelligence des machines, mais aussi les interactions collaboratives entre les machines et les humains.

A titre d’exemple, l’un des principaux programmes – mené par la DARPA (Defense Advanced Research Projects Agency) – est OFFSET (OFFensive Swarm-Enabled Tactics), qui vise l’intégration de drones intelligents avec des robots au sol et de petites unités d’infanterie pour opérer dans des contextes urbains.

Un autre cas est le projet Maven – récemment contesté par les employés de Google pour son implication dans ce projet – qui utilise l’intelligence artificielle pour identifier des cibles potentielles de bombardement par drone.

See this content in the original post

L’importance que le ministère américain de la défense attache aux systèmes autonomes se reflète dans ses plans d’investissement. Les dépenses prévues pour son développement entre 2016 et 2020 s’élèvent à 18 milliards de dollars[i], en plus d’autres initiatives de recherche sur l’intelligence artificielle financées par le gouvernement (totalisant environ 1,1 milliard de dollars en 2015).

Mais en plus des investissements de l’État, l’industrie militaire américaine s’appuie sur une « armée de réserve » civile, composée d’entreprises, d’universités et de personnes innovantes, ce qui dilue la frontière entre les applications commerciales et militaires. Le cas de l’armement autonome ne fait pas exception, notamment en ce qui concerne les avancées de l’intelligence artificielle.

La nouvelle guerre froide technologique : l’intelligence artificielle

Cette tentative des États-Unis de maintenir une position avantageuse dans l’effort de guerre est remise en question par plusieurs pays qui considèrent également l’IA comme la clé de la future suprématie technologique et économique.

Le Conseil d’État chinois a publié en juillet 2017 une feuille de route qui vise à faire du pays le centre mondial de l’innovation en matière d’EI d’ici 2030. A cette fin, elle dispose d’un budget de plus d’un trillion de yuans (environ 147,8 milliards de dollars US)[ii]. En janvier 2018, la construction d’un parc industriel dédié à 30 km de Pékin a été annoncée, dans lequel le gouvernement vise à loger quelque 400 entreprises du secteur. Selon les conclusions du magazine Nature, une guerre a éclaté pour attirer les talents en matière d’IA – encore relativement rares – en leur proposant des salaires alléchants.

Dans le domaine de l’armement, la Chine est déterminée à imiter le modèle américain, ouvrant la porte à un réseau de recherche et d’application civilo-militaire, comme annoncé dans le numéro du 7 août 2016 du journal militaire PLA Daily[iii]. Elle a même mis en place un comité directeur de la recherche scientifique, qui est considéré par les analystes du secteur comme l’homologue chinois de l’agence DARPA.

La Corée du Sud, la Russie, Israël, l’Inde, la France et la Grande-Bretagne ont à leur tour leurs propres plans. Le gouvernement sud-coréen, suivant le modèle japonais, vise un développement puissant de la robotique industrielle et domestique, mais aussi de la robotique militaire, en mettant l’accent sur les drones sans pilote et les systèmes de surveillance, partageant avec Israël l’honneur douteux d’avoir installé des robots sentinelles autonomes à ses frontières.

Israël est l’un des principaux exportateurs de systèmes armés autonomes, dans les secteurs aérien, maritime et terrestre. La Russie ne veut pas non plus être laissée pour compte dans cette bataille scientifique et technologique. C’est ainsi qu’elle a lancé – selon le rapport du SIPRI « Mapping the development of autonomy in weapons systems » – le programme Robotics 2025 et créé un Centre de développement de la robotique à Skolkovo (SRC) en 2014.

Selon ce même rapport, « le ministre français de la Défense Jean-Yves Le Drian a annoncé en février 2017 que l’AI jouera un rôle de plus en plus important dans le développement de nouvelles technologies militaires pour s’assurer que la France n’est pas désavantagée par rapport à ses alliés, les Etats-Unis et la Grande-Bretagne ». En ce qui concerne ce dernier point, le rapport indique que « la Grande-Bretagne est le pays d’Europe qui investit le plus dans la recherche et le développement militaire ». La robotique et les systèmes autonomes  » sont l’un des 10 domaines prioritaires de la Stratégie de modernisation industrielle de 2017 « , ajoute le rapport.

Quelque chose de similaire se met en place en Allemagne – le deuxième producteur mondial de robotique industrielle – et en Inde, où la recherche militaire dans ce domaine est menée par le Centre d’intelligence artificielle et de robotique, situé à Bangalore, dans l’État du Karnataka.

Surmonter le meilleur sans connaissances préalables en seulement 41 jours.

Ce titre, digne d’une publicité d’une académie de niveau médiocre, décrit avec précision une avancée spectaculaire des connaissances publiées en décembre 2017. Son protagoniste n’est pas humain (du moins après sa création) et son nom est AlphaGo Zero.

Il s’agit d’un algorithme d’intelligence artificielle appliqué au jeu de go chinois, qui a permis à ce nouveau ‘joueur’ numérique de battre l’actuel champion du monde – son prédécesseur aussi électronique, AlphaGo -. Les champions entrants et sortants ont été sponsorisés par Deep Mind, une société acquise par Google (Alphabet Inc.) en 2014.

La « percée dramatique » est littérale. Jusqu’à présent, la capacité d’apprendre cette technologie numérique était basée sur la capacité de traiter des téraoctets de données précédemment fournies. Dans le cas de jeux comme le go, les échecs, le poker, ou « trois de suite », il s’agissait d’un grand nombre de parties jouées par les plus brillants joueurs humains.

AlphaGo Zero n’a été nourri avec aucune partie. Il a joué contre lui-même à partir du niveau débutant, jusqu’à ce qu’en 41 jours il parvienne à devenir – d’où la note sur le site web de la société – « probablement le meilleur joueur de go au monde ». La puissante structure informatique utilisée est connue sous le nom de « réseaux de neurones », alimentés par des processus de « renforcement de l’apprentissage »[iv].

Cette fabuleuse capacité d’apprentissage, si semblable au comportement humain, n’est cependant pas générale, mais limitée à un problème spécifique. Mais que se passerait-il si le problème limité était de tuer des ennemis ? Si un instrument létal actuel avait un algorithme de ce type couplé à des systèmes d’identification d’images et de langage basés sur des paramètres spécifiques – par exemple, ceux d’une population paysanne dans une zone classée par les stratèges militaires comme « hostile » ; si ce système pouvait aussi interagir en quelques secondes avec des bases de données en ligne ou collectées précédemment ; qu’est-ce qui empêcherait ces systèmes d’ordonner eux-mêmes la liquidation de ces ennemis ?

Il y aurait certainement des « dommages collatéraux » – pour utiliser le jargon militaire désastreux qui sépare les assassinats planifiés aux victimes non impliquées dans le conflit – mais ne serait-il pas plus efficace et chirurgical que de bombarder des villages entiers comme c’est le cas aujourd’hui au Yémen, en Syrie, à Gaza, en Irak, en Afghanistan ou en Somalie ?

On pourrait imaginer la même chose en ce qui concerne l’élimination des infrastructures essentielles, et une guerre pourrait prendre fin en quelques jours. En oubliant les séquelles postérieures, bien sûr.

C’est précisément cet argument, aussi cynique et fatidique que cela puisse paraître, qui est l’argument avancé par ceux qui encouragent l’investissement, la recherche et le développement d’armes autonomes meurtrières.

Au-delà des arguments, il y a des raisons évidentes implicites dans cette application mortelle des systèmes d’intelligence artificielle aux armes. Outre le maintien de la suprématie de la guerre, qui implique la possibilité d’éliminer toute résistance émergente à l’hégémonie géostratégique, il s’agit de préserver ou d’accroître la suprématie technologique. Cela signifie des avantages économiques évidents pour les gagnants et des dommages énormes pour les perdants.

Des gagnants qui appartiennent au Nord et des perdants qui habitent le Sud, ce qui ne fera qu’élargir le fossé socio-économique et le colonialisme technologique.

Les entreprises impliquées dans cette course aux armements visent des contrats de millions de dollars et des bénéfices sidéraux pour l’utilisation de l’intelligence artificielle dans les domaines militaire et civil, et les gouvernements investissent pour tenter de sortir le capitalisme stagnant d’une inertie économique fatidique.

C’est précisément le commerce des armes qui détruit l’argument sur l’autonomie appliquée aux armements. Par la commercialisation massive de ces systèmes et leur diffusion correspondante, les choses peuvent rapidement se retourner les unes contre les autres, avec le danger qu’une partie de cette technologie soit fournie par n’importe quel gouvernement ou trafiquant d’armes à des groupes irréguliers.

Ou que, dans une version simplifiée et abordable pour un « usage domestique », les armes autonomes puissent être utilisées par tout citoyen psychologiquement altéré qui pourrait jouer à des jeux vidéo en ciblant ses propres concitoyens.

Les machines à tuer raffinées : il est temps d’arrêter cette folie.

Les fous ne sont pas seulement ceux qui appuient sur la gâchette – ce qui, dans le cas des armes autonomes, serait difficile à discerner. Il est temps de mettre fin aux déséquilibres de pouvoir, aux entreprises manufacturières, aux gouvernements et aux banques qui financent leur production.

L’énorme progrès technologique de l’intelligence artificielle ne serait pas stoppé, mais il est possible d’interdire l’utilisation de l’intelligence artificielle à des fins militaires à l’échelle internationale.

See this content in the original post

(Campagne Clip StopKiller Robots)

Un nouveau cycle de la Convention sur certaines armes classiques (CCAC) s’est tenu du  9 au 13 avril 2018 aux Nations Unies à Genève, où les représentants des gouvernements discuteront de la question des armements autonomes pour la cinquième année consécutive.

Selon la Campagne StopKillerRobots, « après 3 ans de réunions exploratoires impliquant 80 États, un Groupe d’experts gouvernementaux (GGE) a été formalisé en 2016 » pour traiter la question. Outre la réunion qui se tiendra du 9 au 13 avril, une deuxième réunion est prévue du 27 au 31 août.

Aucune décision de fond ne sera prise lors de ces réunions, mais un rapport contenant des propositions pour l’avenir sera produit et adopté au cours de la Convention sur certaines armes classiques, qui aura lieu entre le 21 et le 23 novembre de cette année.

Les militants soulignent que « le fait d’habiliter les systèmes d’armes autonomes à décider des cibles et des attaques affaiblit l’obligation fondamentale régie par le droit international humanitaire (DIH) et viole les droits de l’homme. »

La campagne StopKillerRobots, qui rassemble plus de 50 organisations non gouvernementales internationales, vise à interdire le développement, la production et l’utilisation de systèmes d’armes totalement autonomes par le biais d’un traité international contraignant, ainsi que par le biais de lois nationales et d’autres mesures.

D’autre part, que les armes atteignent ou non leur pleine autonomie, les universitaires et les experts indiquent que l’application partielle de l’intelligence artificielle dans ce domaine produit déjà des effets dévastateurs.

De même, la course aux armements déclenchée par ces nouveaux développements doit être considérée comme un gaspillage de ressources dont on a un besoin urgent pour améliorer la vie de milliards de sans-abri.

La seule chose sur laquelle les promoteurs et les détracteurs s’entendent est que ces armes sont la troisième révolution technologique de la guerre, après la poudre à canon et les armes nucléaires. Cette fois, nous sommes appelés à empêcher cette révolution de se produire.

[i] Bornstein, J., ‘DOD autonomy roadmap: autonomy community of interest’, cite dans le rapport de SIPRI,  Mapping the development of autonomy in weapons systems, Boulanin V.- Verbruggen M., Noviembre 2017, pág 95

[ii] http://english.gov.cn/policies/latest_releases/2017/07/20/content_281475742458322.htm

[iii] http://www.americanmilitaryforum.com/forums/threads/china-opens-military-r-d-to-the-private-sector.1410/, cité dans le rapport SIPRI, ibídem., page 103

[iv] Les réseaux neuronaux sont un type de structure d’apprentissage informatique dans laquelle l’information circule à travers une série de cartes en réseau. Reinforcement learning est une technique d’auto-apprentissage computationnel dans laquelle l’agent apprend en interagissant avec son environnement. (Source : “The Weaponization of Increasingly Autonomous Technologies: Artificial Intelligence, Nro. 8”, par United Nations Institute for Disarmament Research (UNIDIR).

 Javier Tolcachier. Pressenza le 17 avril 2018

Campaign to Stop Killer Robots

https://www.stopkillerrobots.org/