Rapprocher la science et le développement

Appel à un traité de l'ONU sur les robots tueurs
  • Appel à un traité de l'ONU sur les robots tueurs

Crédit image: Panos

Lecture rapide

  • L'industrie de l'intelligence artificielle met en garde contre le potentiel destructeur des robots tueurs

  • Les robots tueurs sont perçus comme des armes de "troisième révolution" après la poudre à canon et les armes nucléaires

  • Le traité proposé serait semblable à celui sur les armes chimiques et biologiques

Shares
[SYDNEY] Les fondateurs des principales sociétés de robotique et d'intelligence artificielle (IA) de 26 pays ont, dans une lettre ouverte à la Convention des Nations Unies sur certaines armes classiques (1), [Convention on Certain Conventional Weapons  - (CCW)] appelé à un traité international visant à interdire les robots tueurs.
 
Les robots tueurs ou les armes autonomes peuvent identifier et attaquer une cible sans intervention humaine. Ils comprennent des quadrirotors armés et des drones autonomes qui n'ont pas besoin d'une intervention humaine pour agir, mais n'incluent pas les missiles de croisière ou les drones pilotés à distance.
 
La lettre, signée par 116 fondateurs de l'industrie de l'intelligence artificielle (IA), est une idée de Toby Walsh, professeur d'IA à l'Université de Nouvelle-Galles du Sud à Sydney.
 
Publiée lors de l'ouverture de la Conférence conjointe internationale sur l'intelligence artificielle (International Joint Conference on Artificial Intelligence - IJCAI 2017 - 21-23 août), la lettre devait avoir coïncidé avec la première réunion du Groupe d'experts gouvernementaux sur les systèmes d'armes autonomes létales des Nations Unies, maintenant reprogrammée pour novembre.

“Si ces armes sont fabriquées, certaines d'entre elles tomberont invariablement entre les mains de personnes qui n'auraient aucun scrupule à les utiliser à des fins de destruction.”

Toby Walsh

 
La lettre est une position commune contre la "troisième révolution" après la poudre et les armes nucléaires. Parmi les signataires figurent Elon Musk, fondateur de Tesla, SpaceX et OpenAI et Mustafa Syleyman, fondateur et responsable de Applied AI chez DeepMind (Google).
 
La lettre indique: "En tant qu'entreprises conceptrices de technologies d'IA et de robotique susceptibles d'être réutilisées pour développer des armes autonomes, nous nous sentons particulièrement responsables pour lancer l'alarme. Une fois développées, elles donneront lieu à des conflits armés à une échelle inouïe, et à des échelles de temps insaisissables. Il peut s'agir d'armes de terreur, d'armes utilisées par des despotes et des terroristes contre des populations innocentes et d'armes piratées pour se comporter de manière détournée. Une fois que cette boîte de Pandore sera ouverte, il sera difficile de la refermer."
 
Toby Walsh, l'une des personnalités à l'origine de la rédaction de la lettre de 2015 à l'ONU, signée par des chercheurs en IA et en robotique et approuvée par le physicien britannique Stephen Hawking et le cofondateur d'Apple, Steve Wozniak, entre autres, estime que si la lettre précédente avait déjà mis en garde contre une course aux armements, celle de 2017 vise à donner une impulsion aux délibérations sur le sujet. "Je m'attends à un impact très positif, car la première lettre avait placé le sujet en haut des priorités de l'ONU".
 
En décembre 2016, il avait été unanimement convenu d'entamer des discussions formelles sur les armes autonomes au niveau de la Conférence des Nations Unies pour l'examen de la CCW, composée de 123 Etats membres.
 
"C'est un problème plus pressant aujourd'hui", explique Toby Walsh à SciDev.Net. "Cette nouvelle lettre démontre clairement que ce ne sont pas seulement les chercheurs et les milieux universitaires, des gens comme moi [qui sont inquiets], mais que l'industrie la soutient également. Nous vivons dans un monde de plus en plus instable où les Etats voyous et les organisations terroristes jouent un rôle plus dangereux. Si ces armes sont fabriquées, certaines d'entre elles tomberont invariablement entre les mains de personnes qui n'auraient aucun scrupule à les utiliser à des fins de destruction."
 
"L'IA peut aider à résoudre un grand nombre de problèmes pressants à l'échelle mondiale, tels que l'inégalité et la pauvreté, les défis posés par le changement climatique et la crise financière mondiale en cours. Mais l'inconvénient est que la même technologie peut également être utilisée dans des armes autonomes pour industrialiser la guerre. C'est la raison pour laquelle je demande une interdiction de ces armes par l'ONU, semblable à l'interdiction des armes chimiques et autres", ajoute Toby Walsh.
 
Mais selon Mary-Anne Williams, directrice de l'innovation de rupture à Université de Technologie de Sydney, "la seule interdiction d'un robot tueur n'affectera pas les États voyous et les groupes terroristes, car ils n'observent pas les interdictions, pas plus qu'ils ne respectent le droit international. La nature des armes destructrices change; elles sont de plus en plus issues du bricolage. On peut fabriquer un pistolet à partir d'une impression tridimensionnelle (fabrication additive), lancer une bombe à partir d'un drone ou transformer des voitures ordinaires en armes".
 
La plupart des experts s'entendent sur une réglementation plus stricte.
 
Michael Harre, conférencier au sein du groupe des systèmes complexes de l'Université de Sydney, note qu'une question tout aussi importante est le potentiel pour les systèmes autonomes non militaires d'être dangereux, comme les bots informatiques commerciaux sur les marchés financiers qui risquent des milliards de dollars. Bientôt, nous aurons également des appareils issus des technologies de  l'intelligence artificielle autonomes qui ont une psychologie de base, une conscience du monde semblable à celle des animaux. Ces appareils peuvent apprendre à être dangereux tout comme Tay, le chat-bot (agent conversationnel) d'IBM, qui a appris à être anti-social sur Twitter".

Cet article a été rédigé par le desk Asie-Pacifique de SciDev.Net

Références

(1) Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination.
Republier
Nous vous encourageons à reproduire cet article en ligne ou sur support papier. La reproduction est libre de droit, suivant les termes de notre licence Creative Commons. Nous vous prions cependant de suivre ces directives simples :
  1. Vous devez créditer nos auteurs.
  2. Vous devez créditer SciDev.Net — dans la mesure du possible, veuillez insérer notre logo, avec un rétrolien vers l’article originel.
  3. Vous pourriez aussi simplement publier les premières lignes de l’article et ajouter ensuite la mention: "Veuillez lire l’intégralité de l’article sur SciDev.Net", avec un lien vers l’article originel.
  4. Si vous souhaitez aussi reprendre les images publiées avec cet article, veuillez vérifier avec les détenteurs de droits d’auteur que vous êtes autorisés à les utiliser.
  5. Le moyen le plus facile de reproduire l’article sur votre site est d’intégrer le code ci-dessous. 
Pour plus d’informations, veuillez consulter notre page media et nos conseils pour la reproduction.