Retour

Militarisation de l'intelligence artificielle : « L’ampleur des dégâts pourrait être sans limites »

Une sortie publique d'employés de Google remet de l'avant les questions éthiques soulevées par le développement à vitesse grand V de l'intelligence artificielle et son utilisation à des fins militaires. Des spécialistes appellent les instances internationales à réglementer ces systèmes d'armes létaux autonomes (SALA) pour prévenir toute utilisation « malveillante ».

Un texte de Rania Massoud

Dans une lettre publiée mercredi dans le New York Times, des milliers d’employés de Google dénoncent l’implication du géant du web dans un projet du Pentagone visant à développer des algorithmes, basés sur l'intelligence artificielle (IA), capables d'analyser les vidéos enregistrées par les drones militaires.

La lettre, qui a récolté plus de 3100 signatures, reflète, selon le quotidien américain, « le conflit culturel opposant Silicon Valley au gouvernement fédéral ». Ce conflit risque de « s’intensifier avec l’utilisation de plus en plus fréquente de l’intelligence artificielle à des fins militaires », poursuit le journal.

Les signataires de la lettre affirment que le projet conjoint avec le Pentagone, baptisé Maven, « causera des dommages irréparables » à la réputation de l’entreprise californienne.

« Google ne doit pas s’impliquer dans l'industrie de la guerre », peut-on lire dans la lettre adressée à Sundar Pichai, président-directeur général de Google.

Les employés appellent le géant du web à se retirer du projet Maven et à s’engager à ne « jamais développer des technologies de guerre », évoquant la devise de Google Don't be evil (Ne soyez pas malveillants).

Un encadrement international nécessaire

Contacté par Radio-Canada.ca, Wendell Wallach, consultant au Hastings Center, un institut de recherche en bioéthique basé à New York, souligne la complexité de ce débat. Selon lui, l’intelligence artificielle « fera désormais partie intégrante de tous les aspects de la vie, y compris les activités militaires ».

Auteur du livre A Dangerous Master : How to Keep Technology from Slipping Beyond Our Control (Un maître dangereux : comment empêcher la technologie de glisser hors de notre contrôle), M. Wallach affirme que les professionnels du milieu de la haute technologie dans la Silicon Valley ont raison de s’inquiéter à long terme.

Évoquant le projet conjoint entre Google et le Pentagone, l’expert affirme que le géant du web pourrait avoir reçu un engagement à court terme de la part du gouvernement de ne pas utiliser ses technologies comme armes létales autonomes. Mais selon lui, il est nécessaire de parvenir à un traité international contraignant pour « bannir, ou du moins restreindre, le déploiement des armes létales autonomes » dans les zones de guerre.

Les systèmes d’armes létaux autonomes sont capables « d’identifier et d’engager une cible sans intervention humaine », selon la définition fournie par le Bureau des affaires de désarmement des Nations unies.

M. Wallach, qui a témoigné en faveur de l’interdiction de ce type d’armes devant la réunion d'experts sur les systèmes d'armes létaux autonomes, en 2016, à Genève, affirme que les entreprises technologiques ont une responsabilité éthique dans ce débat. « Les compagnies qui développent des systèmes d’intelligence artificielle susceptibles d’être utilisés à des fins militaires doivent remettre en question ce type de projets si elles ont la capacité de le faire », a-t-il affirmé.

La responsabilité des entreprises

Abhishek Gupta, chercheur en déontologie de l'intelligence artificielle de l'Université McGill, est du même avis : « Il est essentiel d'avoir les discussions nécessaires autour des questions entourant l'éthique, la responsabilité, le contrôle, la transparence, la partialité et la confidentialité dans le développement et le déploiement de ces technologies. »

Selon lui, en tant que « fournisseurs de solutions technologiques », les entreprises de haute technologie sont tenues de s'informer sur l'utilisation future de leurs outils. « Si les implications éthiques ne sont pas compatibles avec les valeurs, la vision et les principes de la compagnie, alors il y a indéniablement une responsabilité à porter par la direction de l'entreprise, ainsi que par les personnes impliquées » dans le projet en question, affirme encore M. Gupta à Radio-Canada. « Leur inaction pourrait être interprétée comme un signe de complicité », ajoute-t-il.

« Tant qu’il n’existe pas une loi internationale contraignante, il n’existe pas vraiment de moyen pour limiter l’utilisation de l’intelligence artificielle à des fins militaires », nuance de son côté M. Wallach, tout en affirmant que le débat a déjà été entamé au niveau international, « malgré la lenteur des discussions ». Une réunion d'experts est d’ailleurs prévue du 9 au 13 avril, à Genève.

« La question reste de savoir à quel degré les systèmes d’intelligence artificielle seront utilisés en temps de guerre, d’autant plus que ces outils seront de plus en plus performants et de plus en plus puissants », ajoute M. Wallach.

Une crainte partagée par Martin Gibert, chercheur en éthique de l’intelligence artificielle à l’Université de Montréal, qui met en garde contre une course à l'armement dans le domaine des SALA ou « robots tueurs ». « On peut vite entrer dans une spirale où il s'agit de développer le plus vite possible des armes utilisant l'IA afin d'avoir un avantage concurrentiel sur ses rivaux », comme la Russie ou la Chine, dans le cas des États-Unis, dit-il.

« Sans un traité de non-prolifération des robots tueurs, rien n'empêchera une telle course à l'abîme », poursuit-il. Dans ce contexte, la démarche des employés de Google « pourrait aller dans le bon sens » : « cela envoie le signe que le développement de l’IA devrait ultimement viser le bien-être de tous les êtres sentients, comme le suggère la Déclaration de Montréal », conclut M. Gibert.

Plus d'articles

Vidéo du jour


Une maman bouledogue amuse son petit





Rabais de la semaine