Retour

Plaidoyer pour un traité contre les robots tueurs

Les pieuvres mécaniques des machines dans La matrice, l'armée de Skynet et les Cylons de Battlestar Galactica. L'intelligence artificielle et la robotique font rarement bon ménage en science-fiction. Au moment où les progrès technologiques ouvrent la voie aux drones et autres engins automatisés, Yoshua Bengio, directeur scientifique de l'Institut d'intelligence artificielle du Québec, appelle à une interdiction préventive d'éventuels tueurs mécaniques automatisés.

En entrevue au Téléjournal, M. Bengio se range du côté de l'astrophysicien Stephen Hawking et de l'entrepreneur milliardaire Elon Musk, patron du fabricant automobile Tesla et de l'entreprise spatiale SpaceX, ainsi que d'autres responsables et chercheurs qui mettent en garde contre les dérives d'une intelligence artificielle à qui l'on n'imposerait pas de barrières morales ou éthiques.

Pour Yoshua Bengio, donc, il n'est pas question de concevoir des armes automatisées pouvant tuer sans intervention humaine.

« Parfois, il y a des circonstances qui font en sorte qu'un jugement moral est nécessaire pour savoir quelle est la bonne chose à faire », dit-il, avant de préciser que les conflits armés sont traditionnellement strictement encadrés.

L'expert en intelligence artificielle et en « apprentissage profond » soutient ainsi que le développement d'une conscience numérique doit se faire « au bénéfice de l'humanité ».

Sans encadrement politique et législatif, des chercheurs pourraient mettre au point des armes capables de massacrer des populations spécialement visées par un État ou encore un groupuscule politique ou militaire.

« Il y a déjà des systèmes qui peuvent reconnaître une personne en utilisant uniquement sa photo. Si l'on combine cela à des drones tueurs... », évoque encore le chercheur, pour qui « ce n'est pas quelque chose qui va arriver dans 10 ans, c'est quelque chose qui peut se produire assez rapidement ».

Le temps presse

« Il faut agir le plus tôt possible », ajoute M. Bengio, qui craint l'ouverture d'une boîte de Pandore.

Voilà pourquoi le spécialiste propose de se tourner vers les Nations unies pour obtenir un traité balisant la mise au point de l'intelligence artificielle. « Il y aura toujours des États qui vont tricher, mais avoir un traité international pourrait avoir un impact important sur le développement [des robots tueurs] et en faire quelque chose d'immoral », poursuit M. Bengio, qui donne l'exemple du traité contre les mines antipersonnel.

La question des robots tueurs – et de l'intelligence artificielle en général – est une question d'éthique et de morale, réitère Yoshua Bengio. « Va-t-on utiliser cette technologie pour le Bien? Pour le Mal? Va-t-on s'organiser collectivement, politiquement, socialement pour éviter les abus? »

Plutôt que d'envisager un avenir dystopique où régneraient des machines sanguinaires, M. Bengio évoque donc un monde où l'intelligence artificielle servirait dans les secteurs de la santé, de l'éducation ou pour aider les moins bien nantis.

Plus d'articles

Commentaires

Vidéo du jour


Une caméra de sécurité montre quelque chose d'extraordinaire





Rabais de la semaine