Retour

Les intelligences artificielles assimilent nos préjugés

Les chercheurs ont fait un constat inquiétant non seulement quant à l'avenir des intelligences artificielles, mais aussi au sujet de notre propre façon d'être : plus ces algorithmes améliorent leur compréhension du langage en se basant sur nos écrits, plus ils développent des préjugés.

Un texte de Renaud Manuguerra-Gagné

Ceux qui utilisent Google Traduction ou les commandes vocales de téléphones intelligents peuvent constater que le fonctionnement de ces systèmes s’est amélioré avec le temps.

De plus en plus, les intelligences artificielles complexes apprennent par elles-mêmes, de façon automatique. Et il est plus simple de les laisser analyser leur entourage et s’améliorer elles-mêmes que de tout encoder de façon définitive dès le début.

Le « word embedding » ou « prolongement lexical »

Les intelligences artificielles qui travaillent sur le langage apprennent donc progressivement à utiliser le contexte d’une phrase au lieu de tout prendre au pied de la lettre.

Ainsi, au lieu de se fier uniquement à la définition d’un mot, l’algorithme le réduit à une valeur statistique où le terme est associé aux mots qui l’accompagnent dans la plus grande majorité des textes observés. Par exemple, les termes « glace » et « froid » sont proches dans 80 % des textes observés, ils sont donc fortement associés : c’est ce qu’on désigne par l’expression « word embedding », ou « prolongement lexical ». Ce procédé aide l’intelligence à comprendre le contexte dans lequel le mot est utilisé et accélère sa compréhension.

Selon une étude publiée dans la revue Science, le problème, c'est qu’on peut seulement donner à une machine des textes rédigés par des humains. À la longue, les algorithmes vont donc incorporer des biais couramment observés dans le langage usuel.

Stéréotypés par association

Parfois, cela n’entraîne aucune conséquence. Les chercheurs ont, par exemple, remarqué que les associations statistiques autour du mot « fleur » incluaient les termes « joli », « couleur », « agréable » ou « parfum ».

Les instruments de musique connaissaient aussi des associations plaisantes, contrairement aux associations négatives attribuées aux insectes ou aux armes.

La situation change si on s’intéresse à d’autres mots, tels que « homme » ou « femme ». Dans le contexte d’un emploi, le mot « homme » était plus souvent associé à des mots évoquant des carrières et des postes de dirigeants, en science ou en ingénierie, tandis que le mot « femme » était, pour sa part, plus souvent associé à des termes désignant des postes d’assistantes, dans des domaines comme les arts et les lettres, ou encore à la maison et à la famille.

Pour les ethnies, les algorithmes associaient les origines ou les prénoms liés aux Américains de descendance européenne à des mots plaisants, alors que les origines ou prénoms liés aux Afro-Américains étaient plus souvent associés à des termes déplaisants.

Ces associations demeurent purement statistiques. Elles sont apparues dans l’algorithme parce que c’est la tendance qui s’est dégagée lors de sa lecture de millions de textes et de milliards de mots. C’est donc un biais qui est présent dans le langage.

Selon les chercheurs, si on crée une intelligence artificielle capable de reproduire les subtilités de notre langage, elle risque d’être aussi imprégnée des associations culturelles et historiques qui y sont imbriquées.

Ces machines n’ayant pas de conscience, elles vont simplement répéter leurs apprentissages. Si, par exemple, un algorithme qui a la tâche de trier des CV reçus par un employeur a un biais de langage et associe un emploi aux hommes, les CV masculins risquent de se retrouver au haut de la pile à cause des associations lexicales retenues.

Il y a, heureusement, des solutions. Cette constatation va permettre de vérifier comment se comportent les algorithmes pour corriger les biais dès qu’ils sont repérés.

Cela dit, pour corriger la source du problème, il faudrait essayer de changer certains aspects de la société. D’autres études, cette fois en psychologie humaine, ont montré que les biais négatifs envers la communauté homosexuelle dans les textes ont décliné au cours des 15 dernières années. Il en sera peut-être de même pour les autres biais; mais changer la société aussi profondément s'avérera certainement beaucoup plus complexe.

Plus d'articles

Commentaires