Retour

Combattre les comportements toxiques sur Internet avec l'intelligence artificielle

L'Université Laval annonce une entente de 1,7 million de dollars pour développer des moyens de lutter contre l'intimidation, le harcèlement et la radicalisation sur Internet. Avec des millions, sinon des milliards de messages publiés en ligne chaque jour, cette lutte à la toxicité devra inévitablement passer par l'intelligence artificielle.

Un texte de Jonathan Lavoie

« C'est un des gros défis auquel on va faire face au 21e siècle. On a laissé Internet être un peu comme le wild west, [...] et clairement ça a eu des effets néfastes », commente Richard Khoury, du Centre de recherche en données massives de l'Université Laval.

Pour s'attaquer au problème, le Département d'informatique et de génie logiciel s'est associé à l'entreprise Two Hat Security. Avec son logiciel baptisé Community Sift, l'entreprise basée à Kelowna surveille et filtre en temps réel plus de quatre milliards de messages par jour.

La technologie existante est cependant loin d'être parfaite. Selon Richard Khoury, les algorithmes développés par l'entreprise basée en Colombie-Britannique donnent encore trop de faux positifs; de nombreux messages sont identifiés comme toxiques alors qu'ils ne le sont pas vraiment.

Une centaine de stages

Au cours des quatre prochaines années, l'entente avec Two Hats Security permettra de financer plus d'une centaine de stages offerts aux étudiants à la maîtrise et au doctorat.

« Notre étude va servir à développer de nouveaux algorithmes pour détecter la toxicité sur Internet et la filtrer sans affecter les autres utilisateurs », explique le professeur Richard Khoury.

Pornographie juvénile, cyberintimidation chez les jeunes, harcèlement et radicalisation sont autant de phénomènes répandus dans le monde virtuel auxquels il souhaite s'attaquer.

« Rendre les communautés en ligne aussi sécuritaires et aussi propres que nos communautés dans le monde réel sera le prochain grand défi de notre génération », soutient le professeur.

Au service des agences de sécurité

À terme, Richard Khoury espère que les algorithmes développés dans le cadre de ce programme serviront aux agences de sécurité canadiennes, dont la Gendarmerie royale du Canada (GRC).

« Les algorithmes de traitement du langage peuvent avoir une foule d'application et vont être partagés, soutient-il. La GRC, pour l'instant, n'a pas vraiment d'outil pour surveiller et faire respecter les lois et notre sécurité sur Internet. »

Certains pas de géants restent néanmoins à franchir pour développer une intelligence artificielle capable de saisir les nuances des propos tenus sur Internet.

« C'est un défi qui reste un peu subjectif, un message peut sembler toxique pour une personne ,et sembler innocent pour une autre personne qui a une perspective différente », illustre le spécialiste des données massives.

Richard Khoury ajoute que le contexte et les circonstances d'un message sont également des facteurs encore difficiles à analyser pour un programme d'intelligence artificielle.

Plus d'articles

Commentaires

Vidéo du jour


Une caméra de sécurité montre quelque chose d'extraordinaire





Rabais de la semaine