Aller au contenu principal

Un outil pour flairer l'imminence de commentaires toxiques en ligne

Des algorithmes qui tiennent compte de la polarité des sentiments permettraient d'anticiper les conversations toxiques.

Dans le film Rapport minoritaire, les forces de l'ordre du futur combattent le crime en faisant appel à des mutants – des précogs – capables de pressentir un méfait avant qu'il ne soit commis. On ne peut s'empêcher de penser que ces précogs seraient très utiles pour éviter que les conversations dégénèrent et conduisent à une pluie de commentaires toxiques sur le Web. En effet, dans l'état actuel des choses, les modérateurs interviennent après le fait, une fois que les commentaires offensants ont été publiés.

Éloi Brassard-Gourdeau et Richard Khoury, du Département d'informatique et de génie logiciel, croient qu'il y a moyen de faire mieux. Dans un article en prépublication sur Arxiv.com, ils démontrent que le caractère positif ou négatif des mots utilisés dans une conversation ainsi que l'intensité de cette polarité permettent d'améliorer les algorithmes servant à prédire si un échange risque de dérailler.

Présentement, les modérateurs sont avisés qu'une conversation toxique a eu lieu par des utilisateurs qui portent plainte ou par des algorithmes relativement simples, mais pas toujours fiables. «Ces algorithmes détectent des mots-clés qui peuvent être offensants, mais qui ne le sont pas forcément dans un contexte donné, signale Richard Khoury. De plus, il serait préférable de prévoir qu'une conversation prend un mauvais tournant avant qu'elle devienne toxique.»

Pour tous les détails, nous vous invitons à lire l'article paru sur ULaval nouvelles.