Et si l'intelligence artificielle encourageait les internautes à être plus bienveillants ?
Les commentaires haineux font légion sur les réseaux sociaux, et ce malgré les efforts répétés de Facebook, Twitter, Reddit et YouTube pour les modérer. Des chercheurs de la plateforme OpenWeb se sont eux tournés vers l'intelligence artificielle pour modérer les commentaires des internautes avant même qu'ils ne soient postés. Une méthode qui porte ses fruits, puisqu'un tiers des internautes ont modifié leur commentaire après avoir vu apparaître une bannière d'avertissement.
Cette étude, menée par OpenWeb et Perspective API, s'est intéressée à 400.000 commentaires postés par 50.000 utilisateurs sur des sites tels que AOL, Salon, Newsweek, RT et Sky Sports.
Certains d'entre eux ont vu apparaître une bannière d'avertissement au moment où ils s'apprêtaient à poster un message potentiellement insultant, ou qui violait les règles d'utilisation du site qu'ils utilisaient. Au lieu de rejeter automatiquement le commentaire, un algorithme de modération invitait alors l'utilisateur à reformuler ses propos.
"Faisons en sorte que cette conversation soit courtoise. Veuillez supprimer tout langage inapproprié dans votre commentaire", ou bien encore "Certains membres de notre communauté pourraient trouver votre commentaire offensant. Et si vous le réécriviez ?"
Face à ces recommandations, un tiers des internautes (34%) ont immédiatement modifié leur commentaire, alors que 36% ont préféré le poster et encourir le risque de le voir être supprimé par l'algorithme modérateur. Plus étonnamment, les modifications apportées par les internautes ne rendent pas forcément leurs commentaires plus cordiaux et bienveillants.
Des trucs et astuces pour duper l'algorithme
Si près de 30% d'entre eux n'ont aucun problème à reformuler leur message en supprimant les passages potentiellement offensants, plus d'un quart (25,8%) préfère essayer de duper l'algorithme modérateur.
Fautes d'orthographe, ajout d'espace entre les lettres… Tous les moyens sont bons pour modifier la forme de son commentaire, sans en changer le fond. Ces astuces sont particulièrement populaires chez les groupes suprémacistes américains, qui, selon Vice, ont utilisé le mot "jogger" (coureur) au lieu du terme controversé "nig**r" suite à la mort d'Ahmaud Arbery.
Les 400.000 commentaires analysés dans le cadre de cette étude ne sont toutefois qu'une infime fraction des millions de messages postés quotidiennement sur Internet, dont une partie véhicule des messages offensants ou haineux. Face à ce constat, les géants de la tech accélèrent leurs efforts pour combattre la haine en ligne de façon plus efficace. Une lutte dans laquelle l'intelligence artificielle peut s'avérer très utile, bien qu'imparfaite.