En santé mentale, l'IA peut avoir des biais de genre et d'origine ethnique
L'adage dit qu'il ne faut pas se fier aux apparences. Et pourtant, c'est ce que semble faire l'intelligence artificielle. Selon une étude américaine de l'université du Colorado, certains outils basés sur l'IA pourraient s'appuyer sur des préjugés pour traiter des patients, dans le domaine de la santé mentale.
Les stéréotypes ont la vie dure. Et selon les chercheurs de l'université Boulder du Colorado, les algorithmes ont également adopté ces clichés. L'étude menée par Theodora Chaspari, professeure associée en informatique, révèle une réalité préoccupante : les outils d'intelligence artificielle (IA) utilisés pour évaluer les problèmes de santé mentale peuvent être biaisés en fonction du genre et de l'origine ethnique des patients. Cette découverte soulève des questions cruciales sur l'équité et l'efficacité des technologies de santé mentale à l'heure où le syndrome méditerranéen (terme utilisé pour désigner une croyance selon laquelle les personnes originaires du pourtour méditerranéen seraient moins résistantes à la douleur) fait encore des victimes.
Publiée dans le journal “Frontiers in Digital Health”, l'étude baptisée "Deconstructing demographic bias in speech-based machine learning models for digital health" démontre que les algorithmes, censés dépister les problèmes de santé mentale comme l'anxiété et la dépression, peuvent faire des suppositions fondées sur le genre et l'origine ethnique des patients : "Si l'IA n'est pas bien entraînée ou si elle n'inclut pas suffisamment de données représentatives, elle peut propager ces préjugés humains ou sociétaux", a déclaré la professeure Chaspari, professeur associé au département d'informatique.
Après avoir soumis des échantillons audio de personnes à un ensemble d'algorithmes en apprentissage, les chercheurs ont pu s'apercevoir de plusieurs failles potentiellement dangereuses pour les patients. En l'occurrence pour les patientes. D'après les résultats, les machines sous-diagnostiquaient davantage les femmes présentant des risques de dépressions que les hommes.
En plus d'une discrimination sur le genre des patients, l'IA peut aussi maladroitement juger l'élocution des patients. Pour les chercheurs, les personnes souffrant d'anxiété s'expriment avec un ton plus aigu et avec plus d'agitation, tout en montrant des signes d'essoufflement. Au contraire, les personnes présentant des signes de dépression auront plus tendance à parler doucement et avec un ton monotone.
Pour mettre à l'épreuve ces hypothèses, les chercheurs ont analysé le comportement des participants face à un groupe de personnes qu'ils ne connaissaient pas. Un autre groupe composé d'hommes et de femmes ont quant à eux parlé entre eux.
Alors que dans le premier groupe, les personnes d'origine d'Amérique latine se sont dits être plus nerveux que les participants blancs et noirs, l'IA ne l'a pas détecté. Dans le second, les algorithmes ont attribué un même niveau de risques de dépression chez les hommes comme chez les femmes, or, ces dernières avaient en réalité davantage de symptômes. "Si nous pensons qu'un algorithme sous-estime la dépression pour un groupe spécifique, nous devons en informer les cliniciens", a souligné Theodora Chaspari.