• Actualités
  • En santé mentale, l'IA peut avoir des biais de genre et d'origine ethnique

    Publié le  , mis à jour le 
    Lecture 2 min.
     AFP/Relaxnews
    AFP/Relaxnews Agence de Presse

    Les algorithmes peuvent aussi faire preuve de discrimination dans le domaine de la santé mentale, selon une chercheuse.

    L'adage dit qu'il ne faut pas se fier aux apparences. Et pourtant, c'est ce que semble faire l'intelligence artificielle. Selon une étude américaine de l'université du Colorado, certains outils basés sur l'IA pourraient s'appuyer sur des préjugés pour traiter des patients, dans le domaine de la santé mentale.

    Les stéréotypes ont la vie dure. Et selon les chercheurs de l'université Boulder du Colorado, les algorithmes ont également adopté ces clichés. L'étude menée par Theodora Chaspari, professeure associée en informatique, révèle une réalité préoccupante : les outils d'intelligence artificielle (IA) utilisés pour évaluer les problèmes de santé mentale peuvent être biaisés en fonction du genre et de l'origine ethnique des patients. Cette découverte soulève des questions cruciales sur l'équité et l'efficacité des technologies de santé mentale à l'heure où le syndrome méditerranéen (terme utilisé pour désigner une croyance selon laquelle les personnes originaires du pourtour méditerranéen seraient moins résistantes à la douleur) fait encore des victimes.

    La suite après cette publicité

    Publiée dans le journal “Frontiers in Digital Health”, l'étude baptisée "Deconstructing demographic bias in speech-based machine learning models for digital health" démontre que les algorithmes, censés dépister les problèmes de santé mentale comme l'anxiété et la dépression, peuvent faire des suppositions fondées sur le genre et l'origine ethnique des patients : "Si l'IA n'est pas bien entraînée ou si elle n'inclut pas suffisamment de données représentatives, elle peut propager ces préjugés humains ou sociétaux", a déclaré la professeure Chaspari, professeur associé au département d'informatique.

    La suite après cette publicité

    Après avoir soumis des échantillons audio de personnes à un ensemble d'algorithmes en apprentissage, les chercheurs ont pu s'apercevoir de plusieurs failles potentiellement dangereuses pour les patients. En l'occurrence pour les patientes. D'après les résultats, les machines sous-diagnostiquaient davantage les femmes présentant des risques de dépressions que les hommes.

    En plus d'une discrimination sur le genre des patients, l'IA peut aussi maladroitement juger l'élocution des patients. Pour les chercheurs, les personnes souffrant d'anxiété s'expriment avec un ton plus aigu et avec plus d'agitation, tout en montrant des signes d'essoufflement. Au contraire, les personnes présentant des signes de dépression auront plus tendance à parler doucement et avec un ton monotone.

    La suite après cette publicité

    Pour mettre à l'épreuve ces hypothèses, les chercheurs ont analysé le comportement des participants face à un groupe de personnes qu'ils ne connaissaient pas. Un autre groupe composé d'hommes et de femmes ont quant à eux parlé entre eux.

    Alors que dans le premier groupe, les personnes d'origine d'Amérique latine se sont dits être plus nerveux que les participants blancs et noirs, l'IA ne l'a pas détecté. Dans le second, les algorithmes ont attribué un même niveau de risques de dépression chez les hommes comme chez les femmes, or, ces dernières avaient en réalité davantage de symptômes. "Si nous pensons qu'un algorithme sous-estime la dépression pour un groupe spécifique, nous devons en informer les cliniciens", a souligné Theodora Chaspari.

    La suite après cette publicité


    Sources
    • ETX Studio
    • Deconstructing demographic bias in speech-based machine learning models for digital health - Front. Digit. Health, 25 July 2024 - Sec. Health Informatics Volume 6 - 2024 | https://doi.org/10.3389/fdgth.2024.1351637
    Partager sur :

    Newsletter Bien Vieillir

    Recevez nos dernières actualités pour rester en forme

    Doctissimo, met en oeuvre des traitements de données personnelles, y compris des informations renseignées dans le formulaire ci-dessus, pour vous adresser les newsletters auxquelles vous vous êtes abonnés et, sous réserve de vos choix en matière de cookies, rapprocher ces données avec d’autres données vous concernant à des fins de segmentation client sur la base de laquelle sont personnalisées nos contenus et publicités. Davantage d’informations vous seront fournies à ce sujet dans l’email qui vous sera adressé pour confirmer votre inscription.

    Merci de votre confiance

    Découvrez toutes nos autres newsletters.

    Découvrir