Comment les outils médicaux d'intelligence artificielle affectent-ils la santé des femmes ?
Divers

Comment les outils médicaux d'intelligence artificielle affectent-ils la santé des femmes ?

SadaNews - Plusieurs études ont révélé que les outils médicaux qui reposent sur des modèles d'intelligence artificielle sont biaisés contre les femmes et les minorités raciales dans le diagnostic de leurs conditions médicales, mettant ainsi leur vie en danger, selon un rapport publié par le Financial Times.

Les études menées dans plusieurs universités prestigieuses aux États-Unis et au Royaume-Uni indiquent que les outils basés sur des modèles linguistiques profonds tendent à minimiser la gravité des symptômes que rencontrent les femmes et montrent moins d'empathie envers les minorités raciales.

Ces études coïncident avec les efforts de grandes entreprises technologiques comme "Microsoft" et "OpenAI" pour proposer des outils d'intelligence artificielle qui réduisent la charge sur les médecins, espérant ainsi accélérer le processus de diagnostic et passer à l'étape du traitement.

De nombreux médecins ont commencé à utiliser des modèles d'intelligence artificielle tels que "Gemini" et "ChatGPT" ainsi que des outils de prise de notes médicales pour recevoir les plaintes des patients et parvenir plus rapidement à la véritable plainte.

Il est à noter que "Microsoft" a révélé en juin dernier un outil médical d'intelligence artificielle qu'elle prétend être quatre fois plus efficace que les médecins humains pour diagnostiquer des maladies.

Cependant, les études menées en même temps au Massachusetts Institute of Technology montrent que les outils médicaux d'intelligence artificielle ont fourni moins de soins aux patients femmes et ont recommandé que certains patients reçoivent leur traitement à domicile plutôt que de chercher une intervention médicale.

Une autre étude distincte menée à l'institut a révélé que les outils d'intelligence artificielle étaient moins empathiques envers les minorités raciales souffrant de maladies mentales et psychologiques.

Une étude supplémentaire provenant de la London School of Economics a révélé que le modèle "Google Gemma" minimisait la gravité des problèmes physiques et psychologiques rencontrés par les femmes. Il convient de mentionner que "Gemma" est un modèle d'intelligence artificielle open source de "Google" largement utilisé par les autorités locales au Royaume-Uni.

Le rapport souligne que la cause de ce biais racial réside dans le mécanisme de formation des modèles linguistiques profonds et les données utilisées pour les former, car les entreprises s'appuient sur des données disponibles gratuitement sur internet, qui comprennent souvent des expressions racistes et des préjugés contre certains groupes.

Ainsi, ce biais se transmet aux modèles linguistiques profonds, malgré les tentatives des développeurs de réduire cet impact en instaurant des restrictions sécurisées pour arrêter le modèle.

Pour sa part, "OpenAI" a précisé que la majorité des études se fondaient sur des modèles anciens d'outils d'intelligence artificielle, ajoutant que les nouveaux modèles sont devenus moins susceptibles à ce biais.

De même, "Google" a affirmé qu'elle prend des mesures strictes contre le racisme et le biais et qu'elle développe des restrictions rigoureuses pour les éliminer complètement.

Cependant, Travis Zack, professeur assistant à l'Université de Californie à San Francisco et responsable médical principal de la startup "OpenEvidence" dans le domaine de l'information médicale par intelligence artificielle, estime que la véritable solution à cette crise réside dans le choix plus soigneux des types de données sur lesquelles s'entraînent les modèles d'intelligence artificielle.

Zack ajoute que l'outil "OpenEvidence" - utilisé par plus de 400 000 médecins aux États-Unis - a été entraîné sur des documents médicaux et des directives de santé fournies par des médecins experts, ainsi que sur les références médicales utilisées dans les universités.

Source : Financial Times