Tout miser sur l'IA : préjugés et équité

Publié le: 3 juillet 2024

Partagez

Responsable des Sciences et Operations Cliniques, Lionel Bascles, nous raconte l’importance d’assurer l’impartialité de nos systèmes d’IA et comment Sanofi s’assure l’équité au sein de son paysage digital.
Comme l’utilisation de l’IA commence à toucher toutes les parties de notre vie, il est plus important que jamais de s’assurer qu’elle est développée d’une manière juste et responsable pour toutes les personnes, indépendamment de leurs parcours ou de leurs identités.  

L’équité est l’idée que tous les êtres humains ont un statut moral égal et ne doivent subir aucun préjugé discriminatoire.* L’objectif de l’équité dans l’IA est de concevoir, développer, déployer et utiliser les systèmes d’IA de manière à ne pas entraîner de préjugé discriminatoire.  

Les risques de discrimination ne sont ni nouveaux ni propres à l’IA, et comme avec d’autres technologies, il n’est pas possible d’atteindre un risque zéro de préjugé dans un système d’IA.* Toutefois, chez Sanofi, nous nous efforçons de nous assurer que nos systèmes d’IA sont conçus pour minimiser raisonnablement les résultats discriminatoires dans la mesure du possible. 

La première étape pour atténuer les préjugés liés à l’IA consiste à comprendre comment les préjugés sont introduits dans les systèmes d’IA

Lorsque nous regardons les préjugés, nous prenons généralement en compte deux types : conscient (connu) et inconscient (inconnu). Il existe de nombreux domaines dans lesquels des préjugés peuvent être introduits tout au long du cycle de vie du système IA :  

A partir des données

L’efficacité des systèmes d’IA/AM repose sur la qualité des données d’entraînement. Bien que les données soient souvent considérées comme des « vérités fondamentales », elles demeurent une abstraction dans notre monde complexe. La production, la construction et l’interprétation des données reflètent les normes et pratiques sociales en constante évolution dans notre monde, les relations de pouvoir, les structures politiques, juridiques et économiques, ainsi que les intentions humaines.*

Les données non représentatives, concernant les populations impliquées ou les phénomènes modélisés, sont un problème courant entraînant des résultats biaisés ou injustes. 

Tout au long de l’histoire, les personnes marginalisées ont souvent été mal représentées dans les ensembles de données, en raison de leur accès limité aux soins de santé standard dans les systèmes de santé conventionnels. Par conséquent, la collecte de données de routine concernant leur état de santé et leurs activités est souvent manquante. Cela pourrait conduire à une analyse insuffisante de ces populations de patients par les systèmes IA.*  

Dans le secteur des sciences de la vie, les dossiers médicaux électroniques, les bases de données génomiques et les biobanques sous-échantillonnent souvent les personnes qui ont un accès irrégulier ou limité aux systèmes de santé, comme les minorités ethniques, les immigrants et les groupes défavorisés sur le plan socio-économique.*  

Et, même lorsque les ensembles de données sont représentatifs, ils peuvent encore refléter des préjugés historiques existants dans le monde.*   

Résoudre le manque de représentation dans les ensembles de données est une tâche difficile qui doit être traitée à la fois d’un point de vue technique et non technique. D’un point de vue non technique, nous traitons l’une des causes racines du manque de représentativité des données : souvent les communautés marginalisées se méfient du système de santé. Chez Sanofi, A Million Conversations est un projet mondial visant à rétablir la confiance dans les soins de santé dans les groupes ethniques minoritaires, en particulier les noirs, les femmes, les personnes handicapées et les communautés LGBTQ+.  

A partir des humains

Tous les êtres humains sont influencés par leurs expériences de vie et leurs préférences. Les développeurs d’IA peuvent ajouter leurs propres préjugés conscients ou inconscients lorsqu’ils prennent des décisions sur la façon de construire un modèle IA. Par exemple, des indicateurs tels que le revenu ou le vocabulaire peuvent être utilisés par l’algorithme pour discriminer involontairement des personnes d’une certaine race ou d’un certain sexe.*

Chez Sanofi, les systèmes d’IA doivent faire l’objet d’une évaluation des risques, et potentiellement de plus de revues par l’organisme de gouvernance IA responsable. Si un système d’IA est évalué pour potentiellement conduire à des résultats discriminatoires, un plan d’atténuation des risques est mis en place pour s’assurer qu’il respecte nos principes d’entreprise sur l’IA responsable et les normes éthiques.  

Contrairement aux préjugés conscients, les préjugés inconscients sont difficiles à saisir au début (phase de conception) du développement de produits IA, mais ils peuvent être découverts une fois que le système IA est mis en pratique (phase opérationnelle). Sachant cela, nous avons l’intention d’y remédier en surveillant les systèmes d’IA pour rester vigilants face aux risques, saisir tout préjugé inconnu et mettre en action un plan d’atténuation pour maintenir la conformité à des normes strictes.  

Comment nos équipes s’efforcent d’atténuer les préjugés dans les systèmes d’IA

Chez Sanofi, nous développons des modèles d’IA pour le diagnostic précoce de la maladie de Gaucher, une maladie génétique héréditaire rare. L’intention est de permettre une détection précoce de la maladie et une orientation rapide vers les professionnels de santé pour une évaluation, un diagnostic et une prise en charge appropriés.* Les développeurs adoptent une approche de conception consciente de l’équité : en divulguant les limitations des ensembles de données, en corrigeant les préjugés dans la mesure du possible et en détectant les limitations de l’IA grâce à des tests en situation réelle. 

Sensibilisation et transparence des limitations des ensembles de données

L’ensemble de données utilisé provenait de données de dossiers médicaux électroniques (DME). Les développeurs d’IA ont identifié que l’ensemble de données DME utilisé pour le modèle d’IA était sujet à un biais de sélection en raison d’informations manquantes ou variables dues à des inégalités systémiques rencontrées par cette population de patients atteints d’une maladie rare. Ils ont noté des limitations concernant certaines variables de données, notamment sur le statut socio-économique et l’origine ethnique, ainsi que des divergences dans l’enregistrement des données au fil du temps.

Le parcours pour construire un modèle d’IA qui minimise raisonnablement les préjugés est un processus d’amélioration continue ; notre équipe de développeurs d’IA explore beaucoup de différentes méthodes pour minimiser les préjugés. 

Chez Sanofi, nous savons que l’équité, la diversité et l’impartialité dans le développement de l’IA sont essentielles pour un avenir où les soins de santé sont véritablement inclusifs et accessibles à tous. Une technologie ne fonctionne pas si elle ne fonctionne pas pour tout le monde. Nous naviguons dans l’avenir de l’IA de manière responsable. 

Partagez

Notre série "Tout miser sur l’IA"

Tout miser sur l’IA en étant responsables des résultats

Tout miser sur l’IA écologiquement responsable