Une main humaine et une main robotique touchant un écran

L’éthique et l’IA dans les soins de santé

Alors que l’intelligence artificielle (IA) poursuit son long périple, de la chimère à la réalité de tous les jours, rares sont les secteurs d’activité qui ont autant à gagner de ses applications que celui de la santé. Les technologies fondées sur l’intelligence artificielle transforment rapidement l’environnement dans lequel évoluent les patients, les professionnels de santé et les chercheurs grâce à des moyens toujours plus perfectionnés de saisie et d’interprétation des données patients en temps réel, qui permettent aux machines d’apprendre et d’établir des prédictions avec exactitude à partir de vastes ensembles de données. Le récent salon Viva Technology, le rendez-vous parisien des start-ups et des grands groupes, nous a donné la possibilité de nouer des collaborations avec cinq start-ups évoluant dans la sphère de l’intelligence artificielle afin d’approfondir notre savoir-faire et nos capacités dans ce domaine.

Les enjeux éthiques et pratiques que soulève l’intelligence artificielle doivent toutefois être pris en considération afin d’éviter que l’enthousiasme que suscitent ses bénéfices ne se transforme en appréhension au sujet de ses effets secondaires potentiels.

Les questions de confidentialité et les préoccupations que soulèvent les biais, ainsi que la qualité et la diversité des données, suscitent des craintes non négligeables. Le phénomène appelé « boîte noire »   c’est-à-dire le fait que nombre de systèmes parmi les plus efficaces en matière d’intelligence artificielle proposent des solutions qu’il est impossible d’expliquer   a pour effet d’entamer la confiance, déjà fragile, à l’égard de cette technologie.

A la recherche d'un encadrement

De plus en plus, les cadres dirigeants, les politiciens et même les spécialistes de l’intelligence artificielle appellent à un encadrement de l’utilisation de cette technologie dans les sciences de la vie. « L’intelligence artificielle ne pose pas de jugement ; elle fournit un résultat », explique Ameet Nathwani, Chief Digital Officer de Sanofi. « Tout l’enjeu tient donc dans les données dont elle se nourrit. Ces données sont-elles dépourvues de biais ? Proviennent-elles de sources légitimes ? »

Les exemples de données biaisées ne manquent pas. Jusqu’à récemment, le fait que la plupart des participants aux essais cliniques étaient blancs et de sexe masculin ne constituait aucun motif de préoccupation. 

L’étude de la génomique humaine promet de révolutionner le traitement du cancer et d’autres maladies. Pourtant, une analyse menée en 2016 sur 2 511 études réalisées à travers le monde a montré que plus de 80 % des participants aux études de cartographie génomique étaient d’origine européenne. Selon Alice Popejoy, chercheuse postdoctorale à Stanford et auteure de l’analyse, dans une déclaration au site d’actualité Quartz, ce n’est pas « seulement un problème éthique ou moral, mais bien un problème scientifique. »

Parallèlement, l’étude d’une chercheuse du MIT, qui a eu un vaste retentissement dans les médias et selon laquelle les logiciels commerciaux de reconnaissance faciale manquent singulièrement d’efficacité lorsqu’il s’agit de reconnaître des femmes à la peau foncée, a jeté une ombre sur les systèmes médicaux intelligents qui reposent sur la vision par ordinateur, comme ceux conçus pour le diagnostic des cancers de la peau.

Les défis éthiques, l'implication d'une multitude de parties prenantes 

Des attaques malveillantes

Le docteur Nathwani a également évoqué d’autres problèmes, comme la confidentialité et la nécessité de protéger les systèmes de données de santé contre des acteurs malveillants.

Avec plusieurs milliards de milliards de dollars en jeu, les systèmes de santé sont en effet à ses yeux la cible toute désignée d’attaques malveillantes. « La question des infox (fake news) et des « nudges » (littéralement, « petits coups de pouce »   c’est-à-dire la capacité d’influencer de manière imperceptible un algorithme d’intelligence artificielle) doit impérativement faire l’objet d’une réflexion approfondie. Comment les réguler ? Comment s’en prémunir ?

La plupart des experts s’accordent à dire que la fiabilité est essentielle au succès de l’intelligence artificielle et que les questions d’éthique et de diversité doivent être abordées en amont et régulièrement. Ainsi, la prise en compte précoce et systématique des questions d’éthique et de transparence, combinée à un souci de la chaîne de responsabilité et de l’humain, peuvent permettre de prévenir certains de ces problèmes.

Des valeurs différentes

Bien sûr, l’éthique, à l’instar de la beauté, est dans les yeux de celui qui regarde. Les valeurs diffèrent d’un pays et d’une entreprise à l’autre. Pour un Chinois vivant en zone urbaine, la reconnaissance faciale est une réalité du quotidien tandis qu’en Occident, cette technologie suscite une levée de boucliers, surtout dans le contexte du maintien de l’ordre.

Amazon, par exemple, a été confronté à une véritable crise de réputation l’été dernier après que des salariés américains ont demandé que l’entreprise cesse de vendre des logiciels de reconnaissance faciale aux forces de l’ordre. Google et Microsoft ont connu les mêmes rébellions en interne. Et la semaine dernière, la ville de San Francisco a interdit  aux agences publiques locales d’utiliser des technologies de reconnaissance faciale.

Des orientations éthiques

Les entreprises qui cherchent à poser les bonnes questions et à avancer dans le bon sens en matière d’éthique de l’intelligence artificielle disposent d’un nombre croissant de sources d’inspiration et d’orientation. Un bon départ dans ce domaine est la publication intitulée Ethics Guidelines for Trustworthy AI (Lignes directrices en matière d'éthique pour une IA digne de confiance) de l’Union européenne.

Le guide de l’UE établit sept critères fondamentaux pour une IA digne de confiance :

  • le facteur humain et le contrôle humain 
  • la robustesse et la sécurité 
  • le respect de la vie privée et la gouvernance des données
  • la transparence
  • la diversité, la non-discrimination et l’équité
  • le bien-être sociétal et environnemental
  • la responsabilisation

Sanofi développe sa propre politique sur l’utilisation et la gouvernance de l’intelligence artificielle. Celle-ci repose sur trois principes fondamentaux qu’il convient de respecter lorsqu’il s’agit de l’intelligence artificielle appliquée à la santé, a expliqué le Dr Nathwani qui est également Chief Medical Officer de Sanofi :

  • L’intelligence artificielle doit être utilisée dans l’intérêt des patients.
  • Le recours à l’intelligence artificielle ne doit pas se solder par le traitement inéquitable de certains groupes de patients.
  • Le patient doit avoir toute autonomie en matière de réflexion, d’intention et d’action dans les décisions qu’il prend au sujet de sa santé. La dignité doit être préservée. 

Le Dr Nathwani a également insisté sur l’importance que Sanofi accorde au traitement des données.

« Avant que la moindre donnée n’entre dans nos systèmes, notre premier souci est de la soumettre à un rigoureux processus de curation afin que nous comprenions à quoi elle peut servir », explique-t-il. « Nous devons classer très soigneusement les données dans différentes catégories. Les données d’un essai clinique sont très différentes de celles que l’on peut recueillir sur les réseaux sociaux, où les lacunes peuvent être nombreuses. Aussi, nous ne les traitons pas de la même manière. »

Le Dr Nathwani a également ajouté qu’il espère voir très bientôt des systèmes d’intelligence artificielle capables d’expliquer le fonctionnement d’autres systèmes d’IA afin de remédier au phénomène de la « boîte noire » et d’ouvrir la voie à une intelligence artificielle explicable ou XAI (Explainable Artificial Intelligence). Les médecins comme les patients méritent en effet des explications humaines et naturelles aux décisions que prend la machine, a-t-il conclu.

Pour en savoir plus, lisez l’article « Quelle éthique pour l’IA en santé »

Ce site utilise des cookies pour mesurer son audience et nous permettre d’améliorer votre expérience utilisateur. En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de ces cookies.

En savoir plus
OK