Intelligence artificielle et diagnostic médical
- Actualités Médicales
Pour répondre à une demande du Premier ministre datée du 15 juillet 2019 portant sur l’utilisation de l’intelligence artificielle (IA) dans le diagnostic médical, le Comité national pilote d’éthique du numérique s’est associé au Comité consultatif national d’éthique. Si la rédaction de leur avis a pris du temps (novembre 2022), c’est sans doute que le sujet est complexe et surtout en constante évolution. Le point essentiel de ce texte très argumenté est le suivant : « Les promesses sont nombreuses, et on peine parfois à les distinguer des faits. »
La démarche éthique doit commencer par « un état des lieux de la science précis, documenté et à froid.» Un système d’intelligence artificielle appliqué au diagnostic médical (SIADM) procède d’une démarche algorithmique reposant sur une méthode probabiliste. Habituellement, le clinicien travaille avec une pensée « globale » (d’autres diraient holistique), « qui repose sur l’art médical, l’expertise scientifique (notamment l’Evidence- Based Medicine), l’expérience, l’intuition, la prudence, la discussion collégiale et l’observation des spécificités d’une situation. » Le problème est d’articuler les deux, avec comme impératif « qu’aucun procédé nouveau ne doit mettre en cause la primauté de la clinique. »
Des apports indéniables dans quelques disciplines
Actuellement, l’apport des SIADM concerne principalement les images, grâce au traitement de « données massives » (« big data »), c’est-à-dire de l’analyse de milliers de documents, de préférence annotés par un spécialiste et dont le nombre est susceptible de croître constamment. Leurs champs d’application les plus éprouvés sont l’oncologie (avec des précisions de détection approchant les 95%), le dépistage « de routine » de pathologies rétiniennes (rétinopathies diabétiques, dégénérescence maculaire liée à l’âge, glaucome), la dermatologie (dépistage du mélanome, encore au stade expérimental), la cardiologie (dépistage de la fibrillation auriculaire par ECG) et l’histopathologie (pouvant aller jusqu’à prédire le comportement d’une tumeur).
Ces succès indéniables doivent cependant être pondérés par plusieurs facteurs. En premier lieu, les SIADM peuvent commettre des erreurs (faux positifs ou faux négatifs) ou déceler des lésions imprévues (incidentalomes) pour lesquelles la décision thérapeutique peut être délicate. C’est pourquoi, en dehors de l’ophtalmologie, le diagnostic ne doit pas être confié aux seuls SIADM. Cela implique que ces dispositifs ne doivent pas pallier au manque de personnel hospitalier, même s’ils permettront sans doute de faire gagner du temps médical. Il en va de même en ville, avec le risque de faire porter aux SIADM le poids des « déserts médicaux ». Autre risque : cette « médecine de pointe » ne doit pas être réservée aux personnes qui pourraient se l’offrir, en raison par exemple de leur couverture assurantielle privée. En résumé, « le souci du soin » doit passer « avant les considérations économiques. »
Une réglementation devant évoluer vers celle du médicament
Actuellement « aucun cadre juridique adapté ne permet de répondre aux enjeux complexes de gouvernance soulevés par les technologies d’intelligence artificielle. » La réglementation des SIADM est en pleine évolution. Globalement, il s’agit de la faire passer du régime des dispositifs médicaux les plus sophistiqués vers un régime d’AMM (autorisation de mise sur le marché) comparable à celui des médicaments. Cela nécessite au moins deux impératifs : prouver l’efficacité d’un SIADM dans une indication grâce à des essais cliniques randomisés multicentriques ; montrer son intérêt par rapport à une démarche conventionnelle. La Haute Autorité de santé (HAS) ne peut pas y répondre, car la plupart des SIADM ne sont pas vendus aux patients mais aux professionnels de santé ou à leurs organisations. Cela implique donc « un élargissement de son périmètre d’évaluation à tous les établissements de santé ou professionnels de santé qui veulent s’équiper de logiciels d’IA. » Sans cela, « les industriels peuvent avancer des promesses qui s’avèrent difficilement mesurables. »
C’est pourquoi l’avis propose de compléter cette « économie de la promesse » (largement répandue en ce qui concerne les hautes technologies) par une « éthique de la promesse » : explicabilité du dispositif vendu, publication des justificatifs étayant la promesse et des résultats l’infirmant. Dans son projet de réglementation commune sur l’IA (article 14), la Commission européenne insiste sur ce qu’elle nomme « le contrôle humain » (human oversight), qui doit s’exercer à tous les stades de la mise à disposition du SIADM, depuis sa conception (ethic by design) jusqu’à son application pratique.
En résumé, l’avis plaide pour la prise en considération des « deux principaux axes de tension éthique » : le respect de la personne et le traitement équitable de toutes les personnes.
Malheureusement, l’accès à l’intégralité de cet article est reservé uniquement aux professionnels de santé disposant d’un compte.
Vous avez atteint la limite d'articles par visiteur
Inscription gratuite Disponible uniquement pour les professionnels de santé