Les promesses non tenues de l’intelligence artificielle en médecine

  • Serge Cannasse
  • Actualités Médicales
L'accès à l'intégralité du contenu de ce site est reservé uniquement aux professionnels de santé disposant d'un compte. L'accès à l'intégralité du contenu de ce site est reservé uniquement aux professionnels de santé disposant d'un compte.

La rubrique Canal Détox de l’Inserm (Institut national de la santé et de la recherche médicale) propose un examen de l’apport actuel de l’intelligence artificielle (IA) à la recherche et la pratique clinique médicales.

Une promesse non tenue de performance diagnostique et pronostique

L’article fait un premier constat. L’IA ne tient pas sa promesse d’être plus efficace en matière de modèle diagnostique ou pronostique par rapport aux méthodes traditionnelles. Cette promesse repose sur l’intégration d’un nombre considérable de données que ne peut pas effectuer un cerveau humain. Pourtant, en pratique, elle ne fait pas toujours mieux.

Plusieurs éléments expliquent cette déception. Les performances de l’IA dépendent de la qualité des données utilisées pour l’entraîner. Or, celles-ci sont fréquemment issues d’études de faible qualité, avec des protocoles inadaptés et des échantillons trop petits et/ou peu représentatifs. De plus, ces performances sont rarement évaluées de façon indépendante. Enfin, l’IA ne tient pas compte des éléments contextuels de la prise en charge des patients, par exemple, les états émotionnels ou la qualité de la relation médecin-malade.

L’exemple de la transplantation rénale illustre bien ces limites. Dans une étude publiée en janvier 2023, des scientifiques de l’Inserm, de l’AP-HP et d’Université Paris Cité ont cherché à confronter l’IA aux modèles statistiques traditionnels de prédiction d’échec de la greffe rénale. En utilisant des données structurées et validées, émanant de cohortes internationales de patients, les chercheurs ont développé des modèles de prédiction fondés sur l’IA et des modèles s’appuyant sur des méthodes statistiques traditionnelles. « Quel que soit le type d’algorithme utilisé, l’IA obtient des performances de prédiction du risque d’échec de la greffe rénale comparables aux modèles statistiques traditionnels. »

En matière de diagnostic et de pronostic, le problème actuel n’est ainsi pas tant du côté des médecins que des patients qui courent « le risque d’obtenir des conseils erronés mettant leur santé en danger. »

Recherche : le problème des références

La rédaction d’articles scientifiques n’est pas mieux lotie. Des chercheurs espagnols ont demandé à ChatGPT de rédiger un article complet sur le rôle de l’IA dans la découverte des médicaments. Ils ont dû retravailler le texte du logiciel, celui-ci étant notamment incapable de donner des références correctes et le recueil de données s’arrêtant à 2021.

Le texte de Canal Détox conclut que « que ce soit pour développer un modèle de prédiction diagnostique ou pour rédiger un texte scientifique en s’appuyant sur ChatGPT, la question de la crédibilité, de la rigueur scientifique et de la véracité des informations relayées par l’IA est cruciale. Ce phénomène est en outre exacerbé par le manque de transparence quant au développement des modèles fondés sur l’IA qui ne connaissent du monde que l’information parfois biaisée et incomplète qu’on leur donne. »

Cela étant, les performances des systèmes d’IA iront sans doute en s’améliorant. C’est pourquoi la réflexion doit se poursuivre, notamment sur les plans méthodologiques et éthiques, dans le but non de remplacer médecins et chercheurs, mais de leur apporter une aide au suivi des patients, à l’optimisation des décisions thérapeutiques et à la rédaction de leurs textes.