Les limites de la responsabilité du médecin lors du recours à l’« intelligence augmentée » doivent être définies


  • Mary Corcoran
  • Actualités Médicales
L'accès à l'intégralité du contenu de ce site est reservé uniquement aux professionnels de santé disposant d'un compte. L'accès à l'intégralité du contenu de ce site est reservé uniquement aux professionnels de santé disposant d'un compte.

Le Comité permanent des médecins européens (CPME) a mis en évidence la nécessité de veiller à ce que soient clairement définies les limites de la responsabilité du médecin lors du recours à l’« intelligence augmentée » (IA).

Dans une nouvelle prise de position sur le recours à l’IA dans le cadre des soins de santé, l’organisation reconnaît que l’IA a le potentiel de transformer la prestation des soins de santé, mais affirme que pour concrétiser ce potentiel en réalité, l’IA doit être développée en se basant sur des données probantes robustes, la responsabilité, la non-discrimination et le respect de la vie privée des patients. Afin d’encourager une utilisation confiante des systèmes d’IA, le CPME a précisé qu’il devait être clairement déterminé qui est responsable en cas d’échec ou d’erreur de diagnostic de l’IA, ajoutant que « l’instauration d’un climat de certitude et de stabilité par une législation appropriée stimulera et ancrera les nouvelles solutions numériques dans la pratique des médecins ».

Dans le document, le CPME reconnaît les efforts déployés par l’Union européenne en matière d’IA, mais appelle la Commission européenne « à mettre davantage l’accent sur la fiabilité et la sécurité des applications basées sur l’IA dans le cadre des soins de santé et à mieux impliquer les professionnels de santé dans ses travaux ».

Le CPME émet un certain nombre d’autres recommandations, notamment le renforcement de la littératie numérique des étudiants en médecine et des professionnels de santé, l’organisation ayant recommandé d’inclure l’IA dans les cursus médicaux.