SFSD 2022 – Intelligence artificielle : le prérequis éthique de la garantie humaine
- Caroline Guignot
- Actualités Congrès
Lors d’une session dédiée aux questions d’actualité du congrès de la Société Française de Santé Digitale, qui s’est déroulé à Paris le 5 et 6 octobre 2022, David GRUSON (Paris) a rappelé le principe de garantie humaine pour l’IA (intelligence artificielle) qui doit constituer une étape importante et nécessaire pour envisager un développement éthique du numérique et de l’IA en santé. Ce principe vise à déterminer des points de ‘supervision humaine’ aux étapes critiques d’un outil algorithmique, points déterminés conjointement par les développeurs, les professionnels de santé et les usagers.
La France a été co-porteuse de cette idée auprès de l’Europe. En effet, elle a mené la réflexion qui l’a accompagnée depuis plusieurs années, dans le cadre de la révision des lois de bioéthique. Ainsi, la loi de bioéthique du 2 août 2021 a introduit la notion de “garantie humaine” dans l’usage de l’IA en santé dans le champ juridique, visant à élargir les obligations d’information du patient, du professionnel et la capacité du concepteur à assurer la transparence et la traçabilité aux utilisateurs. Cette idée a été introduite par la Commission européenne fin septembre 2022 dans la directive qui établit un régime d’indemnisation communautaire pour les dommages susceptibles d’être causés par l’IA. Elle précède le règlement européen sur l’IA qui devrait être finalisé début 2023.
Ainsi, le règlement européen prévoit un chaînage entre le respect de la garantie humaine et l’obtention du marquage CE. Par ailleurs, il n’est pas destiné à se limiter au domaine de la santé. Il prévoit donc une gradation des impératifs concernant la garantie humaine selon le bénéfice-risque et la complexité des modèles algorithmiques pour l’humain. Le texte européen sur l’IA devrait être adopté début 2023 pour une mise en place en 2025 et donc une mise en conformité des algorithmes progressive d’ici là.
Dans ce nouvel environnement, quelle sera la responsabilité des professionnels de santé selon la législation actuelle sur la responsabilité liée aux produits défectueux ?
Le premier des deux principes est immuable et repose sur la responsabilité du fait, selon lequel le patient doit être dédommagé par le professionnel libéral ou par l’établissement de santé dans le cadre duquel les dommages liés à l’IA ont eu lieu, sauf si ceux-ci découlent d’un dysfonctionnement patent de l’outil, auquel cas la responsabilité incombe à son concepteur. Le second est plus complexe : car un concepteur d’IA peut échapper à sa responsabilité s’il montre qu’il ne disposait pas des connaissances scientifiques nécessaires pour appréhender le risque de dommages liés à l’outil numérique. Ce qui peut être un problème possible dans le cadre d’un outil autoapprenant (machine learning ou Deep Learning) en cas de sur-apprentissage non piloté dans le temps.
Aussi, la directive IA liability act répond à cette problématique en statuant qu’en l’absence de garantie humaine introduite par le concepteur, le principe de présomption de responsabilité incombe au fabricant.
Ce texte représente une forte incitation pour les concepteurs et utilisateurs d’IA à faire le choix d’un dispositif collégial de supervision de type ‘collèges de garantie humaine’, comme le recommande d’ailleurs l’un des avis du Comité consultatif national d’éthique ainsi que l’OMS.
Malheureusement, l’accès à l’intégralité de cet article est reservé uniquement aux professionnels de santé disposant d’un compte.
Vous avez atteint la limite d'articles par visiteur
Inscription gratuite Disponible uniquement pour les professionnels de santé