ChatGPT : un dangereux séducteur

  • Serge Cannasse
  • Actualités Médicales
L'accès à l'intégralité du contenu de ce site est reservé uniquement aux professionnels de santé disposant d'un compte. L'accès à l'intégralité du contenu de ce site est reservé uniquement aux professionnels de santé disposant d'un compte.

La mise à disposition gratuite de ChatGPT peut facilement créer la tentation d’y avoir recours en cas de symptômes inquiétants, plutôt que de consulter un moteur de recherche classique (qui donne une masse considérable d’informations sans en vérifier la pertinence et la fiabilité) ou un médecin (qui n’est pas forcément accessible rapidement). Mais cet agent conversationnel est-il vraiment fiable ? Expert en médecine légale, Thomas Lefèvre (Université Sorbonne Paris Nord) répond à la question en partant d’un exemple très banal : association de céphalées, vomissements, fièvre et photophobie. ChatGPT répond qu’il s’agit vraisemblablement d’une migraine ou d’une grippe. Pas de chance ! Surtout pour le patient, il s’agissait d’une méningite.

Pour comprendre l’erreur du logiciel, il faut avoir à l’esprit quelques points. D’abord, son but n’est pas d’énoncer une vérité, mais de donner des réponses vraisemblables, qu’il a appris à formuler en se basant sur les milliards de données textuelles qui lui ont été fournies, sur les réponses énoncées auparavant et sur le travail des humains qui ont classé ces réponses par ordre de vraisemblance. Le problème est que nous avons tous tendance à choisir l’énoncé qui nous arrange plutôt que celui qui est exact. Dans l’exemple donné ici, le diagnostic de grippe est certes ennuyeux, mais plutôt rassurant, ce qui incite à s’en contenter.

À cela, le logiciel objectera spontanément qu’il n’est pas médecin et n’est donc pas en mesure de faire un diagnostic ou de remplacer une consultation médicale. En particulier, il ne peut pas effectuer un examen physique du patient, ni des analyses de laboratoire (ici, du liquide céphalo-rachidien après une ponction lombaire faite à l’hôpital). C’est exact, mais pour Thomas Lefèvre, il s’agit d’une réponse stéréotypée qui sert avant tout à couvrir ses propriétaires de tout risque médico-légal.

Des démarches diagnostiques ayant des points communs

Il reste néanmoins que le logiciel et le médecin font appel tous deux à trois facteurs :

  • La mémoire, « puisque la sélection d’entrée en médecine se fait sur elle plutôt que sur les capacités de raisonnement ».

  • La protocolisation des démarches diagnostiques et l’homogénéisation des prises en charge, qui font que la démarche médicale est de plus en plus algorithmique.

  • Le raisonnement selon une démarche associative et probabiliste, par la recherche et l’organisation de signes associés à certaines maladies, autrement dit par une méthode qui elle aussi se base sur la vraisemblance.

Mais cela ne suffit pas à décréter que logiciel et médecin s’équivalent. En sus de l’examen physique de son patient et de la prescription d’examens complémentaires, le médecin tiendra compte d’autres facteurs que les informations obtenues, notamment la gravité potentielle de certaines des alternatives envisagées.

Certes, la répétition des questions et la précision apportée par le patient sur ses symptômes peuvent améliorer les réponses du logiciel. Mais en l’état, cela reste largement insuffisant. Ainsi, dans l’exemple donné, après que le questionneur a insisté, ChatGPT finit par évoquer la méningite. Mais pour cela, il lui a fallu un interlocuteur déjà bien au fait des informations médicales et surtout, ce diagnostic n’est présenté que comme une éventualité parmi d’autres. Pour qu’il la considère plus sérieusement, il faut ajouter des symptômes comme l’apparition de taches cutanées, qui signalent une urgence absolue ! En somme, « pour arriver à la méningite, le chemin a donc été laborieux et fuyant ».

Thomas Lefèvre conclut en écrivant que ChatGPT est avant tout « un séducteur » (il veut vous donner la réponse qui vous plaît), « une girouette » (ses réponses changent en fonction de la formulation de vos questions) et « un hypocrite » (il ne veut rien affirmer mais il donne quand même des réponses). De plus, il est « subjectif », « aveugle au conditionnement par l’intervention humaine qui se fait au cours de son apprentissage ».