Alors la santé dans 50 ans, je prendrais pas le risque de … *rire* Déjà, à cinq ans, j’ai envie de dire que des tas de documents de synthèse seront plus faciles à écrire et puis, on peut commencer à se dire que des systèmes d’aide à la décision vont vraiment être utiles.
Robots chirurgiens, outils d’imagerie, aide au diagnostic, jusque dans nos conversations, quand on demande à ChatGPT : « Est-ce que c’est grave ? ». En santé, l’intelligence artificielle est partout. Et les annonces s’enchaînent. Doctolib lance son « assistant téléphonique » 100% IA. Delphi-2M est, elle, capable de prédire le risque qu’un patient contracte une pathologie, parmi plus 1000 maladies, jusqu’à 20 ans à l’avance. Face à tant de promesses, une question : L’IA devient-elle plus compétente que les médecins ? Pour Jean Charlet, expert de l’IA en santé, il faut déjà revenir à la base : toutes les IA ne se ressemblent pas.
On découpe souvent l’IA entre IA symbolique et IA numérique. La première IA, c’était plutôt la symbolique. C'est-à-dire des systèmes de sémantique formelle qui manipulaient des données logiquement pour proposer des diagnostics aux médecins ou aux patients. C’est ce qu’on appelait les « systèmes experts », arrivés en France dans les années 80. Et puis depuis le début des années 2000, on a l’apprentissage. C’est ça qui fait qu'on a des IA très très performantes sur la reconnaissance de formes, sur des images : reconnaissance sur un fond d'œil, reconnaissance pour décider si un grain de beauté est cancéreux ou pas ou des choses comme ça sur des radios. Et l’IA générative, c’est encore de l’apprentissage mais c’est encore une autre révolution avec des réseaux de neurones. Et c’est cette IA générative qui fait un système qui dialogue avec la personne qu’il y a en face d’elle.
Aujourd’hui, le vrai domaine d’excellence, c’est la reconnaissance d’images. Mais les IA génératives rebattent les cartes. Elles ouvrent la voie à de nouveaux outils, notamment au niveau de la synthèse de dossiers et la génération de comptes-rendus. Mais ces systèmes se trompent, parfois beaucoup.
En santé, on pense que si on commence à interroger une IA sur des problèmes précis, on est entre 60 et 80% de bonnes réponses donc il commence à y avoir des déchets. C’est beaucoup plus grave qu’interroger l’IA sur des têtes de gondoles dans les magasins, est-ce qu’il faut mettre les pâtes à gauche ou à droite. Bon, si l’IA se trompe, c’est pas très grave. En santé, c’est quand même beaucoup plus problématique
Fin octobre, la Haute Autorité de Santé a validé l’utilisation d’IA génératives par les soignants, en appelant à une vigilance face aux « hallucinations », autrement dit ces erreurs des systèmes. Mais la fiabilité n’est pas le seul obstacle. Certes, médecine et informatique collaborent depuis longtemps : dossiers dématérialisés, études statistiques, modélisations… Pourtant entre l’idée et l’usage réel à l’hôpital, le chemin reste très complexe.
On a un gros problème d’évaluation des systèmes informatiques et des systèmes d’IA en plus. Quand on décide si un médicament est bon pour un patient ou pas, il y a une évaluation, un essai clinique et il a, ce qu’on appelle, une autorisation de mise sur le marché. En informatique, avec ou sans IA et encore plus en IA, le système doit être validé par l’HAS, la Haute Autorité de Santé, doit avoir un marquage CE et là, bon après je peux pas rentrer dans toutes les différentes couches de niveaux de marquage et de validation. Et c’est vrai que pour l’instant l’évaluation est pas bien normalisée, il y a pas qu’en France, en Europe, aux États-Unis. Il y a des problèmes de normaliser le mode d’évaluation des outils qu’on va mettre à disposition des médecins. Il ne suffit pas de dire qu'il y a cet algorithme de reconnaissance de l’image qui marche bien pour dire que le système que je vais mettre à disposition du médecin va lui permettre de mieux diagnostiquer avec lui. Et je rajouterais que ça coûte très très cher d’évaluer les médicaments, ça ne coûterait pas aussi cher mais très très cher aussi d’évaluer l’usage des systèmes informatiques. En plus, le système pourrait évoluer dans le temps. Il y a des systèmes informatiques sur des suivis de patients, des suivis de pacemaker, des suivis de diabètes, et à chaque modification de détails sur le système il faut refaire les documentations, il faut refaire une partie des validations et ça c’est compliqué et c’est cher.
Les études le montrent. En matière de diagnostic, c’est le duo médecin + IA générative qui est le plus performant. Dans celle-ci, parue en juin 2025, les diagnostics des modèles IA surpassent 85% des praticiens. Mais, ironie du sort, lorsque l’IA échoue, l’humain avait souvent le bon résultat. Le secret est donc dans la combinaison des deux expertises. Mais pour que ce partenariat fonctionne, la formation est cruciale.
Quand on dit que le médecin doit être dernier décisionnaire mais dernier décisionnaire d’une boîte noire dont il ne comprend pas comment elle fonctionne, c’est problématique. Donc là le gouvernement a mis de l’argent pour ce qu’on appelle la « formation en santé numérique ». Mais il faut être sûr qu’on a toujours nos médecins experts et que dans 20 ans on aura toujours nos médecins experts par rapport à des systèmes d’IA. Et ça.
Comment s’assurer que le médecin restedernier décisionnaire face à des systèmes d’IA de plus en plus puissants ? On pourrait facilement imaginer un futur où la machine remplace complètement le médecin. Pour Jean Charlet, ce scénario reste un fantasme. L’avenir de la santé sera hybride.
C'est le baratin de l’IA va soigner directement les gens, sous-entendu sans les médecins. Pour moi c’est un fantasme à deux niveaux, parce que je n’en veux pas, c’est pas éthique et c’est illégal. On doit complètement s’organiser pour que le médecin reste dernier décisionnaire et lui donner ces moyens-là. Et pas se dire, comme on entend certains sur internet, « bah c’est une machine qui va décider de tout ». Non. Enfin moi j’ai pas envie d’être soigné par une IA quoi. Par contre un médecin utilisant l’IA pour mieux travailler, pourquoi pas.