
L'intelligence artificielle (IA) a fait une entrée remarquée dans le domaine de l'imagerie médicale, offrant des capacités d'analyse d'images d'une rapidité et d'une précision inégalées. Aujourd'hui, elle permet d'identifier certaines anomalies avec une acuité proche, voire supérieure, à celle des radiologues dans des cas spécifiques. Lecture des mammographie, détection des nodules pulmonaire, détection des fractures sont autant de domaines ou l'IA rivalise en performances avec les radiologues les plus experts. Dans les hôpitaux où elle est intelligemment intégrée, elle accélère les délais de diagnostic et optimise la gestion des urgences.
Mais derrière ces avancées prometteuses, des questions cruciales se posent. Qui est responsable en cas d'erreur de diagnostic générée par un algorithme ? Comment éviter les biais qui pourraient conduire à des diagnostics erronés ou inadaptés ? À quel point les médecins peuvent-ils se eraux décisions prises par une IA dont le raisonnement reste souvent opaque ? Surtout, la dépendance croissante aux outils d'IA pourrait-elle affaiblir les compétences cliniques des praticiens ?
Ce débat n'est pas sans rappeler celui qui a traversé l'aviation. Aujourd'hui, les avions sont largement automatisés, mais les pilotes doivent conserver un entraînement régulier pour ne pas perdre leur savoir-faire en situation critique et rester capable de faire atterrir un avion sans trop d'aide informatique. L'imagerie médicale pourrait-elle connaître le même phénomène ? L'IA deviendrait-elle le premier acteur du diagnostic, reléguant les médecins à un rôle de validation passive ?
L'IA en radiologie :
De l'aide au diagnostic à la prise de décision
L'IA en imagerie médicale est déjà utilisée à plusieurs niveaux. Elle est d'abord un outil de triage, capable de détecter les anomalies les plus graves dans des séries d'images et d'alerter les équipes médicales sur l'urgence de certains cas. Elle joue aussi un rôle d'assistance au diagnostic en identifiant des lésions suspectes ou en mesurant précisément des structures anatomiques, facilitant ainsi le suivi des maladies chroniques ou des pathologies oncologiques.
Dans certains cas, elle est utilisée comme un « deuxième avis », apportant une double lecture aux examens d'imagerie. Cette approche est déjà bien implantée en mammographie, où l'IA aide à repérer des microcalcifications suspectes qui pourraient échapper à un premier regard. En n, certains outils automatisent partiellement certaines tâches du radiologue, comme la segmentation d'images ou l'analyse de fractures, ce qui permet de gagner du temps et d'améliorer la reproductibilité des diagnostics.
Ces applications sont précieuses, mais elles posent une question essentielle : dans quelle mesure peut-on déléguer à une IA la responsabilité d'un diagnostic ?
Des biais et une boîte noire : les limites de l'IA en médecine
Un des risques majeurs de l'IA en imagerie médicale est celui des biais algorithmiques. Une IA est toujours entraînée sur des bases de données médicales spécifiques, qui peuvent refléter des populations particulières ou des protocoles d'examen standardisés. Or, un algorithme entraîné principalement sur des patients occidentaux pourrait être moins performant pour analyser des images de patients d'autres origines géographiques, ce qui introduit un risque d'inégalités dans la qualité du diagnostic.
De plus, le fonctionnement interne de nombreux systèmes d'IA est souvent peu explicite. Un algorithme peut identifier une anomalie, mais sans fournir d'explication claire sur les critères qui ont conduit à cette décision. Ce manque de transparence pose un véritable problème en médecine : comment valider un diagnostic si l'on ne sait pas sur quels éléments repose l'analyse ? Cette opacité rend également plus difficile la détection des erreurs potentielles et peut éroder la confiance des cliniciens dans ces outils.
Pour répondre à ces dés, plusieurs approches sont en cours de développement. L'IA explicable, ou « explainable AI », vise à améliorer la compréhension des mécanismes décisionnels des algorithmes. Des systèmes de validation réguliers sont également nécessaires pour s'assurer que les outils d'IA fonctionnent correctement dans des conditions réelles et ne présentent pas de dérives non anticipées. Enfin, il est essentiel que les décisions critiques restent sous la supervision d'un médecin afin d'éviter une dépendance excessive aux machines.
Qui est responsable en cas d'erreur ?
L'introduction de l'IA en imagerie soulève un problème juridique fondamental : si un algorithme fournit un diagnostic erroné, qui en porte la responsabilité ? Aujourd'hui, si un médecin commet une erreur, il en assume les conséquences sur le plan légal. Mais que se passe-t-il lorsqu'un système d'IA fournit un résultat faux et qu'un patient en subit les conséquences ?
La responsabilité pourrait être partagée entre plusieurs acteurs : le radiologue qui a validé l'interprétation de l'IA, l'hôpital qui a mis en place la technologie, ou encore le fabricant du logiciel. Certains pays travaillent déjà à encadrer ces questions, notamment aux États-Unis où la FDA cherche à établir des règles spécifiques pour la validation et la surveillance des algorithmes médicaux. En Europe, la législation reste floue et ne dénit pas encore clairement le rôle de l'IA dans la responsabilité médicale. Aux USA certaines compagnies proposent d'assumer, y compris devant la justice, les éventuelles erreurs diagnostiques de leur algorithmes.
Dans ce contexte, la prudence est de mise. Si l'IA apporte une aide précieuse, elle ne doit pas remplacer le raisonnement clinique du médecin. Une vigilance accrue est nécessaire pour éviter que les praticiens ne deviennent de simples opérateurs validant des décisions prises par des machines dont ils ne maîtrisent pas les rouages.
L'aviation, un modèle pour la médecine ?
Le parallèle avec l'aéronautique est frappant. Aujourd'hui, les pilotes disposent d'outils de pilotage automatique sophistiqués qui prennent en charge une grande partie des tâches techniques. Mais les compagnies aériennes ont compris qu'un excès d'automatisation pouvait conduire à une perte de compétence des équipages.
Le crash du Boeing 737 Max, où les pilotes n'ont pas su reprendre le contrôle face à un logiciel défaillant, illustre les dangers d'une dépendance excessive aux systèmes automatisés.
En radiologie, la même vigilance s'impose. Les médecins doivent continuer à exercer leur expertise et ne pas se reposer aveuglément sur les outils d'IA. Cela implique une formation continue adaptée, afin d'apprendre non seulement à utiliser ces technologies, mais aussi à en reconnaître les limites.
Vers une médecine augmentée, pas automatisée
L'IA en imagerie médicale n'est ni une menace ni une solution miracle. Elle représente un outil puissant, capable d'améliorer la qualité des diagnostics et d'optimiser la gestion des soins. Mais son intégration doit se faire avec discernement.
L'avenir de la radiologie ne sera pas celui d'une machine autonome prenant seule des décisions. Il réside dans une collaboration intelligente entre l'homme et la technologie. Les médecins doivent rester au centre du diagnostic et proche de leur patient, utilisant l'IA pour ce qu'elle fait de mieux – accélérer l'analyse, repérer les anomalies, faciliter la prise de décision – mais en conservant leur rôle de garant du raisonnement clinique et de la prise en charge des patients. En revanche dès que les médecins s'éloigneront trop de leur patient, l'IA les remplacera. Seriez-vous prêt aujourd'hui à monter dans un avion, ou il y a certes un pilote, mais comme pour les drones, celui-ci serait basé en Californie ou en Polynésie et piloterait - grâce à l'IA - plusieurs vols en même temps ?
Comme en aviation, où le pilote doit rester maître de son appareil malgré l'automatisation croissante, le radiologue doit rester en contrôle. L'IA devrait être un copilote éclairé, mais pas un pilote automatique.

Pr Benoit GALLIX
Professeur de Médecine, Radiologue

