Artificiel intelligence RSNA spot light course

Publié le 16 May 2022 à 08:20

Paris – 23 & 24 septembre 2018

Dans le cadre d’une série de cours internationaux proposés par le RSNA (« Spotlight Courses »), l’un d’entre eux, dédié à l’intelligence artificielle en radiologie, s’est tenu à l’Espace Saint Martin à Paris les 23 et 24 septembre.

Deux jours de séminaire, avec des intervenants à la pointe de la thématique, in English of course ! Une audience internationale, avec environ 20 % de participants Français (240 Participants au total, provenant de 34 pays ; 49 Français, 27 Anglais et 26 Espagnols en ce qui concernait les pays les plus représentés). Assez peu de « jeunes » participants, probablement en partie du fait du tarif élevé de l’inscription (750 euros pour 2 jours).

L’ensemble du séminaire était supervisé par le Pr An TANG (université de Montréal), le Pr Safwan HALABI (université de Stanford) et le Dr Marc ZINS (Société Française de Radiologie & Hôpital Saint Joseph à Paris).

Deux des orateurs ont également des blogs très intéressants auxquels vous pouvez vous référer :

Dr Luke Oakden-Rayner : https://lukeoakdenrayner.wordpress.com/
Dr Hugh Harvey : https://medium.com/@DrHughHarvey

Il est évidemment impossible de résumer ici le contenu de tout ce qui a été dit, ce texte est donc par définition lacunaire mais cherche à répondre à des questions d’ordre général fréquemment posées par les internes qui débutent dans ce domaine. Pour celles et ceux intéressé(e)s par les détails techniques, qui correspondent à la majorité de ce qui a été abordé (segmentation, réseaux de neurones, radiomique, natural language processing…), une nouvelle session sera organisée en mai 2019 à Paris. La date exacte et le programme ne sont pas encore connus lors de la rédaction de cet article mais devraient être disponibles prochainement.

Principes généraux – Pourquoi l’IA et pourquoi maintenant ?

Depuis le siècle dernier, les ordinateurs sont plus performants que les humains pour suivre des flowcharts et des arbres décisionnels, simples ou complexes. Le problème crucial, qui était jusque récemment un facteur limitant, était leur impossibilité à avoir une perception propre des choses. Leur vraie difficulté provient de la conversion de la perception en informations exploitables de façon fiable.

A l’inverse, un humain excelle dans la perception (dès le plus jeune âge) : reconnaissance visuelle, auditive, etc. La perception visuelle est particulièrement complexe car il est quasiment impossible de la transcrire en règles absolues, encore plus dans des circonstances ambiguës (exemple : arrivez-vous à donner une caractéristique parfaite qui différencie dans 100 % des cas un chat d’un chien ? Pas évident vu la diversité des races félines et ca nines, et pourtant un enfant de 3 ans arrive à différencier les deux quasiment sans faute). Ce sont les progrès récents de l’algorithmique et notamment la révolution du deep learning (« apprentissage profond », cf. article de Chartland et al, Radiographics 2017) et des réseaux de neurones profonds (cf. article de Yamashita et al, Insight into imaging 2018) qui ont permis de résoudre ce problème de perception, à travers la simulation de réseaux s’inspirant le fonctionnement des neurones de la rétine humaine, avec la même complexité.

Par exemple, le challenge ImageNet basé sur des reconnaissances d’image a vu une nette évolution des algorithmes les plus performants avec l’arrivée des réseaux de neurones profonds (en 2012 dans ce challenge), dépassant même depuis 2015 les performances humaine « moyennes ».

En l’espace de 6 ans, le niveau de perception est passé d’un niveau « pré-scolaire » à un niveau « super-humain ». Il s’agit d’un vrai changement de paradigme, où les algorithmes les mieux entraînés peuvent avoir un niveau de compréhension visuelle supérieure à celles des humains. Un bon exemple vient de la comparaison de ce qui se fait de mieux en termes d’images de synthèse faciales générées par les humains les plus experts dans ce domaine (A.), par rapport à des choses produites par des algorithmes de deep learning assez communs (B.).

En A : les images de synthèses générées par les meilleurs spécialistes de la 3D Hollywoodienne, pour le film Star Wars Rogue One, l’acteur Peter Cushing étant décédé (coût +++ temps de travail +++). Globalement, même si le travail est de grande qualité, le caractère factice reste perceptible.

En B : un « Deep Fake » basé sur un réseau de neurones (rapidité ++, faible coût) ; il est plus difficile de détecter que le montage de droite est un faux (à part bien sûr quand on reconnait Nicolas Cage au lieu d’Amy Adams…). La moralité : les êtres humains doivent passer par une phase de conversion active des informations visuelles en informations numériques, alors que les images numériques et les ordinateurs sont d’emblée dans le même « monde ».  Vu que les machines étaient déjà capables de suivre des arbres décisionnels et que le facteur limitant était leur perception, maintenant que les algorithmes d’IA en sont capables sur certaines tâches, ils peuvent théoriquement effectuer des tâches précises, mêmes complexes, d’un bout à l’autre (= de la perception à la décision).

A -

B -

Un bon exemple est celui d’AlphaGo, algorithme basé sur du Deep Learning qui a battu en 2016 l’un des meilleurs joueurs de Go (Lee Sedol). Avant cette performance, les spécialistes du Go pensaient qu’il faudrait encore 15 à 20 ans avant qu’un algorithme ne batte un joueur expert. La vidéo vaut le détour (avec les commentaires, vous la trouverez facilement sur Youtube) et montre qu’AlphaGo a été capable de prendre des décisions complexes, qui sont pourtant parfois basées (pour un humain) sur de l’intuition.

Alors pourquoi maintenant ? Car la création et développement d’algorithmes de Deep Learning nécessitait beaucoup de données, des données de qualité et d’une puissance de calcul énorme. Les progrès de l’informatique ont permis une augmentation majeure du pouvoir computationnel, permettant de traiter un grand volume de données de façon rapide. Et les données en elles-mêmes, toujours plus nombreuses et disponibles, deviennent également diversifiées (images, texte, appareils connectés, génomique…) ce qui permet d’améliorer leur pertinence.

Quelle place dans notre pratique et quelle évolution pour la radiologie ? Comme souvent, la question n’a pas été abordée spécifiquement en profondeur, car il n’y a pas de réponse unique mais seulement des points de vue.

Les deux points de consensus sont qu’il s’agira d’une évolution technique majeure - comme l’ont été en leur temps le scanner ou l’IRM (et auxquels les radiologues ont su/dû s’adapter !), et que la technologie permettra aux radiologues d’améliorer la qualité des soins et de devenir encore meilleurs (« intelligence augmentée »).

Quoi qu’il en soit, il est de notre devoir de nous y intéresser de très près ++, de nous y former pour pouvoir garder un esprit critique et éclairé.

Applications cliniques

Plutôt que de détailler l’ensemble des applications possibles, nous avons choisi de reprendre certains exemples qui ont été cités, provenant de la littérature :

  • Application à la radiologie des techniques de “Natural Language Processing” (Cai et al, Radiographics Janvier 2016) : Analyse “intelligente” de texte libre, permettant par exemple une analyse des demandes d’examen, de protocoles, de comptes rendus…
  • Amélioration de la qualité image d’un examen :
    - À partir d’une acquisition avec un niveau plus faible de rapport signal sur bruit (Zaharchuk et al, AJNR, Février 2018).
    - À partir de coupes épaisses de basse résolution en re-créant des coupes fines en haute résolution (Chaudhari et al, Magnetic resonance in medicine, Mars 2018).
  • Réduction de doses nécessaires de Gadolinium pour les IRM cérébrales (Gong et al, J MRI, Janvier 2018).
  • Optimisation du flux d’urgences : Triage des scanners cérébraux en fonction du degré d’urgence, pour faire apparaître les plus urgents en premier dans la file d’interprétation (Titano et al, Nature Medicine, Septembre 2018).
  • Prédiction de mutations génétiques à partir d’images : Classification des gliomes à partir d’IRM cérébrales, selon 3 principales mutations (Chang et al, AJNR, Mai 2018).
  • Applications à des pathologies courantes :
    - Pneumopathie infectieuse (Rajpurkar et al, arXiv, Novembre 2017).
    - Fracture du femur (Urakawa et al, Skeletal Radiology, Juin 2018).
    - Âge osseux (Larson et al, Radiology, Avril 2018).
    - Cancer du sein (Wang et al, Scientific Reports, Juin 2016).
    - Évaluation de la fibrose hépatique (Choi et al, Radiology, Septembre 2018). Et beaucoup d’autres… (cf. requête “deep learning” + “radiology” sur PubMed). Pour information, voici une liste des principales autorisations délivrées par la FDA (agence Américaine du medicament et des produits de santé) ayant attrait à des solutions d’IA en médecine :

Dimensions éthiques et réglementaires

L’utilisation d’une grande quantité de données pose des questions de protection des patients. Même anonymisés, une IRM ou un scanner pourraient permettre de retrouver l’identité des patients et ces questions se posent encore plus lorsque le partage de ces données se fait avec des industriels.

La NYU school of medecine s’est par exemple récemment associée à Facebook, en lui fournissant 3 millions d’IRM issues de 10 000 cas dans le but de développer un algorithme permettant l’accélération d’un facteur 10 de l’acquisition des IRM.

Les algorithmes utilisés sont de plus en plus complexes, et nous ne contrôlons ni ne comprenons parfois pas leur manière de fonctionner (« boite noire »), ce qui pose des questions de responsabilité. Comment pouvons-nous faire confiance à un algorithme dont nous sommes incapables d’expliquer le résultat ?

Comment gérer les problèmes de responsabilité en cas de situation indésirable impliquant l’algorithme ? (une voiture autonome a récemment entraîné la mort d’un piétons aux Etats Unis : était-ce la faute intrinsèque de l’algorithme ? Du conducteur présent dans la voiture ? Du constructeur ? Du piéton ?).

Comment être sûrs que les algorithmes ne se basent pas sur de « mauvaises raisons », comme le racisme ou le sexisme ?

Il a été ainsi démontré que l’utilisation de logiciels d’intelligence artificielle par la justice américaine pour prédire le risque de récidive classait les personnes d’ethnie « noire » comme deux fois plus susceptibles que les « blancs » d’être considérés à « haut risque » de récidive par les algorithmes, quand bien même ils ne récidivent pas par la suite… Peut-on donc dire que l’intelligence artificielle est à risque de tuer et de discriminer ? Comment protéger les données de nos patients ?

Le règlement général pour la protection des données (RGPD), applicable en Union Européenne depuis le 25 mai 2018, pose de nouvelle base de protection et utilisation de données.

Grands principes :

  • Consentement éclairé : les personnes doivent être clairement informées des données utilisées et de la manière dont elles vont être utilisées.
  • Droit à la rectification et à la suppression des données.
  • Droit à la portabilité des données de santé : nécessite d’offrir aux personnes la possibilité de récupérer leurs données dans un format ouvert et lisible.
  • Information en cas de violation ou de piratage des données : une notification détaillée doit être réalisée dans les 72h.
  • L’organisme utilisant les données doit être en mesure de prouver le respect de la conformité de l’utilisation des données. En cas de manquement, l’amende peut aller jusqu’à 20 millions d’euros, ou 4 % du chiffre d’affaire annuel mondial s’il s’agit d’une entreprise.
  • Agent de protection des données (DPO): les organismes ou entreprises utilisant des données personnelles doivent recourir à un DPO dont le rôle est de vérifier que son employeur respecte la législation et de s’assurer de la sécurité des données.
  • Dérogations et exceptions. Sous réserve de garanties comme le principe de minimisation des données et la pseudo-anonymisation (données non attribuables à une personne sans avoir des informations supplémentaires conservées séparément) des dérogations peuvent être appliquées dans la mesure où les droits rendent impossibles ou entravent sérieusement des travaux de recherche scientifique.
  • Quelles ressources pour commencer ?

    Glossaire des termes principaux abordés concernant l’IA en radiologie : https://www.medicalimaging.org/standards/ai-glossary/

    Plusieurs articles généraux très intéressants :

    • Chartland et al, Radiographics 2017: “Deep learning, a primer for radiologists”
    • Yamashita et al, Insight into imaging 2018: “Convolutional neural networks: an overview and application in radiology”
    • Kohli et al, AJR 2017: “Implementing Machine Learning in Radiology Practice and Research”
    • Choy et al, Radiology 2018: “Current Applications and Future Impact of Machine Learning in Radiology”

    Le MOOC le plus populaire sur le Machine Learning :
    https://www.coursera.org/learn/machine-learning.

    Cours commun NIIC / RSNA / SIIM :
    https://imaging-informatics-course.appspot.com/niic-oct2018

    Chaînes YouTube :
    giant_neural_network
    DeepLearning.TV

    La SIAD finance la participation aux Workshops de l'ESGAR (pancréas, 25-26 avril 2019) selon les règles suivantes :

    • Être membre junior à jour de sa cotisation ;
    • Être CCA, assistant ou interne de 5ème année ;
    • Faire la demande accompagnée d'une lettre de recommandation de son patron, assurant d'un investissement en imagerie abdominale

    Sont pris en charge les frais d'inscription, le voyage et le séjour.

    Il faut envoyer son dossier au Pr Céline Savoye-Collet au CHU de Rouen à l'adresse ci-dessous : [email protected]

    La cotisation SIAD junior coûte 10 euros à envoyer avec le dossier pour ceux qui ne seraient pas membres.

    Article paru dans la revue “Union Nationale des Internes et Jeunes Radiologues” / UNIR N°34

    L'accès à cet article est GRATUIT, mais il est restreint aux membres RESEAU PRO SANTE

    Publié le 1652682012000