
Dans le domaine de la recherche en santé, les institutions et la communauté scientifique exercent une forte pression pour produire régulièrement des articles, une situation résumée par l'expression bien connue “publish or perish”. Pour répondre à ces exigences, certains acteurs de la recherche envisagent de recourir à des outils d'intelligence artificielle (IA), tels que la célèbre application ChatGPT, pour la rédaction et l'interprétation de textes. D'autres solutions, comme ResearchRabbit ou Scite.ai, accessibles gratuitement en ligne, permettent de découvrir des articles pertinents pour une question scientifique donnée, à partir d'une liste initiale de publications. Au-delà de la recherche bibliographique, des outils comme consensus.app, ou encore elicit.com, se positionnent comme des moteurs de recherche offrant des réponses fournies, et appuyées par des articles, à des questions ouvertes telles que : “ Quelles sont les preuves concernant le pramipexole pour potentialiser la dépression unipolaire chez le sujet âgé ? ”. S'il peut être intéressant d'auto-expérimenter un peu avec ces outils, leur fonctionnement reste opaque : les modèles utilisés et les données d'entraînement sont souvent gardées secrètes, en vertu du secret industriel, ce qui limite la confiance qu'on peut leur accorder.
Ces outils, bien qu'innovants, présentent des risques majeurs pour la qualité et l'intégrité de la recherche, que ça soit pour la psychiatrie ou pour les autres disciplines médicales.
Ainsi, l'une des conséquences potentielles de l'utilisation indiscriminée de ces technologies est la génération et la publication de contenus de faible qualité. Les outils d'IA, en particulier ceux conçus pour générer ou résumer des textes, peuvent produire des énoncés imprécis, des conclusions exagérées ou des références bibliographiques inventées, phénomènes connus sous le nom "d'hallucinations”. Ces erreurs, lorsqu'elles passent inaperçues, risquent de polluer la littérature scientifique. Ainsi, une fois que les publications avec erreurs ou contenus hallucinés sont intégrées aux bases de données académiques, elles peuvent être reprises par d'autres chercheurs, amplifiant ainsi leur impact négatif. Ce cercle vicieux pourrait diluer la valeur des recherches véritablement rigoureuses et compliquer l'accès à des données fiables, notamment dans un domaine comme la psychiatrie où les preuves scientifiques doivent être solides pour garantir les avancées thérapeutiques dont nos patientes ont besoin !
Si les outils d'IA offrent des opportunités indéniables, notamment pour réduire les barrières linguistiques et accélérer les processus de recherche, leur intégration doit être accompagnée d'une réflexion approfondie. La communauté scientifique devra développer des garde-fous, comme une validation rigoureuse des contenus générés par l'IA avant leur publication.
L'intégration de l'IA à nos pratiques de recherche est un processus balbutiant et en évolution constante. Les internes intéressées par la recherche gagneraient à explorer et auto-expérimenter ces outils dans leurs pratiques, en gardant toujours une trace des contenus générés et modifiés et en gardant à l'esprit que la responsabilité reste totalement entre leurs mains.
Etienne DURANTÉ
Interne en psychiatrie à Paris