Image légendée
Elisabeth Bik, microbiologiste néerlandaise spécialisée dans la détection d’images truquées, montre les duplications d’images qu’elle a trouvées dans un article scientifique, le 15 juin 2021 à San Francisco, en Californie © AFP/Archives Amy Osborne

Une image de rat au pénis géant, une autre montrant une jambe humaine comportant trop d’os, des formulations suspectes… Des exemples récents confirment une utilisation de plus en plus importante de l’intelligence artificielle (IA) dans les publications scientifiques, au détriment de leur qualité.

Si les spécialistes reconnaissent l’intérêt d’outils comme ChatGPT pour aider à la rédaction de contenus, notamment en matière de traduction pour tous les chercheurs dont l’anglais n’est pas la langue maternelle, plusieurs rétractations opérées récemment par des revues ont mis en lumière l’existence de pratiques malhonnêtes. 

En début d’année, une illustration représentant un rat aux organes génitaux surdimensionnés, largement partagée sur les réseaux sociaux, a conduit au retrait d’une étude publiée au sein d’une revue de la maison d’édition universitaire Frontiers, poids lourd du secteur. Le mois dernier, une autre étude a été retirée après avoir présenté une image de jambe humaine comportant… trop d’os.

Au-delà de ces illustrations erronées, le plus grand bouleversement du secteur semble venir de ChatGPT, l’outil conversationnel développé par l’entreprise américaine OpenAI et basé sur l’IA. Une étude publiée par le groupe d’édition scientifique britannique Elsevier est ainsi devenue virale en mars : son introduction débutait par « certainement, voici une introduction possible pour votre sujet », une formule typique des réponses de ChatGPT.

« Usines à articles »

Ces ratés embarrassants, ayant échappé à la vigilance des experts chargés de relire les études avant publication, restent rares et n’auraient probablement pas passé les filtres de contrôle des revues les plus prestigieuses, ont affirmé plusieurs spécialistes. 

Le recours à l’IA est souvent difficile à détecter, mais semble bien en nette augmentation dans la littérature scientifique. Andrew Gray, bibliothécaire au sein de l’University College de Londres, a ainsi épluché des millions d’articles scientifiques à la recherche de mots tels que « méticuleux », « complexe », ou « louable », souvent surutilisés par l’IA. Selon lui, au moins 60 000 articles auraient été produits avec l’IA en 2023, soit 1 % de la production annuelle, et l’année 2024 devrait marquer une « augmentation significative » de ces chiffres.

Quant à l’association américaine Retraction Watch, elle a observé un record de 13 000 rétractations d’articles dans le domaine scientifique en 2023, du jamais vu. Pour Ivan Oransky, l’un de ses co-fondateurs, l’IA permet désormais d’« industrialiser » la production de papiers « bidon » par des « usines » à articles. Ces acteurs produisent de nombreux articles de mauvaise qualité, plagiés ou faux, affirme la microbiologiste néerlandaise spécialisée dans la détection d’images truquées Elisabeth Bik. 

Rémunérées par des chercheurs encouragés à produire toujours davantage, ces « usines » seraient chaque année à l’origine d’environ 2 % des publications, mais ce chiffre « explose » à cause de l’IA, selon cette experte.

Garde-fous

Pour Ivan Oransky, l’IA ne fait qu’alimenter un « problème écrasant » : la demande insatiable d’articles par les éditeurs et universités exerce une pression sur les chercheurs, classés en fonction de leur production, créant ainsi un « cercle vicieux ».

En parallèle, les garde-fous contre les « usines » à papiers demeurent insuffisants. Le problème de ces fraudes massives avait notamment été révélé après le rachat de l’éditeur Hindawi par l’entreprise américaine Wiley en 2021, qui a été suivi depuis par le retrait de quelque 11 300 articles précédemment publiés par Hindawi. Pour tenter de résoudre ce problème croissant, Wiley a mis en place un « service de détection des usines à articles » pour détecter les abus de l’IA, service lui-même alimenté par l’IA.

Mais la semaine dernière, un chercheur américain a néanmoins découvert ce qui semble être une version réécrite par ChatGPT de l’un de ses propres articles, publiée dans une revue de Wiley. Samuel Payne, professeur de bio-informatique à l’université Brigham Young aux États-Unis, a indiqué avoir été sollicité en mars pour la vérification de l’étude en question. Après avoir réalisé qu’il s’agissait d’un « plagiat » de sa propre étude réécrit par une IA, il refuse d’approuver la publication. M. Payne s’est déclaré « choqué » de constater qu’au lieu d’être retiré, le travail plagié avait simplement été publié dans une autre revue.