Santé : ChatGPT et d’autres IA ne font pas mieux qu’une simple recherche en ligne pour poser un diagnostic
Une étude publiée dans Nature Medicine révèle que des outils d’intelligence artificielle comme ChatGPT, Llama ou Command R+ ne sont pas fiables pour établir un diagnostic médical.
Menée auprès de 1.300 volontaires au Royaume-Uni, la recherche montre que ces modèles ne font pas mieux qu’une simple recherche en ligne. Seul un tiers des participants a obtenu le bon diagnostic à partir de cas simulés.
Selon la chercheuse Rebecca Payne de l’Université d’Oxford, l’IA n’est pas prête à remplacer un médecin. Malgré leurs bonnes performances aux examens théoriques, ces outils peinent face à des situations proches de la réalité.
Menée auprès de 1.300 volontaires au Royaume-Uni, la recherche montre que ces modèles ne font pas mieux qu’une simple recherche en ligne. Seul un tiers des participants a obtenu le bon diagnostic à partir de cas simulés.
Selon la chercheuse Rebecca Payne de l’Université d’Oxford, l’IA n’est pas prête à remplacer un médecin. Malgré leurs bonnes performances aux examens théoriques, ces outils peinent face à des situations proches de la réalité.












L'accueil














