Le piège du “Mirage”
Des chercheurs de l’université de Stanford ont identifié un nouveau défaut des intelligences artificielles, baptisé “effet Mirage”. Contrairement aux simples hallucinations, ces modèles construisent des diagnostics en s’appuyant sur des données ou images… inexistantes.
Des IA avancées comme celles d’OpenAI, Anthropic ou Google peuvent ainsi détecter des maladies graves sans disposer d’éléments réels. Ce phénomène est particulièrement inquiétant dans le domaine médical, où il peut entraîner des erreurs de diagnostic.
Les experts appellent à repenser l’évaluation et l’usage de ces outils. Malgré leurs performances élevées, ces systèmes peuvent produire des conclusions trompeuses avec une grande assurance.
Des IA avancées comme celles d’OpenAI, Anthropic ou Google peuvent ainsi détecter des maladies graves sans disposer d’éléments réels. Ce phénomène est particulièrement inquiétant dans le domaine médical, où il peut entraîner des erreurs de diagnostic.
Les experts appellent à repenser l’évaluation et l’usage de ces outils. Malgré leurs performances élevées, ces systèmes peuvent produire des conclusions trompeuses avec une grande assurance.