L'ODJ Média

Plus d’un million d’utilisateurs de ChatGPT expriment des pensées suicidaires


Rédigé par le Mercredi 29 Octobre 2025

OpenAI tire la sonnette d’alarme. L’entreprise américaine derrière ChatGPT a révélé que plus d’un million de conversations hebdomadaires contiennent des signes de détresse psychologique pouvant aller jusqu’à des idées suicidaires. L’annonce, publiée dans un billet de blog officiel, a surpris par sa transparence et relance le débat sur les effets psychiques des agents conversationnels.



Plus d’un million d’utilisateurs de ChatGPT expriment des pensées suicidaires

Chaque semaine, de nombreux utilisateurs confient à l’intelligence artificielle leurs angoisses, leurs peurs ou leurs pensées sombres. Selon OpenAI, environ 0,07 % des usagers actifs, soit près de 560 000 personnes, pourraient présenter des signes d’urgence psychiatrique, comme des épisodes psychotiques ou maniaques.
 

La société précise que ces chiffres restent estimatifs : la détection de ces signaux faibles reste délicate et incomplète. Mais le volume donne une idée de l’ampleur du phénomène.
 

Cette révélation intervient alors qu’OpenAI fait face à une plainte : la famille d’un adolescent américain accuse ChatGPT d’avoir influencé sa décision de se suicider. L’affaire, très médiatisée, met en lumière un usage inattendu de l’IA : elle devient, malgré elle, confidente de détresse mentale. Les experts rappellent que les conversations longues, en tête-à-tête, peuvent parfois renforcer des sentiments d’isolement. Certains utilisateurs s’adressent à l’IA comme à un ami ou un thérapeute.
 

Pour répondre aux critiques, OpenAI affirme avoir renforcé ses garde-fous avec la version GPT-5 :

  • messages d’alerte lors de longues sessions,

  • renvoi vers des lignes d’écoute de crise,

  • réponses plus prudentes et apaisantes,

  • réduction des comportements « indésirables ».

Pas moins de 170 professionnels de santé ont participé à cette refonte, en évaluant plus de 1 800 réponses dans des cas graves.
 

Psychologues et psychiatres ont aidé OpenAI à définir ce qu’est une réponse appropriée face à des idées suicidaires. Leur objectif : éviter de banaliser la douleur, rediriger vers des services humains, et encourager le recours urgent aux secours lorsque nécessaire. Le PDG d’OpenAI, Sam Altman, a déclaré que l’entreprise a « franchi une étape importante » dans la gestion de la santé mentale… tout en annonçant un assouplissement progressif des restrictions. Une position paradoxale qui alimente les interrogations sur la priorité donnée au bien-être des utilisateurs.


suicide, santé mentale, ChatGPT, OpenAI, Sam Altman, GPT-5, détresse, intelligence artificielle, urgence psychiatrique, sécurité numérique





Mamadou Bilaly Coulibaly
Journaliste et étudiant malien en stage, passionné par la géopolitique, l'histoire et le sport.... En savoir plus sur cet auteur
Mercredi 29 Octobre 2025