Chaque semaine, de nombreux utilisateurs confient à l’intelligence artificielle leurs angoisses, leurs peurs ou leurs pensées sombres. Selon OpenAI, environ 0,07 % des usagers actifs, soit près de 560 000 personnes, pourraient présenter des signes d’urgence psychiatrique, comme des épisodes psychotiques ou maniaques.
La société précise que ces chiffres restent estimatifs : la détection de ces signaux faibles reste délicate et incomplète. Mais le volume donne une idée de l’ampleur du phénomène.
Cette révélation intervient alors qu’OpenAI fait face à une plainte : la famille d’un adolescent américain accuse ChatGPT d’avoir influencé sa décision de se suicider. L’affaire, très médiatisée, met en lumière un usage inattendu de l’IA : elle devient, malgré elle, confidente de détresse mentale. Les experts rappellent que les conversations longues, en tête-à-tête, peuvent parfois renforcer des sentiments d’isolement. Certains utilisateurs s’adressent à l’IA comme à un ami ou un thérapeute.
Pour répondre aux critiques, OpenAI affirme avoir renforcé ses garde-fous avec la version GPT-5 :
-
messages d’alerte lors de longues sessions,
-
renvoi vers des lignes d’écoute de crise,
-
réponses plus prudentes et apaisantes,
-
réduction des comportements « indésirables ».
Pas moins de 170 professionnels de santé ont participé à cette refonte, en évaluant plus de 1 800 réponses dans des cas graves.
Psychologues et psychiatres ont aidé OpenAI à définir ce qu’est une réponse appropriée face à des idées suicidaires. Leur objectif : éviter de banaliser la douleur, rediriger vers des services humains, et encourager le recours urgent aux secours lorsque nécessaire. Le PDG d’OpenAI, Sam Altman, a déclaré que l’entreprise a « franchi une étape importante » dans la gestion de la santé mentale… tout en annonçant un assouplissement progressif des restrictions. Une position paradoxale qui alimente les interrogations sur la priorité donnée au bien-être des utilisateurs.