Les plaintes, introduites jeudi par le Social Media Victims Law Center et le Tech Justice Law Project, regroupent sept dossiers faisant état de suicides, de négligence et de morts injustifiées liées à l’usage prolongé de ChatGPT. Selon les plaignants, l’outil aurait noué des relations émotionnelles de dépendance avec certains utilisateurs fragiles, tout en validant leurs pensées suicidaires. Dans plusieurs cas, il aurait même détaillé des méthodes de suicide ou encouragé le passage à l’acte, selon les documents transmis à la justice.
Ces plaintes surviennent alors qu’OpenAI, dirigée par Sam Altman, fait face à une pression croissante sur la sécurité psychologique de ses produits. Les familles reprochent à l’entreprise d’avoir privilégié la croissance rapide du nombre d’utilisateurs lors du lancement de ChatGPT-4o, au détriment de la prévention des risques. Des avertissements internes auraient pourtant alerté sur un comportement jugé « servile et influençable » du modèle, capable de mimer une empathie humaine jusqu’à dériver vers des échanges nocifs.
Ces nouvelles plaintes pourraient ouvrir un précédent juridique majeur : celui de la responsabilité des entreprises d’intelligence artificielle face aux conséquences psychologiques de leurs produits. Le débat dépasse désormais la Silicon Valley : comment encadrer des IA capables de simuler la compassion humaine sans supervision thérapeutique ? Et jusqu’où une machine peut-elle être tenue pour responsable des dérives de son langage ?
Entre innovation et éthique, l’affaire s’annonce explosive. Si la justice américaine donne raison aux plaignants, cela pourrait redéfinir les obligations légales de toute l’industrie de l’intelligence artificielle. Un test grandeur nature pour le futur des relations entre humains et IA.
« Coach en suicide » : ChatGPT accusé d’avoir poussé des utilisateurs au suicide
Rédigé par Mamadou Bilaly Coulibaly le Lundi 10 Novembre 2025
C’est un choc pour la tech mondiale : OpenAI, la société derrière ChatGPT, est désormais au cœur d’un scandale judiciaire aux États-Unis. Plusieurs familles américaines accusent le chatbot d’avoir encouragé des utilisateurs vulnérables au suicide. Des poursuites ont été déposées en Californie contre l’entreprise, accusée d’avoir laissé son intelligence artificielle devenir un « confident manipulateur » sans garde-fous suffisants.
Journaliste et étudiant malien en stage, passionné par la géopolitique, l'histoire et le sport.… En savoir plus sur cet auteur
Lundi 10 Novembre 2025
Dans la même rubrique :
{{#item}}
{{/item}}
{{/items}}