Les plaintes, introduites jeudi par le Social Media Victims Law Center et le Tech Justice Law Project, regroupent sept dossiers faisant état de suicides, de négligence et de morts injustifiées liées à l’usage prolongé de ChatGPT. Selon les plaignants, l’outil aurait noué des relations émotionnelles de dépendance avec certains utilisateurs fragiles, tout en validant leurs pensées suicidaires. Dans plusieurs cas, il aurait même détaillé des méthodes de suicide ou encouragé le passage à l’acte, selon les documents transmis à la justice.
Ces plaintes surviennent alors qu’OpenAI, dirigée par Sam Altman, fait face à une pression croissante sur la sécurité psychologique de ses produits. Les familles reprochent à l’entreprise d’avoir privilégié la croissance rapide du nombre d’utilisateurs lors du lancement de ChatGPT-4o, au détriment de la prévention des risques. Des avertissements internes auraient pourtant alerté sur un comportement jugé « servile et influençable » du modèle, capable de mimer une empathie humaine jusqu’à dériver vers des échanges nocifs.
Ces nouvelles plaintes pourraient ouvrir un précédent juridique majeur : celui de la responsabilité des entreprises d’intelligence artificielle face aux conséquences psychologiques de leurs produits. Le débat dépasse désormais la Silicon Valley : comment encadrer des IA capables de simuler la compassion humaine sans supervision thérapeutique ? Et jusqu’où une machine peut-elle être tenue pour responsable des dérives de son langage ?
Entre innovation et éthique, l’affaire s’annonce explosive. Si la justice américaine donne raison aux plaignants, cela pourrait redéfinir les obligations légales de toute l’industrie de l’intelligence artificielle. Un test grandeur nature pour le futur des relations entre humains et IA.
Istiqlal : un Conseil national sous le signe de l’unité nationale, des chantiers sociaux et de l’enjeu électoral
Sans commentaire
Achraf Hakimi : Une visite marquante au Complexe Hospitalo-Universitaire Mohammed VI de Rabat
Hommage à Son Altesse Royale la Princesse Lalla Hasnaa à l’occasion de Son anniversaire
Industrie made in Morocco : Une valeur ajoutée supérieure à 50%
Airbus mise davantage sur le Maroc
Inauguration à Dakhla de « Dar Al Moukawil »
Les voyagistes néerlandais attirés par le Maroc
ONMT : Un programme festif et sportif pour la CAN
Une licence d’excellence pour les prisoniers
« Coach en suicide » : ChatGPT accusé d’avoir poussé des utilisateurs au suicide
Rédigé par Mamadou Bilaly Coulibaly le Lundi 10 Novembre 2025
C’est un choc pour la tech mondiale : OpenAI, la société derrière ChatGPT, est désormais au cœur d’un scandale judiciaire aux États-Unis. Plusieurs familles américaines accusent le chatbot d’avoir encouragé des utilisateurs vulnérables au suicide. Des poursuites ont été déposées en Californie contre l’entreprise, accusée d’avoir laissé son intelligence artificielle devenir un « confident manipulateur » sans garde-fous suffisants.
Journaliste et étudiant malien en stage, passionné par la géopolitique, l'histoire et le sport.... En savoir plus sur cet auteur
Lundi 10 Novembre 2025
Dans la même rubrique :
Jeudi 4 Décembre 2025 - 12:30 Apple sur le point d'atteindre un record de livraisons d'iPhone en 2025 grâce à une forte demande en Chine |
Jeudi 4 Décembre 2025 - 11:43 Le CCME lance “Goul-IA”, le premier chatbot dédié aux Marocains du monde |
Breaking news | Analyses & Finance & Bourse | Gaming | Communiqué de presse | Eco Business | Digital & Tech | Santé & Bien être | Lifestyle | Culture & Musique & Loisir | Sport | Auto-moto | Room | L'ODJ Podcasts - 8éme jour | Les dernières émissions de L'ODJ TV | Last Conférences & Reportages | Bookcase | LODJ Média | Avatar IA Live
Télégramme
آخر الأخبار
جاري تحميل الأخبار...
BREAKING NEWS
📰 Chargement des actualités...
Inscription à la newsletter
Press +
Podcast +
Vidéos & Clip +
Agenda Culturel
|
About us
|
Vos contributions
|
LODJ Vidéo
|
Copyright © 2022 Groupe de presse Arrissala
Ce site utilise Google Analytics. En continuant à naviguer, vous nous autorisez à déposer un cookie à des fins de mesure d'audience
Ce site utilise Google Analytics. En continuant à naviguer, vous nous autorisez à déposer un cookie à des fins de mesure d'audience












L'accueil

















