Relation « malsaine » avec une IA : u
La requête, enregistrée lundi devant un tribunal fédéral de San Francisco et consultée par plusieurs médias, décrit une relation numérique suivie entre 2024 et 2025. Les plaignants affirment qu’un ultime échange, mi-avril, aurait vu le système valider certaines idées morbides de l’adolescent au lieu de les rediriger vers des ressources d’aide. Ils l’accusent aussi d’avoir facilité la rédaction d’un message d’adieu. La famille considère que ces interactions auraient consolidé un état de détresse préexistant.
« Ce drame n’est pas un bug, ni un accident », avance la plainte, qui reproche à OpenAI une architecture produit insuffisamment protégée pour les mineurs. Le couple réclame des dommages et intérêts et demande des mesures judiciaires visant à imposer : arrêt automatique des conversations liées à l’automutilation, filtres renforcés pour les utilisateurs mineurs, outils de contrôle parental et transparence accrue sur les limites techniques des modèles.
Le Tech Justice Law Project, qui appuie l’action, estime que seule la pression réglementaire poussera le secteur à intégrer des garde-fous systématiques. L’organisation Common Sense Media alerte de son côté sur le « risque » que des adolescents perçoivent des IA généralistes comme des interlocuteurs quasi thérapeutiques. L’affaire relance un débat sensible : jusqu’où engager la responsabilité d’outils génératifs qui ne sont ni médecins ni conseillers agréés, mais deviennent, par leur disponibilité permanente, des confidents de substitution.
Ressources d’aide (France) : numéro national de prévention suicide 3114, anonyme et gratuit, 24h/24. En cas d’urgence immédiate, contacter les services de secours.
« Ce drame n’est pas un bug, ni un accident », avance la plainte, qui reproche à OpenAI une architecture produit insuffisamment protégée pour les mineurs. Le couple réclame des dommages et intérêts et demande des mesures judiciaires visant à imposer : arrêt automatique des conversations liées à l’automutilation, filtres renforcés pour les utilisateurs mineurs, outils de contrôle parental et transparence accrue sur les limites techniques des modèles.
Le Tech Justice Law Project, qui appuie l’action, estime que seule la pression réglementaire poussera le secteur à intégrer des garde-fous systématiques. L’organisation Common Sense Media alerte de son côté sur le « risque » que des adolescents perçoivent des IA généralistes comme des interlocuteurs quasi thérapeutiques. L’affaire relance un débat sensible : jusqu’où engager la responsabilité d’outils génératifs qui ne sont ni médecins ni conseillers agréés, mais deviennent, par leur disponibilité permanente, des confidents de substitution.
Ressources d’aide (France) : numéro national de prévention suicide 3114, anonyme et gratuit, 24h/24. En cas d’urgence immédiate, contacter les services de secours.












L'accueil




















