L'ODJ Média

lodj





ChatGPT mise sur l’alerte « contact de confiance » pour sauver les esprits en crise


Rédigé par le Vendredi 6 Mars 2026

OpenAI passe à la vitesse supérieure face aux risques psychologiques liés à son chatbot : ChatGPT pourra désormais alerter un proche si un utilisateur semble en détresse. Une première mondiale pour l’intelligence artificielle.



Une fonction pour prévenir les crises

Confrontée à des critiques de plus en plus virulentes et à plusieurs procédures judiciaires, OpenAI dévoile sa nouvelle fonctionnalité : « contact de confiance ».

Elle permet à un utilisateur adulte de désigner un proche qui sera alerté si le système détecte des signes de détresse psychologique.

L’annonce, publiée la semaine dernière sur le blog officiel d’OpenAI, s’inscrit dans une démarche de prévention des risques liés à l’usage intensif de l’IA.

Selon l’entreprise, cette option est le fruit d’une collaboration avec des experts en santé mentale et un réseau international de médecins.


Pourquoi cette mesure devient urgente

Le déploiement de cette fonctionnalité intervient dans un contexte tendu. Plusieurs affaires ont montré que l’usage prolongé de chatbots pouvait provoquer des spirales anxieuses, voire suicidaires.

L’un des cas les plus médiatisés reste le suicide d’un adolescent de 16 ans, utilisateur de ChatGPT, qui avait relancé le débat mondial sur la sécurité des utilisateurs.

Avec près de 900 millions d’utilisateurs hebdomadaires, la plateforme touche une audience massive.

OpenAI estime que plusieurs millions d’entre eux pourraient manifester chaque semaine des signes de détresse. C’est donc une question de santé publique et de responsabilité pour l’entreprise.


Les zones d’ombre restent nombreuses

Pour l’instant, OpenAI reste discret sur les critères exacts qui déclencheraient une alerte. La société indique simplement que la personne désignée sera avertie lorsque l’utilisateur « pourrait avoir besoin d’aide ».

Cette approche soulève déjà des questions sur la surveillance, la vie privée et la responsabilité des entreprises d’IA.

Les experts alertent : les chatbots peuvent amplifier des troubles psychologiques existants ou contribuer à des situations critiques, comme l’isolement social, l’arrêt de traitements ou la montée de croyances délirantes.

OpenAI travaille actuellement sur des systèmes simulant des conversations complexes pour améliorer la détection de crises et affiner les réponses de l’IA. L’objectif : réagir mieux et plus vite face à des situations sensibles, tout en limitant les faux positifs.

À suivre : comment OpenAI ajustera cette fonctionnalité face aux critiques et si d’autres géants de l’IA s’inspireront de ce système pour protéger leurs utilisateurs.

Au Maroc comme ailleurs, cette innovation pourrait ouvrir de nouvelles pratiques autour de la technologie et du bien-être psychologique.






Vendredi 6 Mars 2026

Breaking news | Plume IA | Communiqué de presse | Gaming | Eco Business | Digital & Tech | Santé & Bien être | Lifestyle | Culture & Musique & Loisir | Sport | Auto-moto | Room | L'ODJ Podcasts - 8éme jour | Les dernières émissions de L'ODJ TV | Last Conférences & Reportages | Bookcase | LODJ Média | Avatar IA Live


Bannière Réseaux Sociaux



Bannière Lodj DJ






LODJ24 TV
آخر الأخبار
جاري تحميل الأخبار...
BREAKING NEWS
📰 Chargement des actualités...

Inscription à la newsletter

Plus d'informations sur cette page : https://www.lodj.ma/CGU_a46.html
















Vos contributions
LODJ Vidéo