Une fonction pour prévenir les crises
Confrontée à des critiques de plus en plus virulentes et à plusieurs procédures judiciaires, OpenAI dévoile sa nouvelle fonctionnalité : « contact de confiance ».
Elle permet à un utilisateur adulte de désigner un proche qui sera alerté si le système détecte des signes de détresse psychologique.
L’annonce, publiée la semaine dernière sur le blog officiel d’OpenAI, s’inscrit dans une démarche de prévention des risques liés à l’usage intensif de l’IA.
Selon l’entreprise, cette option est le fruit d’une collaboration avec des experts en santé mentale et un réseau international de médecins.
Pourquoi cette mesure devient urgente
Le déploiement de cette fonctionnalité intervient dans un contexte tendu. Plusieurs affaires ont montré que l’usage prolongé de chatbots pouvait provoquer des spirales anxieuses, voire suicidaires.
L’un des cas les plus médiatisés reste le suicide d’un adolescent de 16 ans, utilisateur de ChatGPT, qui avait relancé le débat mondial sur la sécurité des utilisateurs.
Avec près de 900 millions d’utilisateurs hebdomadaires, la plateforme touche une audience massive.
OpenAI estime que plusieurs millions d’entre eux pourraient manifester chaque semaine des signes de détresse. C’est donc une question de santé publique et de responsabilité pour l’entreprise.
Les zones d’ombre restent nombreuses
Pour l’instant, OpenAI reste discret sur les critères exacts qui déclencheraient une alerte. La société indique simplement que la personne désignée sera avertie lorsque l’utilisateur « pourrait avoir besoin d’aide ».
Cette approche soulève déjà des questions sur la surveillance, la vie privée et la responsabilité des entreprises d’IA.
Les experts alertent : les chatbots peuvent amplifier des troubles psychologiques existants ou contribuer à des situations critiques, comme l’isolement social, l’arrêt de traitements ou la montée de croyances délirantes.
OpenAI travaille actuellement sur des systèmes simulant des conversations complexes pour améliorer la détection de crises et affiner les réponses de l’IA. L’objectif : réagir mieux et plus vite face à des situations sensibles, tout en limitant les faux positifs.
À suivre : comment OpenAI ajustera cette fonctionnalité face aux critiques et si d’autres géants de l’IA s’inspireront de ce système pour protéger leurs utilisateurs.
Au Maroc comme ailleurs, cette innovation pourrait ouvrir de nouvelles pratiques autour de la technologie et du bien-être psychologique.












L'accueil















