L'ODJ Média

lodj






Entretien : Quand l’IA écoute trop : pourquoi des psys corrigent ChatGPT

Santé mentale en ligne : l’urgence d’encadrer ChatGPT


Depuis plusieurs semaines, les géants de l’intelligence artificielle sont sous pression. Au cœur des inquiétudes : la manière dont des millions d’utilisateurs, souvent en souffrance psychologique, dialoguent quotidiennement avec des modèles conversationnels comme ChatGPT. Un drame récent, largement relayé, a rappelé avec brutalité qu’une réponse algorithmique maladroite peut avoir un impact bien réel sur des existences fragiles. Face à cette alerte, l’entreprise américaine derrière ChatGPT a annoncé en urgence une évolution de son système, afin de mieux détecter les comportements inquiétants et de répondre avec davantage de prudence, d’empathie et de responsabilité.

Au Maroc comme ailleurs, la santé mentale reste un sujet sensible. Beaucoup préfèrent la confidentialité d’un écran à la complexité d’une consultation traditionnelle, donnant à l’IA un rôle d’écoute auquel elle n’était pas initialement destinée. Pour comprendre les enjeux, les risques, mais aussi les opportunités d’une telle transformation des usages numériques, la rédaction de L’ODJ Média a rencontré Driss L., psychologue clinicien marocain. Entre vigilance, pédagogie et regard lucide sur nos vulnérabilités contemporaines, il décortique pour nous ce phénomène qui interroge autant la technologie que la société.



​Entretien avec Dr Driss L., psychologue clinicien marocain

1. Pourquoi des psychologues ont-ils été appelés en urgence ?
Parce que l’incident qui a éclaté récemment a agi comme un électrochoc pour l’industrie technologique. Depuis plusieurs années, les plateformes d’IA génèrent un volume colossal d’échanges, et une part croissante concerne la solitude, l’angoisse, les idées noires et la perte de repères. Tant que cela restait discret, les entreprises se réfugiaient dans l’idée que « la modération automatique suffit ». Mais lorsqu’un drame retentissant éclate — où l’on apprend qu’un usager en réelle détresse psychologique a reçu des réponses maladroites, descriptives ou ambiguës —, la responsabilité morale devient impossible à esquiver. L’IA n’est pas censée cautionner, encourager, ou banaliser la souffrance. Or, sans référentiel clinique, elle peut s’enfermer dans une neutralité algorithmique qui, face à la fragilité humaine, devient une forme de violence involontaire. Les psychologues ont donc été sollicités pour éclairer des aspects que les ingénieurs ne maîtrisent pas : les dynamiques suicidaires, les biais cognitifs, les signaux faibles de désespoir. Leur rôle a été d’aider à calibrer des réponses plus empathiques, des redirections vers des professionnels, et des protocoles d’alerte. Ce n’est pas une révolution, mais c’est un pas enfin assumé pour reconnaître que le langage peut sauver — ou briser.

2. Qui sont ces usagers vulnérables qui se confient autant à l’IA ?
Ils sont nombreux, et loin du cliché du « geek isolé ». Beaucoup sont des adolescents confrontés à des pressions scolaires et sociales extrêmes, amplifiées par les réseaux. D’autres sont des adultes en burn-out silencieux, incapables d’avouer qu’ils craquent. Il y a aussi des personnes âgées, privées d’échanges réguliers, qui trouvent dans la disponibilité permanente de l’IA une oreille qui ne juge pas. Enfin, une catégorie souvent oubliée : les individus en situation de précarité affective, expatriés, étudiants en mobilité, personnes LGBTQ+ rejetées par leur entourage. L’IA représente pour eux un espace sécurisé, sans regard, sans honte. Cela peut sembler rassurant, mais ce refuge a un revers : on se confie à une entité incapable de contextualiser le vécu, ni d’évaluer la dangerosité d’un propos selon l’historique personnel. L’absence d’intimité corporelle limite l’analyse. Et dans des cultures — comme au Maroc — où la santé mentale reste taboue, la machine devient un confident clandestin. Comprendre ces profils, c’est comprendre que l’IA absorbe une souffrance sociale que personne ne sait accueillir. Cette externalisation numérique est un signal sociétal, pas seulement technologique. L’IA devient miroir, mais un miroir plat.

3. ChatGPT peut-il réellement remplacer un thérapeute ?
Non, et c’est fondamental. Un thérapeute humain perçoit des éléments que le langage écrit ou oral ne transmet pas : posture, rythme respiratoire, évitements du regard, incohérences corporelles. Durant une séance, un psychologue n’écoute pas seulement les mots, mais les silences, les lapsus, les micro-tensions musculaires. Il se base sur une alliance thérapeutique, c’est-à-dire un lien de confiance évolutif. L’IA, elle, opère par probabilités linguistiques. Elle peut simuler de l’empathie, mais elle ne la ressent pas. Cela crée un paradoxe : elle peut réconforter superficiellement, mais elle ne construit pas la transformation psychique profonde. De plus, un thérapeute adapte son intervention en fonction du contexte social, familial, médical, juridique. La machine ignore cela, à moins qu’on le lui raconte. Enfin, il y a la responsabilité. Un psychologue doit répondre à un code déontologique, à une supervision, à une formation continue. L’IA n’a ni serment, ni accountability. La confusion est dangereuse, car elle promet l’écoute sans la réparation. Certains usagers, soulagés sur l’instant, retardent une vraie prise en charge. Ce n’est pas de la malveillance, mais une illusion de soin.

4. Le risque principal, concrètement ?
C’est l’escalade invisible. Imaginons un individu exprimant un mal-être profond par petites touches. L’IA, si elle ne repère pas la progression, peut répondre calmement à des messages de plus en plus alarmants, comme si tout restait dans le champ de l’expression littéraire. Or, dans une relation clinique, on repère les ruptures, les pertes d’espoir, les passages à l’acte préparatoires. La machine peut normaliser des propos parce qu’elle ne lit pas l’intensité émotionnelle. Il y a aussi le risque de romantisation de la souffrance : l’IA, lorsqu’elle essaye d’être poétique, peut accidentellement donner de la noblesse à des idées morbides. Enfin, il y a la temporalité. Une personne en crise cherche une réponse immédiate ; un message mécanique peut être vécu comme un abandon. Le danger n’est pas que l’IA pousse volontairement, mais qu’elle laisse faire. Dans la santé mentale, l’absence d’alerte est déjà une faute.

5. L’algorithme peut-il vraiment détecter la détresse psychique ?
Oui et non. Techniquement, des marqueurs existent : mots évocateurs de suicide, perte de perspective, tonalité désespérée, auto-dévalorisation répétée. Le machine learning peut repérer ces patterns avec une précision croissante. Mais la détresse s’exprime aussi par humour noir, par ironie, par contournement culturel. Un Marocain dira différemment sa souffrance qu’un Américain. L’IA reste majoritairement entraînée sur des corpus occidentaux. Les psychologues apportent ici des nuances transculturelles : comment dire « je n’en peux plus » sans oser le dire ? L’algorithme apprend alors non seulement des mots, mais des structures, des progressions, des contradictions. Cela reste imparfait : un faux positif peut angoisser l’usager, tandis qu’un faux négatif peut coûter la vie. L’IA doit donc rester humble. Elle ne diagnostique pas — elle alerte. Elle doit orienter vers des ressources, rappeler les numéros d’urgence, proposer une respiration, valider l’émotion. L’objectif n’est pas d’être thérapeute, mais de réduire le risque de solitude extrême.

6. Et sur le plan éthique, quelles sont les limites ?
Elles sont nombreuses. La première concerne la confidentialité : que fait-on des confidences d’une personne suicidaire ? Qui y accède ? La seconde touche à la responsabilité : si l’IA répond mal, qui est coupable ? L’entreprise ? Le développeur ? L’utilisateur ? Ensuite, il y a le risque d’atteinte à l’autonomie psychique. Une IA pourrait, par maladresse, orienter le discours vers une vision pessimiste, renforçant les biais négatifs déjà présents chez la personne. L’éthique impose la bienveillance active : valider l’émotion, mais pas la cause. Enfin, il y a la question du consentement implicite. Beaucoup ignorent qu’ils parlent à un modèle conçu pour analyser leurs données. Un psychologue professionnel, lui, explique les limites du secret. L’IA doit apprendre à dire : « je ne remplace pas un professionnel », « vous méritez un soutien humain ». C’est son devoir moral minimal.

7. Les plateformes réagissent-elles suffisamment vite ?
Elles réagissent quand la crise devient publique. Avant, elles minimisent, par peur de reconnaissance juridique. Après, elles parlent de « mise à jour » et « d’amélioration ». Le problème est structurel : absence de comités externes, absence d’audits psychologiques, dépendance au marketing. Dans un monde idéal, ces plateformes auraient des cellules d’anticipation, des partenariats avec des institutions de santé mentale, des protocoles d’escalade automatique. Certaines avancées sont louables : filtres sur des mots-clés, redirections vers lignes d’écoute, refus de fournir des conseils dangereux. Mais tant que les profits guident l’innovation, la prévention restera périphérique. La pression médiatique, hélas, agit comme seul moteur. Nous devons exiger mieux.

8. Au Maroc, sommes-nous concernés par ce phénomène ?
Profondément. Le Maroc vit une transition sociale où les jeunes manquent d’espaces de parole. Le coût de la thérapie, le manque de psychologues en région, et la stigmatisation (« tu es fou ») créent une demande clandestine. L’IA, disponible 24h/24, gratuite, en français, en darija, devient une alternative. Nombreux sont ceux qui écrivent la nuit, quand la solitude amplifie tout. L’IA devient un compagnon. C’est révélateur : derrière l’innovation technologique se cache un déficit de structures humaines. Si nous laissons l’IA absorber les détresses, nous ne réglons rien ; nous les invisibilisons. Les pouvoirs publics devraient prendre ce phénomène au sérieux. Il nous dit quelque chose sur notre jeunesse, nos familles, nos silences.

9. Faut-il s’alarmer ?
Pas de panique, mais vigilance. L’IA n’est pas malveillante, et elle peut réellement apaiser une angoisse légère, normaliser une peur, rappeler la respiration, proposer des stratégies cognitives simples. Elle peut accompagner, mais pas porter. L’alarme sonne quand l’utilisateur s’attache émotionnellement au modèle. L’IA, par conception, répond vite, sans jugement, avec régularité. Ce comportement peut simuler une relation d’attachement, ce qui accroît la dépendance. L’alarme sonne aussi quand les gouvernements délèguent silencieusement la santé mentale aux machines. Il faut garder l’humain au centre. L’IA peut être un pont — pas un refuge permanent. Nous devons éduquer : quand consulter ? comment reconnaître le danger ? comment demander de l’aide ? L’inquiétude n’est pas l’existence de l’IA, mais sa mauvaise utilisation.

10. Votre recommandation finale ?
Trois axes. D’abord, renforcer l’éducation émotionnelle à l’école. Apprendre à nommer ses sentiments réduit déjà la charge. Ensuite, investir massivement dans la santé mentale : plus de psychologues publics, des téléconsultations subventionnées, des campagnes anti-stigmates. Enfin, responsabiliser les plateformes : audits externes, protocoles de transfert humain, transparence. La technologie n’est rien sans éthique. À l’échelle individuelle, je conseille : utilisez l’IA pour réfléchir, pas pour vous définir. Si vous sentez que ça déborde, appelez un humain : ami, parent, thérapeute, ligne d’écoute. Le courage, parfois, c’est de décrocher le téléphone. L’IA peut éclairer, mais seule la relation humaine réchauffe.

santé mentale, intelligence artificielle, ChatGPT, psychologues, détresse psychique, modération IA, éthique numérique, prévention suicide, technologie responsable, thérapie en ligne


Mercredi 29 Octobre 2025



Rédigé par La rédaction le Mercredi 29 Octobre 2025


Dans la même rubrique :
< >

Vendredi 5 Décembre 2025 - 14:00 Allergique à ses propres larmes

Breaking news | Analyses & Finance & Bourse | Communiqué de presse | Gaming | Eco Business | Digital & Tech | Santé & Bien être | Lifestyle | Culture & Musique & Loisir | Sport | Auto-moto | Room | L'ODJ Podcasts - 8éme jour | Les dernières émissions de L'ODJ TV | Last Conférences & Reportages | Bookcase | LODJ Média | Avatar IA Live


Bannière Réseaux Sociaux


Bannière Lodj DJ

Les informations de ce portail sont publiées à titre purement informatif et ne peuvent être considérées comme des conseils médicaux personnalisés. Aucun traitement ne devrait être entrepris en se basant uniquement sur le contenu de ces articles, et il est fortement recommandé au lecteur de consulter des professionnels de santé dûment homologués auprès des autorités sanitaires pour toute question relative à leur santé et leur bien-être. L’éditeur n’est pas un fournisseur de soins médicaux homologués. L’éditeur de ce portail d'information ne pratique à aucun titre la médecine lui-même, ni aucune autre profession thérapeutique, et s’interdit formellement d’entrer dans une relation de praticien de santé vis-à-vis de malades avec ses lecteurs. Aucune des informations ou de produits mentionnés sur ce site ne sont destinés à diagnostiquer, traiter, atténuer ou guérir une maladie.








LODJ24 TV
آخر الأخبار
جاري تحميل الأخبار...
BREAKING NEWS
📰 Chargement des actualités...

Inscription à la newsletter

Plus d'informations sur cette page : https://www.lodj.ma/CGU_a46.html

















Vos contributions
LODJ Vidéo