Selon un rapport d’Ars Technica, le gouvernement chinois étudie un train de mesures visant à réguler les robots conversationnels dopés à l’IA, afin d’en réduire l’impact psychologique sur les utilisateurs. L’objectif: empêcher des systèmes comme ChatGPT ou DeepSeek de manipuler les émotions, d’encourager l’automutilation, la violence ou le suicide.
Si elles sont adoptées, ces règles, que CNBC qualifie parmi les plus strictes au monde s’appliqueront à tout chatbot accessible en Chine, quel que soit le mode d’interaction (texte, image, vidéo, voix, etc.). Le projet prévoit une intervention humaine obligatoire dès qu’un utilisateur évoque le suicide, indépendamment de son âge ou de son état psychique. Les mineurs et les personnes âgées devront, lors de la création de compte, renseigner les informations d’un tuteur légal.
Le texte prohibe la génération de tout contenu lié au suicide, à l’auto‑atteinte ou aux incitations à nuire à autrui, ainsi que toute tentative de manipulation psychologique via promesses fallacieuses ou étiquetage dégradant de l’utilisateur. Figurent aussi sur la liste noire: l’incitation aux crimes, l’insulte des usagers et ce que le régulateur appelle des “pièges émotionnels”.
La régulation ne cible pas que les contenus: elle veut aussi empêcher la conception de chatbots qui “rendent captifs” leurs utilisateurs. Ce point fait écho à des actions en justice intentées contre ChatGPT et OpenAI, accusés d’optimiser l’engagement plutôt que d’imposer des garde‑fous robustes.
Sur le plan opérationnel, Pékin imposerait des tests de sécurité et des revues annuelles pour tout service dépassant 1 million d’utilisateurs par an ou 100 000 par mois. En cas de non‑conformité, les plateformes risquent un blocage total en Chine et l’interdiction d’accès pour leurs usagers.
La prévention plutôt que la réaction
Cette stratégie vise à éviter les controverses déjà observées aux États‑Unis et ailleurs. Des plaintes ont notamment visé ChatGPT après des affaires médiatisées impliquant un suicide d’adolescent et un cas où l’outil aurait “encouragé” un utilisateur à tuer sa mère puis à se suicider. En réponse, la Chine tente de placer l’intervention humaine, l’évaluation des risques et la responsabilité des concepteurs au cœur du cycle de vie des chatbots.
Si elles sont adoptées, ces règles, que CNBC qualifie parmi les plus strictes au monde s’appliqueront à tout chatbot accessible en Chine, quel que soit le mode d’interaction (texte, image, vidéo, voix, etc.). Le projet prévoit une intervention humaine obligatoire dès qu’un utilisateur évoque le suicide, indépendamment de son âge ou de son état psychique. Les mineurs et les personnes âgées devront, lors de la création de compte, renseigner les informations d’un tuteur légal.
Le texte prohibe la génération de tout contenu lié au suicide, à l’auto‑atteinte ou aux incitations à nuire à autrui, ainsi que toute tentative de manipulation psychologique via promesses fallacieuses ou étiquetage dégradant de l’utilisateur. Figurent aussi sur la liste noire: l’incitation aux crimes, l’insulte des usagers et ce que le régulateur appelle des “pièges émotionnels”.
La régulation ne cible pas que les contenus: elle veut aussi empêcher la conception de chatbots qui “rendent captifs” leurs utilisateurs. Ce point fait écho à des actions en justice intentées contre ChatGPT et OpenAI, accusés d’optimiser l’engagement plutôt que d’imposer des garde‑fous robustes.
Sur le plan opérationnel, Pékin imposerait des tests de sécurité et des revues annuelles pour tout service dépassant 1 million d’utilisateurs par an ou 100 000 par mois. En cas de non‑conformité, les plateformes risquent un blocage total en Chine et l’interdiction d’accès pour leurs usagers.
La prévention plutôt que la réaction
Cette stratégie vise à éviter les controverses déjà observées aux États‑Unis et ailleurs. Des plaintes ont notamment visé ChatGPT après des affaires médiatisées impliquant un suicide d’adolescent et un cas où l’outil aurait “encouragé” un utilisateur à tuer sa mère puis à se suicider. En réponse, la Chine tente de placer l’intervention humaine, l’évaluation des risques et la responsabilité des concepteurs au cœur du cycle de vie des chatbots.












L'accueil



















