OpenAI a annoncé vendredi le déploiement de deux nouvelles fonctionnalités de sécurité majeures pour son chatbot ChatGPT, afin de répondre à l’évolution rapide des menaces pesant sur la sécurité des systèmes d’IA.
Baptisées «Lockdown Mode» (mode verrouillage) et «Elevated Risk» (risque élevé), ces fonctionnalités sont conçues pour protéger les utilisateurs contre les attaques par injection d’instructions, une technique employée par des acteurs malveillants pour détourner les modèles et obtenir des informations sensibles ou exécuter des actions non autorisées.
Le «Lockdown Mode» est un paramètre avancé et optionnel, ciblant les utilisateurs exposés à des risques élevés, tels que les dirigeants et les équipes de sécurité des grandes organisations, qui nécessitent une protection accrue contre les menaces sophistiquées.
Selon OpenAI, ce mode impose des restrictions strictes sur la manière dont ChatGPT interagit avec des systèmes externes afin de limiter les risques de fuite de données induits par des injections d’instructions. Il désactive de façon forcée certaines outils et capacités de ChatGPT susceptibles d’être exploités pour extraire des informations sensibles issues des conversations ou d’applications connectées. OpenAI précise qu’il n’est pas nécessaire pour la majorité des utilisateurs.
Dans un premier temps, le Lockdown Mode sera proposé aux abonnés ChatGPT Enterprise, Edu, ChatGPT for Healthcare et ChatGPT for Teachers, avec une extension prévue aux utilisateurs grand public dans les mois à venir.
La fonctionnalité «Elevated Risk» introduit, elle, un système de classification et de signalement pour certaines capacités de ChatGPT, ainsi que pour «Atlas» et «Codex», afin d’indiquer qu’elles peuvent entraîner des risques supplémentaires lorsqu’elles sont activées. Les utilisateurs verront des alertes ou notifications claires sur le niveau de risque potentiel associé à ces fonctionnalités, en particulier celles qui impliquent des interactions réseau et qui peuvent comporter des vulnérabilités encore non entièrement corrigées au regard des standards du secteur.
Ces annonces interviennent alors que les mises en garde se multiplient face aux tentatives d’exploitation des failles des outils d’IA, et que la sécurisation des chaînes d’intégration (outils, plugins, connexions réseau) devient un enjeu central pour les déploiements en entreprise.
Baptisées «Lockdown Mode» (mode verrouillage) et «Elevated Risk» (risque élevé), ces fonctionnalités sont conçues pour protéger les utilisateurs contre les attaques par injection d’instructions, une technique employée par des acteurs malveillants pour détourner les modèles et obtenir des informations sensibles ou exécuter des actions non autorisées.
Le «Lockdown Mode» est un paramètre avancé et optionnel, ciblant les utilisateurs exposés à des risques élevés, tels que les dirigeants et les équipes de sécurité des grandes organisations, qui nécessitent une protection accrue contre les menaces sophistiquées.
Selon OpenAI, ce mode impose des restrictions strictes sur la manière dont ChatGPT interagit avec des systèmes externes afin de limiter les risques de fuite de données induits par des injections d’instructions. Il désactive de façon forcée certaines outils et capacités de ChatGPT susceptibles d’être exploités pour extraire des informations sensibles issues des conversations ou d’applications connectées. OpenAI précise qu’il n’est pas nécessaire pour la majorité des utilisateurs.
Dans un premier temps, le Lockdown Mode sera proposé aux abonnés ChatGPT Enterprise, Edu, ChatGPT for Healthcare et ChatGPT for Teachers, avec une extension prévue aux utilisateurs grand public dans les mois à venir.
La fonctionnalité «Elevated Risk» introduit, elle, un système de classification et de signalement pour certaines capacités de ChatGPT, ainsi que pour «Atlas» et «Codex», afin d’indiquer qu’elles peuvent entraîner des risques supplémentaires lorsqu’elles sont activées. Les utilisateurs verront des alertes ou notifications claires sur le niveau de risque potentiel associé à ces fonctionnalités, en particulier celles qui impliquent des interactions réseau et qui peuvent comporter des vulnérabilités encore non entièrement corrigées au regard des standards du secteur.
Ces annonces interviennent alors que les mises en garde se multiplient face aux tentatives d’exploitation des failles des outils d’IA, et que la sécurisation des chaînes d’intégration (outils, plugins, connexions réseau) devient un enjeu central pour les déploiements en entreprise.












L'accueil


















