OpenAI a annoncé le lancement de « ChatGPT Health », une nouvelle fonctionnalité de son assistant conversationnel dédiée aux requêtes médicales et au suivi de la santé des utilisateurs, selon un rapport de CNBC.
Accessible depuis le même application ChatGPT, cette nouveauté permet de relier différentes applications et dispositifs de santé à l’outil afin qu’il puisse consulter et analyser les données personnelles de manière pertinente. OpenAI précise que ChatGPT Health n’a pas vocation à remplacer les médecins ou les professionnels de santé: il sert à répondre aux questions quotidiennes et à faciliter le partage d’informations avec les soignants.
Pour protéger les données sensibles, l’entreprise a mis en place plusieurs garde-fous. ChatGPT Health apparaît comme une section distincte dans la barre latérale, séparée des conversations classiques. Les informations partagées dans l’espace « Health » ou via les apps connectées ne sont jamais transmises aux discussions ordinaires, garantissant un cloisonnement strict. À l’inverse, et comme l’a relevé TechCrunch, ChatGPT Health peut accéder à certaines informations issues des autres conversations pour offrir un contexte utile.
Concrètement, un utilisateur peut demander dans un chat classique des recommandations d’exercices pour un objectif précis, et ces éléments pourront être partagés avec ChatGPT Health. En revanche, si l’espace « Health » est consulté pour un conseil lié à une pathologie cardiaque, ces données ne seront pas visibles dans les conversations générales.
OpenAI affirme également que les données de santé ne seront pas utilisées pour entraîner ses futurs modèles ni partagées avec les serveurs d’entraînement de la fondation OpenAI à but non lucratif.
Des enjeux et limites
Selon Fidji Simo, directrice des applications chez OpenAI, la fonctionnalité vise à répondre à des difficultés structurelles du secteur médical: coûts élevés, accès complexe à l’information, multiplication des rendez-vous et défis de la continuité des soins, comme le rapporte TechCrunch.
Toutefois, le déploiement d’un tel outil soulève des défis. Les modèles de langage restent sujets aux « hallucinations » et peuvent produire des informations erronées. La gestion de données de santé en continu accentue les risques liés à la confidentialité et à une réutilisation imprévisible en cas d’erreur du système ou d’attaque.
Un rapport d’Axios indique qu’environ 40 millions de personnes utilisent déjà ChatGPT pour des usages liés à la santé, et que 40% d’entre elles s’appuient sur le modèle pour tenter de diagnostiquer leurs symptômes. Plus de 5% des messages quotidiens adressés à ChatGPT concernent des questions médicales. Cette réalité expose OpenAI à des risques juridiques croissants, alors que des plaintes ont déjà été déposées impliquant l’outil dans des cas dramatiques, dont des suicides ou des homicides involontaires.
En résumé, ChatGPT Health ouvre une voie structurée pour des usages santé de l’IA grand public, avec un accent fort sur le cloisonnement des données et la non-utilisation à des fins d’entraînement, tout en rappelant que l’assistant ne remplace pas l’avis médical et que des limites techniques et éthiques persistent.
Accessible depuis le même application ChatGPT, cette nouveauté permet de relier différentes applications et dispositifs de santé à l’outil afin qu’il puisse consulter et analyser les données personnelles de manière pertinente. OpenAI précise que ChatGPT Health n’a pas vocation à remplacer les médecins ou les professionnels de santé: il sert à répondre aux questions quotidiennes et à faciliter le partage d’informations avec les soignants.
Pour protéger les données sensibles, l’entreprise a mis en place plusieurs garde-fous. ChatGPT Health apparaît comme une section distincte dans la barre latérale, séparée des conversations classiques. Les informations partagées dans l’espace « Health » ou via les apps connectées ne sont jamais transmises aux discussions ordinaires, garantissant un cloisonnement strict. À l’inverse, et comme l’a relevé TechCrunch, ChatGPT Health peut accéder à certaines informations issues des autres conversations pour offrir un contexte utile.
Concrètement, un utilisateur peut demander dans un chat classique des recommandations d’exercices pour un objectif précis, et ces éléments pourront être partagés avec ChatGPT Health. En revanche, si l’espace « Health » est consulté pour un conseil lié à une pathologie cardiaque, ces données ne seront pas visibles dans les conversations générales.
OpenAI affirme également que les données de santé ne seront pas utilisées pour entraîner ses futurs modèles ni partagées avec les serveurs d’entraînement de la fondation OpenAI à but non lucratif.
Des enjeux et limites
Selon Fidji Simo, directrice des applications chez OpenAI, la fonctionnalité vise à répondre à des difficultés structurelles du secteur médical: coûts élevés, accès complexe à l’information, multiplication des rendez-vous et défis de la continuité des soins, comme le rapporte TechCrunch.
Toutefois, le déploiement d’un tel outil soulève des défis. Les modèles de langage restent sujets aux « hallucinations » et peuvent produire des informations erronées. La gestion de données de santé en continu accentue les risques liés à la confidentialité et à une réutilisation imprévisible en cas d’erreur du système ou d’attaque.
Un rapport d’Axios indique qu’environ 40 millions de personnes utilisent déjà ChatGPT pour des usages liés à la santé, et que 40% d’entre elles s’appuient sur le modèle pour tenter de diagnostiquer leurs symptômes. Plus de 5% des messages quotidiens adressés à ChatGPT concernent des questions médicales. Cette réalité expose OpenAI à des risques juridiques croissants, alors que des plaintes ont déjà été déposées impliquant l’outil dans des cas dramatiques, dont des suicides ou des homicides involontaires.
En résumé, ChatGPT Health ouvre une voie structurée pour des usages santé de l’IA grand public, avec un accent fort sur le cloisonnement des données et la non-utilisation à des fins d’entraînement, tout en rappelant que l’assistant ne remplace pas l’avis médical et que des limites techniques et éthiques persistent.












L'accueil



















