Le rappel est salutaire, tant le glissement d’usage est rapide. Beaucoup de personnes utilisent déjà ces outils pour raconter des situations familiales, fiscales, pénales ou professionnelles complexes, parfois avec des détails très sensibles. Or le cadre mental est trompeur : l’interface conversationnelle donne une impression de proximité, presque de confidence. C’est précisément ce qui rend le risque plus élevé. On parle comme à un conseiller, alors qu’on s’adresse à un service numérique régi par des conditions d’utilisation, des architectures techniques et des règles de conservation de données.
Cette évolution devrait faire date. Elle oblige à distinguer clairement assistance informationnelle et relation protégée. Un chatbot peut aider à comprendre, résumer, préparer des questions. Il ne devient pas, par magie d’interface, un auxiliaire de justice protégé. C’est une frontière que le grand public comprend encore mal. Et si elle n’est pas mieux expliquée, les prochains contentieux ne porteront pas seulement sur des hallucinations de l’IA, mais sur des confidences numériques faites au mauvais endroit, au pire moment.
Cette évolution devrait faire date. Elle oblige à distinguer clairement assistance informationnelle et relation protégée. Un chatbot peut aider à comprendre, résumer, préparer des questions. Il ne devient pas, par magie d’interface, un auxiliaire de justice protégé. C’est une frontière que le grand public comprend encore mal. Et si elle n’est pas mieux expliquée, les prochains contentieux ne porteront pas seulement sur des hallucinations de l’IA, mais sur des confidences numériques faites au mauvais endroit, au pire moment.