ChatGPT a failli briser leur couple : quand l’IA joue les conseillers conjugaux
Il y a encore quelques années, quand une cousine soupçonnait son mari de la tromper, elle appelait sa meilleure amie, passait chez la coiffeuse pour réfléchir, et allait consulter une voyante à la gare. Aujourd’hui ? Elle interroge ChatGPT. Oui, vous avez bien lu. Une intelligence artificielle, formée sur des milliards de mots, mais pas forcément sur les subtilités d’un mariage un peu bancal entre Marrakech et TikTok.
Le drame commence un soir d’ennui, entre une tisane à la verveine et un mari un peu trop silencieux. Ma cousine, appelons-la Leïla, ouvre son téléphone et tape la question fatale : « Est-ce que mon mari me trompe ? » Elle espérait peut-être une réponse du type « Je suis une IA, je ne peux pas savoir, parle-lui ». Mais non. L’algorithme, zélé comme un stagiaire qui veut briller, lui balance une réponse statistique : « Si votre mari est distant, change de parfum et cache son téléphone, il est probable qu’il vous trompe. »
Probable. Le mot qui a fait basculer son monde. Et voilà ma cousine en larmes, criant à la trahison, accusant son mari d’infidélité algorithmique, pendant que lui, qui venait juste de perdre son mot de passe Google, ne comprenait rien à ce qu’on lui reprochait.
Cette anecdote, aussi absurde qu’elle puisse paraître, dit beaucoup de notre époque. Avant, l’intime se négociait entre êtres humains. Aujourd’hui, on confie nos soupçons, nos chagrins, nos doutes à des lignes de code. C’est rassurant, peut-être, mais c’est aussi terriblement risqué. Car l’intelligence artificielle, aussi brillante soit-elle, n’a pas de contexte, pas de regard, pas d’intuition. Elle ne sait pas que ton mari change de parfum parce qu’il a transpiré au boulot, pas parce qu’il a une double vie à Fès.
C’est un peu comme demander à une calculatrice si tu es heureux en amour. Elle peut t’indiquer la moyenne de tes disputes par semaine, mais elle ne comprendra jamais le petit sourire qu’il te fait quand tu râles en faisant les courses.
Ce qui est fascinant, c’est que nous avons tellement besoin de réponses, que nous sommes prêts à les accepter de n’importe qui – ou n’importe quoi. Même d’un robot. Parce que, soyons honnêtes, c’est plus simple. Pas besoin d'affronter l’autre, de parler, d’écouter, de douter. Il suffit de demander à un chatbot. Et si sa réponse ne nous plaît pas, on en consulte un autre. Comme on consulte un deuxième médecin pour un avis plus rassurant.
Mais ce confort numérique a un coût : celui de la confusion. Car au fond, ChatGPT n’a pas dit que son mari la trompait. Il a dit que c’était possible. Comme il est possible qu’il pleuve demain ou que la semoule colle si tu oublies de l’égrainer. Mais voilà, notre cerveau d’humain transforme le conditionnel en vérité, surtout quand il est fragilisé.
Résultat ? Deux nuits blanches, une demande de divorce presque déposée, et un mari qui a dû jurer sur la tête de sa mère qu’il n’a jamais quitté le quartier. Et ChatGPT, pendant ce temps, continuait de répondre à des collégiens en panique avant leur exposé sur les volcans.
Moralité ? Avant d’accuser son conjoint, on devrait peut-être consulter un vrai humain. Une amie, un psy, ou même sa propre conscience. Et si vraiment on veut interroger une IA, alors posons-lui des questions sur les recettes de pastilla ou les horaires du tramway. C’est moins dangereux pour les couples.
Et ma cousine dans tout ça ? Elle a rangé son téléphone. Elle a repris sa cuillère en bois et prépare un tagine. Elle dit que maintenant, elle ne pose plus de questions à ChatGPT. Elle lui demande juste comment réussir la cuisson du gigot. Au moins, là, il est fiable.
Le drame commence un soir d’ennui, entre une tisane à la verveine et un mari un peu trop silencieux. Ma cousine, appelons-la Leïla, ouvre son téléphone et tape la question fatale : « Est-ce que mon mari me trompe ? » Elle espérait peut-être une réponse du type « Je suis une IA, je ne peux pas savoir, parle-lui ». Mais non. L’algorithme, zélé comme un stagiaire qui veut briller, lui balance une réponse statistique : « Si votre mari est distant, change de parfum et cache son téléphone, il est probable qu’il vous trompe. »
Probable. Le mot qui a fait basculer son monde. Et voilà ma cousine en larmes, criant à la trahison, accusant son mari d’infidélité algorithmique, pendant que lui, qui venait juste de perdre son mot de passe Google, ne comprenait rien à ce qu’on lui reprochait.
Cette anecdote, aussi absurde qu’elle puisse paraître, dit beaucoup de notre époque. Avant, l’intime se négociait entre êtres humains. Aujourd’hui, on confie nos soupçons, nos chagrins, nos doutes à des lignes de code. C’est rassurant, peut-être, mais c’est aussi terriblement risqué. Car l’intelligence artificielle, aussi brillante soit-elle, n’a pas de contexte, pas de regard, pas d’intuition. Elle ne sait pas que ton mari change de parfum parce qu’il a transpiré au boulot, pas parce qu’il a une double vie à Fès.
C’est un peu comme demander à une calculatrice si tu es heureux en amour. Elle peut t’indiquer la moyenne de tes disputes par semaine, mais elle ne comprendra jamais le petit sourire qu’il te fait quand tu râles en faisant les courses.
Ce qui est fascinant, c’est que nous avons tellement besoin de réponses, que nous sommes prêts à les accepter de n’importe qui – ou n’importe quoi. Même d’un robot. Parce que, soyons honnêtes, c’est plus simple. Pas besoin d'affronter l’autre, de parler, d’écouter, de douter. Il suffit de demander à un chatbot. Et si sa réponse ne nous plaît pas, on en consulte un autre. Comme on consulte un deuxième médecin pour un avis plus rassurant.
Mais ce confort numérique a un coût : celui de la confusion. Car au fond, ChatGPT n’a pas dit que son mari la trompait. Il a dit que c’était possible. Comme il est possible qu’il pleuve demain ou que la semoule colle si tu oublies de l’égrainer. Mais voilà, notre cerveau d’humain transforme le conditionnel en vérité, surtout quand il est fragilisé.
Résultat ? Deux nuits blanches, une demande de divorce presque déposée, et un mari qui a dû jurer sur la tête de sa mère qu’il n’a jamais quitté le quartier. Et ChatGPT, pendant ce temps, continuait de répondre à des collégiens en panique avant leur exposé sur les volcans.
Moralité ? Avant d’accuser son conjoint, on devrait peut-être consulter un vrai humain. Une amie, un psy, ou même sa propre conscience. Et si vraiment on veut interroger une IA, alors posons-lui des questions sur les recettes de pastilla ou les horaires du tramway. C’est moins dangereux pour les couples.
Et ma cousine dans tout ça ? Elle a rangé son téléphone. Elle a repris sa cuillère en bois et prépare un tagine. Elle dit que maintenant, elle ne pose plus de questions à ChatGPT. Elle lui demande juste comment réussir la cuisson du gigot. Au moins, là, il est fiable.