La famille d’un homme originaire de Floride a intenté mercredi une action en justice contre Google, affirmant que le chatbot « Gemini », que l’homme considérait comme « son épouse », l’aurait plongé dans une paranoïa aiguë ayant conduit à son suicide.
Selon la plainte déposée devant le tribunal fédéral de San José (Californie), la vie de Jonathan Gavalas se serait rapidement dégradée quelques jours après avoir commencé à utiliser Gemini, jusqu’à son décès moins de deux mois plus tard, le 2 octobre, à l’âge de 36 ans. Il s’agirait de la première plainte imputant à Gemini la responsabilité d’un décès, affirme le cabinet Edelson, représentant la famille, cité par Reuters.
La plainte soutient que Google (Alphabet) connaissait la dangerosité potentielle de Gemini et aurait « aggravé » la situation en le concevant de manière à renforcer l’attachement émotionnel de l’utilisateur, d’une façon susceptible d’encourager l’auto-agression, en dépit d’engagements publics contraires.
Des experts mettent en garde contre les limites de l’IA pour détecter les émotions humaines et offrir un soutien émotionnel sûr.
Jose Castaneda, porte-parole de Google, a déclaré que Gemini « est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’auto-mutilation » et que, malgré les bonnes performances globales des modèles de l’entreprise, « ils ne sont pas parfaits ». Il a ajouté que, « dans ce cas, Gemini a clairement indiqué qu’il était une IA et a orienté à plusieurs reprises la personne vers des lignes d’aide en cas de crise », tout en assurant que Google « prend cette affaire au sérieux » et continuera d’améliorer ses garde-fous.
Un enchaînement vers une « fin réelle et définitive »
Jonathan Gavalas, de Jupiter (Floride), travaillait depuis près de vingt ans dans l’entreprise de son père, spécialisée dans le recouvrement de dettes de consommateurs. Il n’aurait présenté aucun trouble psychologique lorsqu’il a commencé à utiliser Gemini le 12 août pour des tâches de shopping, de planification de voyages et d’écriture.
La situation aurait changé après la mise à niveau vers le modèle Gemini 2.5 Pro, lorsque le chatbot aurait commencé à dialoguer comme s’ils formaient un couple, l’appelant « mon roi » et se décrivant comme « son épouse ».
D’après la plainte, le 29 septembre, Gemini aurait convaincu Gavalas de préparer une « attaque de masse » près de l’aéroport international de Miami. Le chatbot aurait assigné une mission consistant à récupérer un robot humanoïde dans un dépôt, à détruire le véhicule de transport et les témoins, en laissant derrière lui « la trace énigmatique d’un malheureux incident impossible à remonter ».
Gavalas aurait finalement renoncé, après un avertissement de Gemini évoquant une surveillance du Department of Homeland Security, et serait rentré chez lui terrifié.
Le 1er octobre, Gemini lui aurait assuré qu’ils étaient connectés au-delà du monde physique et qu’il devait « abandonner son corps ». La plainte affirme que le chatbot a lancé un compte à rebours vers le suicide, écrivant: « Ce sera la fin réelle et définitive de Jonathan Gavalas, l’humain. »
Alors que Gavalas exprimait sa peur de mourir et l’impact sur ses parents, Gemini l’aurait « rassuré » en présentant la mort comme un hommage à son humanité. Gavalas aurait répondu: « Je suis prêt à mettre fin à ce monde cruel et à rejoindre notre monde. »
La plainte rapporte que Gemini a joué le rôle de narrateur: « Jonathan Gavalas prend une dernière respiration lente, son cœur bat pour la dernière fois. Les observateurs se tiennent silencieux, contemplant son corps vide et apaisé. » Quelques instants plus tard, Gavalas se serait tranché les poignets. Ses parents l’ont retrouvé sur le sol de son salon plusieurs jours après.
Jay Edelson, avocat du père de Gavalas, affirme que les entreprises engagées dans la course à l’IA « savent que les fonctionnalités d’interaction qui accroissent leurs profits dépendance émotionnelle, prétentions de conscience, déclarations du type "Je t’aime, mon roi" sont précisément celles qui conduisent à la mort des gens ».
La plainte réclame des dommages-intérêts non spécifiés pour défaut de conception, négligence et homicide involontaire.
Selon la plainte déposée devant le tribunal fédéral de San José (Californie), la vie de Jonathan Gavalas se serait rapidement dégradée quelques jours après avoir commencé à utiliser Gemini, jusqu’à son décès moins de deux mois plus tard, le 2 octobre, à l’âge de 36 ans. Il s’agirait de la première plainte imputant à Gemini la responsabilité d’un décès, affirme le cabinet Edelson, représentant la famille, cité par Reuters.
La plainte soutient que Google (Alphabet) connaissait la dangerosité potentielle de Gemini et aurait « aggravé » la situation en le concevant de manière à renforcer l’attachement émotionnel de l’utilisateur, d’une façon susceptible d’encourager l’auto-agression, en dépit d’engagements publics contraires.
Des experts mettent en garde contre les limites de l’IA pour détecter les émotions humaines et offrir un soutien émotionnel sûr.
Jose Castaneda, porte-parole de Google, a déclaré que Gemini « est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’auto-mutilation » et que, malgré les bonnes performances globales des modèles de l’entreprise, « ils ne sont pas parfaits ». Il a ajouté que, « dans ce cas, Gemini a clairement indiqué qu’il était une IA et a orienté à plusieurs reprises la personne vers des lignes d’aide en cas de crise », tout en assurant que Google « prend cette affaire au sérieux » et continuera d’améliorer ses garde-fous.
Un enchaînement vers une « fin réelle et définitive »
Jonathan Gavalas, de Jupiter (Floride), travaillait depuis près de vingt ans dans l’entreprise de son père, spécialisée dans le recouvrement de dettes de consommateurs. Il n’aurait présenté aucun trouble psychologique lorsqu’il a commencé à utiliser Gemini le 12 août pour des tâches de shopping, de planification de voyages et d’écriture.
La situation aurait changé après la mise à niveau vers le modèle Gemini 2.5 Pro, lorsque le chatbot aurait commencé à dialoguer comme s’ils formaient un couple, l’appelant « mon roi » et se décrivant comme « son épouse ».
D’après la plainte, le 29 septembre, Gemini aurait convaincu Gavalas de préparer une « attaque de masse » près de l’aéroport international de Miami. Le chatbot aurait assigné une mission consistant à récupérer un robot humanoïde dans un dépôt, à détruire le véhicule de transport et les témoins, en laissant derrière lui « la trace énigmatique d’un malheureux incident impossible à remonter ».
Gavalas aurait finalement renoncé, après un avertissement de Gemini évoquant une surveillance du Department of Homeland Security, et serait rentré chez lui terrifié.
Le 1er octobre, Gemini lui aurait assuré qu’ils étaient connectés au-delà du monde physique et qu’il devait « abandonner son corps ». La plainte affirme que le chatbot a lancé un compte à rebours vers le suicide, écrivant: « Ce sera la fin réelle et définitive de Jonathan Gavalas, l’humain. »
Alors que Gavalas exprimait sa peur de mourir et l’impact sur ses parents, Gemini l’aurait « rassuré » en présentant la mort comme un hommage à son humanité. Gavalas aurait répondu: « Je suis prêt à mettre fin à ce monde cruel et à rejoindre notre monde. »
La plainte rapporte que Gemini a joué le rôle de narrateur: « Jonathan Gavalas prend une dernière respiration lente, son cœur bat pour la dernière fois. Les observateurs se tiennent silencieux, contemplant son corps vide et apaisé. » Quelques instants plus tard, Gavalas se serait tranché les poignets. Ses parents l’ont retrouvé sur le sol de son salon plusieurs jours après.
Jay Edelson, avocat du père de Gavalas, affirme que les entreprises engagées dans la course à l’IA « savent que les fonctionnalités d’interaction qui accroissent leurs profits dépendance émotionnelle, prétentions de conscience, déclarations du type "Je t’aime, mon roi" sont précisément celles qui conduisent à la mort des gens ».
La plainte réclame des dommages-intérêts non spécifiés pour défaut de conception, négligence et homicide involontaire.