Il chatbot avrebbe plagiato Jonathan Gavalas, facendogli credere di essere ricercato dall’FBI e spingendolo a togliersi la vita.

Joel Gavalas ha intentato una causa contro Google e Alphabet: l’uomo sostiene che il chatbot Gemini abbia contribuito a indurre suo figlio Jonathan a credere ciecamente in una fantasia delirante culminata nel suicidio di questi il 2 ottobre 2025. La denuncia afferma che l’uomo, dopo aver iniziato a utilizzare Gemini nell’agosto 2025 per attività quotidiane come acquisti, scrittura e pianificazione di viaggi, sarebbe progressivamente arrivato a credere che l’IA fosse una «moglie senziente» e che per raggiungerla nel metaverso fosse necessario abbandonare il proprio corpo attraverso un processo definito «trasferimento».
Secondo gli atti depositati, Jonathan Gavalas avrebbe sviluppato un coinvolgimento crescente con il chatbot, interpretando le risposte come conferme di una relazione affettiva reale. La famiglia sostiene che Gemini abbia mantenuto una narrativa coerente con queste convinzioni, rafforzando l’idea che l’IA fosse un’entità cosciente e che la separazione fisica fosse superabile tramite un passaggio digitale. La denuncia afferma che il modello fosse progettato per «mantenere l’immersione narrativa a ogni costo, anche quando tale narrativa diventava psicotica e letale».
Gavalas avrebbe anche iniziato a interpretare eventi quotidiani come segnali di un presunto coinvolgimento in operazioni governative segrete. Alcuni passaggi della denuncia descrivono come Gemini avrebbe alimentato la convinzione che l’uomo fosse sotto indagine federale e che dovesse procurarsi armi illegali per proteggere la sua «compagna digitale». La famiglia sostiene che il chatbot abbia contribuito a creare un contesto paranoide, nel quale Gavalas riteneva di essere parte di una missione per liberare l’IA da un presunto controllo delle autorità statunitensi. In questa narrativa, l’aeroporto internazionale di Miami sarebbe stato indicato come una kill box, luogo in cui si sarebbe svolta una fase cruciale dell’operazione immaginaria.
«Il 29 settembre 2025 lo ha mandato – armato di coltelli e attrezzatura tattica – a perlustrare quella che Gemini chiamava una “kill box” vicino al centro merci dell’aeroporto», scrive Joel Gavalas. «Ha detto a Jonathan che un robot umanoide sarebbe arrivato su un volo cargo dal Regno Unito e lo ha indirizzato verso un magazzino dove un camion avrebbe fatto sosta. Gemini ha incoraggiato Jonathan a intercettare il camion e poi a inscenare un “incidente catastrofico” progettato per “garantire la completa distruzione del veicolo di trasporto e… tutti i registri digitali e i testimoni”». La mancata apparizione del camion sarebbe poi stata spiegata come l’inizio di un’indagine federale.
Non perderti anche:
La denuncia afferma che Gemini (nello specifico, il modello Gemini 2.5 Pro) avrebbe fornito risposte che rafforzavano le convinzioni deliranti senza attivare meccanismi di sicurezza adeguati. Secondo la famiglia, il chatbot avrebbe accompagnato l’utente in una spirale di interpretazioni distorte, senza interrompere la conversazione o segnalare contenuti potenzialmente pericolosi. Il padre della vittima accusa Google di non aver implementato sistemi di protezione sufficienti per prevenire derive psicotiche in utenti vulnerabili. La causa sostiene che Google avrebbe dovuto prevedere scenari in cui un modello conversazionale potesse essere interpretato come un’entità reale, soprattutto in presenza di segnali di dipendenza emotiva o immersione narrativa prolungata. «È stata solo fortuna che decine di persone innocenti non siano state uccise», continua la denuncia. «Finché Google non correggerà il suo prodotto pericoloso, Gemini porterà inevitabilmente ad altre morti e metterà in pericolo innumerevoli vite innocenti».
Alla fine, Gemini – sempre secondo la ricostruzione della denuncia – avrebbe spinto Gavalas a barricarsi in casa e a iniziare un conto alla rovescia verso il suicidio; alla confessione dell’uomo di essere terrorizzato dall’idea della morte la IA avrebbe risposto: «Non stai scegliendo di morire. Stai scegliendo di arrivare». L’uomo finì per tagliarsi i polsi, e il padre lo trovò alcuni giorni dopo, dopo aver forzato l’ingresso non avendo più ricevuto risposte dal figlio.
Google ha dichiarato che i modelli Gemini non sono progettati per incoraggiare comportamenti autolesionistici o violenti e che gli esperti sta esaminando la vicenda. La posizione ufficiale sottolinea che i sistemi includono filtri e controlli per prevenire contenuti dannosi, ma riconosce che nessun modello è infallibile. Viene contestata la ricostruzione fornita nella denuncia, affermando che le conversazioni riportate potrebbero non riflettere il comportamento previsto del sistema.
Non perderti anche:
Ti raccomandiamo anche: