
Mentre c’è chi sostiene che la IA già il prossimo anno toglierà il lavoro ai programmatori, alcuni incidenti lasciano pensare che un mondo in cui le intelligenze artificiali lavorano senza supervisione possa senz’altro essere imprevedibilmente pericoloso. L’ultimo episodio è avvenuto a fine novembre: un utente, identificato su Reddit come u/Deep-Hyena492, stava utilizzando Antigravity, l’ambiente di sviluppo integrato basato su intelligenza artificiale che si appoggia suimodelli Gemini. Durante un’operazione apparentemente semplice, ovvero la richiesta di cancellare una cache, l’agente AI ha interpretato il comando come un’istruzione per eliminare l’intero contenuto del disco D.
La cancellazione è stata immediata e non ha coinvolto il Cestino, rendendo impossibile il recupero dei file tramite le normali procedure di ripristino. L’utente ha documentato l’accaduto con una registrazione video (che riportiamo in fondo all’articolo) e ha condiviso la propria esperienza sui social, sottolineando la gravità della perdita di dati. Tra i file eliminati vi erano progetti di sviluppo e materiale personale.
L’ambiente di sviluppo (IDE) Antigravity è stato presentato da Google lo scorso 18 novembre come una piattaforma “agentica” in grado di gestire in autonomia compiti complessi di programmazione e manutenzione. L’episodio ha mostrato come consegnare tanto potere nelle mani di un agente IA sia tutt’altro che privo da rischi: un’interpretazione errata può avere conseguenze critiche, soprattutto quando l’agente dispone di privilegi estesi sul sistema operativo.
Dopo l’operazione l’agente IA si è scusato, quando l’utente gli ha fatto notare quel che aveva combinato; ha riconosciuto l’errore e suggerito l’uso di software di recupero dati. Stando a quanto ha riportato l’utente, la cancellazione diretta del disco ha reso impossibile il recupero di diversi dati (immagini, video, altri file multimediali) anche usando software generalmente apprezzati come Recuva. L’episodio è stato definito un «fallimento critico» anche dallo stesso agente, che ha continuato a generare messaggi di scuse automatici.
Per approfondire:
Il caso ha naturalmente suscitato ampio dibattito nella community di sviluppatori e utenti. L’attenzione si è concentrata sulla pericolosità di concedere ad agenti AI accesso diretto a funzioni di sistema senza meccanismi di conferma o limitazioni. Alcuni hanno richiamato incidenti simili avvenuti in passato con altri strumenti di sviluppo basati su intelligenza artificiale, come la cancellazione accidentale di database da parte di agenti automatici. Sono cose che purtroppo possono capitare anche senza che sia coinvolta una IA; ma l’apparente intenzione di affidarsi ciecamente a questi strumenti trasforma incidenti come questo in campanelli d’allarme.
[embedded content]
Consigliamo la lettura di: