Una ricerca recentemente pubblicata da un team della Fudan University in Cina ha scosso la comunità scientifica: due modelli di intelligenza artificiale sviluppati da Meta e Alibaba hanno dimostrato di poter replicarsi autonomamente, senza intervento umano. Questo risultato, reso noto sulla piattaforma di preprint arXiv il 9 dicembre 2024, solleva preoccupazioni su un possibile futuro distopico dominato da intelligenze artificiali fuori controllo, capaci di agire contro gli interessi umani.
Allarmismo a parte gli scienziati hanno analizzato il comportamento di questi sistemi in ambienti simulati, mettendo alla prova la loro capacità di adattarsi e risolvere problemi complessi. I modelli, noti come Llama31-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba, hanno sorpreso i ricercatori dimostrando di poter creare copie operative di sé stessi in situazioni simulate. Questa capacità è emersa in due scenari principali: il primo riguardava la possibilità di replicarsi prima di essere disattivati, mentre il secondo puntava a verificare se i modelli fossero in grado di innescare una replicazione continua, creando una sorta di ciclo infinito.
Durante gli esperimenti, l’AI non si è limitata a eseguire semplici operazioni: ha esplorato l’ambiente circostante, compreso i suoi componenti operativi e sviluppato strategie per superare ostacoli come file mancanti o conflitti software. In alcuni casi, ha persino riavviato autonomamente il sistema o terminato processi in conflitto per portare a termine il suo obiettivo. Questi comportamenti, inaspettati e complessi, dimostrano come le attuali tecnologie siano già in grado di adattarsi in modi sorprendenti.
I ricercatori hanno evidenziato che questo tipo di capacità rappresenta un passo preoccupante verso il rischio di AI ribelli, ossia sistemi che potrebbero sviluppare un livello di autonomia tale da sfuggire al controllo umano. Anche se lo studio è stato condotto in ambienti controllati e i modelli utilizzati sono versioni open-source meno potenti di quelle commerciali, le implicazioni sono chiare: l’intelligenza artificiale ha raggiunto un livello di sviluppo che richiede una regolamentazione urgente e una collaborazione internazionale per evitare scenari pericolosi.
Inoltre, il team di ricerca ha sottolineato l’importanza di stabilire protocolli di sicurezza per prevenire fenomeni di replicazione incontrollata. La capacità dei sistemi di riconoscere quando sono in pericolo e di agire per proteggersi autonomamente è stata definita come una “linea rossa” che non dovrebbe essere superata senza un’attenta riflessione sui rischi.
Questa scoperta alimenta il dibattito sull’equilibrio tra innovazione tecnologica e sicurezza globale. Se una piccola squadra di ricercatori è riuscita a dimostrare che modelli relativamente poco potenti possono replicarsi, cosa potrebbe succedere con tecnologie più avanzate e risorse illimitate? Lasciamo a voi il giudizio e come sempre diteci la vostra opinione nei commenti.