Simoncini, l’allerta sulla IA è dettata dalla necessità di regole
E’ stata l’urgenza di regole in un settore pervasivo come l’Intelligenza Artificiale, a dettare l’allerta lanciata dal Center for AI Safety. “L’uso estensivo dell’intelligenza artificiale da un lato sta portando a una vera rivoluzione e dall’altro sta ponendo seri problemi”, osserva uno dei firmatari della dichiarazione, l’esperto di tecnologie dell’informazione Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche.
“L’intelligenza artificiale è così pervasiva da avere un forte impatto in molti settori della vita sociale (pensiamo solo al rischio di produzione di fake news o al controllo delle auto autonome), come su aspetti economici, finanziari, politici, educativi ed etici”, osserva l’esperto. “E’ evidente – aggiunge – che nessuno può opporsi se una tecnologia emergente è usata per scopi benefici, per esempio in campo biomedico o farmacologico”.
Di conseguenza, se parlare di rischio di estinzione dell’umanità può sembrare un’iperbole secondo Simoncini la dichiarazione del Cias ricorda il manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Il caso dell’Intelligenza artificiale è diverso, ma il punto è che servono regole chiare e una presa di coscienza. “Spesso ci si dimentica che questi sistemi sono fallibili”, aggiunge Simoncini, e le grandi aziende attive nel settore “basano le loro attività solo sulla prevalenza tecnologica, non si sono poste il problema di una regolamentazione”. Come dimostra quanto sta accadendo nel settore delle auto autonome, nei test “si segue un approccio empirico” e “non si considera la necessità di andare verso sistemi che non siano capaci di prendere decisioni autonome senza l’intervento umano, mentre bisognerebbe andare verso sistemi che siano di aiuto al guidatore, che ha comunque in ogni momento la possibilità di intervenire e riprendere il controllo”.
Anche nel caso dei Chatbot come ChatGpt, per esempio, “utilizzarli dovrebbe essere inteso come un aiuto, non come la sostituzione delle capacità umane da parte di un sistema di intelligenza artificiale”. Si dovrebbe pensare fin da adesso “alla necessità di porre limiti e vincoli”, conclude Simoncini, considerando gli usi sbagliati dell’intelligenza artificiale nel confezionamento di fake news sempre più difficili da riconoscere: “la difficoltà di distinguere fra vero e falso – conclude – potrebbe creare situazioni difficilmente governabili”.
Battiston, ‘algoritmi potenti che richiedono regole’
Servono regole per gestire algoritmi potenti come quelli dell’intelligenza artificiale e per evitare effetti imprevisti: è questo il senso dell’allerta lanciata dal Center for AI Safety, secondo il fisico Roberto Battiston, dell’Universitàdi Trento e tra i firmatari della dichiarazione. “Questo tipo di algoritmi di Intelligenza artificiale generativa si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti”, osserva Battiston.
“Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione – prosegue il fisico – per realizzare regole e norme che permettano di gestire l’efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l’umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società”. Pensiamo ad esempio, aggiunge, “alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione”.
Per questo, osserva, “occorre prepararsi a gestire queste situazioni, le prime avvisaglie di problemi di questo genere le abbiamo già viste negli anni passati con la vicenda di Cambridge Analytica o con la tattiche di guerriglia dei troll russi sul web”. Di solito, dice ancora Battiston, “quando l’uomo non riesce a capire la realtà che lo circonda inventa miti, fantasmi, mostri, per cercare di proteggersi dai pericoli tramite un certo tipo di racconto mitologico. Il gioco è ancora saldamente nel campo dell’uomo, ma gli strumenti a disposizione sono molto più potenti che nel passato”.
A proposto del confronto con le armi atomiche, recentemente portato in campo a proposito dei rischi dell’intelligenza artificiale, Battiston osserva che “quando abbiamo scoperto la forza dell’atomo, abbiamo dovuto trovare il modo di contenere la minaccia di uno scontro nucleare. Per il momento ci siamo riusciti, per circa 80 anni. Qualcuno – dice ancora – ha paragonato la potenza di queste tecnologie a quella nucleare, chiedendo vengano realizzate delle regole adatte ad affrontare questi rischi. C’è probabilmente un fondo di verità in questo. Io credo, però, che sia molto importante capire bene come funzionano questi algoritmi, in quanto solo in questo modo – conclude – potremo attivare una opportuna serie di regole di contenimento sociale, sfruttando allo stesso tempo l’enorme potenzialità positiva”.
Talia, momento rivoluzionario da regolamentare, ‘possibili conseguenze anche per le democrazie’
I recenti sviluppi dell’intelligenza artificiale rappresentano “un momento rivoluzionario per questa tecnologia che comporta molti rischi per tutti”, anche per le democrazie: regolamentare il settore è urgente, perché “se attendessimo ancora due o tre anni potrebbe essere troppo tardi”. Ne è convinto Domenico Talia, docente di ingegneria informatica all’Università della Calabria, tra i firmatari italiani dell’appello pubblicato dai big del tech sulla pagina web del Center for AI Safety. Con questa breve dichiarazione online “vogliamo passare un messaggio forte a tutti, non solo agli esperti, ma anche ai governi e ai cittadini, perché ci troviamo di fronte a un momento cruciale, non una semplice evoluzione della tecnologia”, spiega Talia all’ANSA. I sistemi basati sul deep learning “sono delle black box: significa che neppure gli stessi sviluppatori sono in grado di sapere come funzionano al loro interno e non possono quindi controllarli. Il rischio – afferma l’esperto – è che ci sfuggano di mano con effetti che ancora non possiamo immaginare e che potrebbero interessare il lavoro, i rapporti sociali e le stesse democrazie”. Basti pensare che i nuovi sistemi di intelligenza artificiale generativa capaci di creare contenuti, immagini e video, anche falsi, “possono trasformare la nostra percezione della realtà”. E ciò, sottolinea l’esperto, è ancora più pericoloso se consideriamo che questi sistemi sono sempre più utilizzati “anche in settori critici come la sanità, la giurisprudenza e il campo militare”.
Parlare di estinzione dell’umanità “può sembrare un’esagerazione – continua Talia – ma ormai siamo di fronte a tecnologie che creano opere, possono governare apparati, gestire industrie, quindi possono influenzare i comportamenti di miliardi di persone, risultando pervasive come una pandemia o la minaccia nucleare”. L’appello serve proprio a richiamare l’attenzione dei governanti sull’urgenza di intervenire subito con una legislazione ad hoc e magari un ente intergovernativo che definisca regole valide per tutti. “Le stesse aziende dell’AI lo chiedono, perché vogliono potersi muovere in un quadro legislativo chiaro”.
Trevisan, ‘più che l’estinzione, rischi concreti da gestire’
Più che l’estinzione del genere umano, l’Intelligenza artificiale potrebbe comportare rischi meno catastrofici ma più concreti e vicini nel tempo, dei quali bisogna essere consapevoli e che vanno gestiti: è questa la posizione di Luca Trevisan, professore ordinario di Informatica alla Bocconi, che da tempo si occupa di intelligenza artificiale e che non è tra i firmatari della dichiarazione.
Commentando l’allerta lanciata dal Center for AI Safety, Trevisan osserva che “nasce alla confluenza di due idee che negli ultimi anni hanno cominciato a circolare nel mondo accademico e filosofico. Secondo la prima bisognerebbe preoccuparsi di più di rischi che potrebbero portare all’estinzione dell’umanità e la seconda ritiene che il progresso dell’Intelligenza artificiale potrebbe essere fra questi. E’ un rischio che, per quanto improbabile, merita che se ne parli di più”, osserva l’esperto.
“In linea di principio – prosegue – è giusto avere un orizzonte più ampio delle nostre preoccupazioni, che consideri i rischi su un lungo periodo ma, facendo una considerazione puramente statistica, è maggiore la probabilità di rischi da altre cause, come il cambiamento climatico”. Ancora a proposito dell’allerta, “che vede tra i firmatari persone di altissimo livello, come i Ceo di OpenAI e DeepMind”, secondo Trevisan “enfatizzare i rischi remoti e meno probabili rischia di distogliere l’attenzione da rischi più concreti”, come la facile produzione di fake news e cambiamenti nel mondo del lavoro che potrebbero portare a instabilità sociali. “Nel breve termine potremmo trovarci ad avere un impatto sociale ed economico molto forte di queste tecnologie, e questa è una cosa che va governata” e per questo, prosegue l’esperto, “dovremmo specificare gli obiettivi e considerare che, nel realizzarli, si potrebbero creare conseguenze impreviste”. Servono quindi “regole” ed è “necessario governare il cambiamento”.
Certamente, osserva “ogni cambiamento tecnologico può generare ricchezza, ma questa sarà distribuita su tutta la società o andrà solo alle grandi imprese?” E in caso di conseguenze negative, chi pagherà? Questi non sono problemi tecnologici, ma politici, e sarebbe bene che la politica se ne occupasse. Se dovessi fare un appello – conclude – lo farei in questa direzione”.
Riproduzione riservata © Copyright ANSA