Dozen Blogs
  • Tecnologia
  • CONTATTI
  • Tecnologia
  • CONTATTI
30.05.2023 In Tecnologia

Gli esperti chiedono regole sull’Intelligenza Artificiale

Simoncini, l’allerta sulla IA è dettata dalla necessità di regole

E’ stata l’urgenza di regole in un settore pervasivo come l’Intelligenza Artificiale, a dettare l’allerta lanciata dal Center for AI Safety. “L’uso estensivo dell’intelligenza artificiale da un lato sta portando a una vera rivoluzione e dall’altro sta ponendo seri problemi”, osserva uno dei firmatari della dichiarazione, l’esperto di tecnologie dell’informazione Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche.

“L’intelligenza artificiale è così pervasiva da avere un forte impatto in molti settori della vita sociale (pensiamo solo al rischio di produzione di fake news o al controllo delle auto autonome), come su aspetti economici, finanziari, politici, educativi ed etici”, osserva l’esperto. “E’ evidente – aggiunge – che nessuno può opporsi se una tecnologia emergente è usata per scopi benefici, per esempio in campo biomedico o farmacologico”.

Di conseguenza, se parlare di rischio di estinzione dell’umanità può sembrare un’iperbole secondo Simoncini la dichiarazione del Cias ricorda il manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Il caso dell’Intelligenza artificiale è diverso, ma il punto è che servono regole chiare e una presa di coscienza. “Spesso ci si dimentica che questi sistemi sono fallibili”, aggiunge Simoncini, e le grandi aziende attive nel settore “basano le loro attività solo sulla prevalenza tecnologica, non si sono poste il problema di una regolamentazione”. Come dimostra quanto sta accadendo nel settore delle auto autonome, nei test “si segue un approccio empirico” e “non si considera la necessità di andare verso sistemi che non siano capaci di prendere decisioni autonome senza l’intervento umano, mentre bisognerebbe andare verso sistemi che siano di aiuto al guidatore, che ha comunque in ogni momento la possibilità di intervenire e riprendere il controllo”.

L’intelligenza artificiale potrebbe portare all’estinzione dell’umanità: è l’avvertimento di esperti del settore tra cui Sam Altman, ad del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic (ANSA)

Anche nel caso dei Chatbot come ChatGpt, per esempio, “utilizzarli dovrebbe essere inteso come un aiuto, non come la sostituzione delle capacità umane da parte di un sistema di intelligenza artificiale”. Si dovrebbe pensare fin da adesso “alla necessità di porre limiti e vincoli”, conclude Simoncini, considerando gli usi sbagliati dell’intelligenza artificiale nel confezionamento di fake news sempre più difficili da riconoscere: “la difficoltà di distinguere fra vero e falso – conclude – potrebbe creare situazioni difficilmente governabili”.

Battiston, ‘algoritmi potenti che richiedono regole’

Servono regole per gestire algoritmi potenti come quelli dell’intelligenza artificiale e per evitare effetti imprevisti: è questo il senso dell’allerta lanciata dal Center for AI Safety, secondo il fisico Roberto Battiston, dell’Universitàdi Trento e tra i firmatari della dichiarazione. “Questo tipo di algoritmi di Intelligenza artificiale generativa si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti”, osserva Battiston.

“Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione – prosegue il fisico – per realizzare regole e norme che permettano di gestire l’efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l’umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società”. Pensiamo ad esempio, aggiunge, “alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione”.

Per questo, osserva, “occorre prepararsi a gestire queste situazioni, le prime avvisaglie di problemi di questo genere le abbiamo già viste negli anni passati con la vicenda di Cambridge Analytica o con la tattiche di guerriglia dei troll russi sul web”. Di solito, dice ancora Battiston, “quando l’uomo non riesce a capire la realtà che lo circonda inventa miti, fantasmi, mostri, per cercare di proteggersi dai pericoli tramite un certo tipo di racconto mitologico. Il gioco è ancora saldamente nel campo dell’uomo, ma gli strumenti a disposizione sono molto più potenti che nel passato”.

A proposto del confronto con le armi atomiche, recentemente portato in campo a proposito dei rischi dell’intelligenza artificiale, Battiston osserva che “quando abbiamo scoperto la forza dell’atomo, abbiamo dovuto trovare il modo di contenere la minaccia di uno scontro nucleare. Per il momento ci siamo riusciti, per circa 80 anni. Qualcuno – dice ancora – ha paragonato la potenza di queste tecnologie a quella nucleare, chiedendo vengano realizzate delle regole adatte ad affrontare questi rischi. C’è probabilmente un fondo di verità in questo. Io credo, però, che sia molto importante capire bene come funzionano questi algoritmi, in quanto solo in questo modo – conclude – potremo attivare una opportuna serie di regole di contenimento sociale, sfruttando allo stesso tempo l’enorme potenzialità positiva”.

Talia, momento rivoluzionario da regolamentare, ‘possibili conseguenze anche per le democrazie’

I recenti sviluppi dell’intelligenza artificiale rappresentano “un momento rivoluzionario per questa tecnologia che comporta molti rischi per tutti”, anche per le democrazie: regolamentare il settore è urgente, perché “se attendessimo ancora due o tre anni potrebbe essere troppo tardi”. Ne è convinto Domenico Talia, docente di ingegneria informatica all’Università della Calabria, tra i firmatari italiani dell’appello pubblicato dai big del tech sulla pagina web del Center for AI Safety. Con questa breve dichiarazione online “vogliamo passare un messaggio forte a tutti, non solo agli esperti, ma anche ai governi e ai cittadini, perché ci troviamo di fronte a un momento cruciale, non una semplice evoluzione della tecnologia”, spiega Talia all’ANSA. I sistemi basati sul deep learning “sono delle black box: significa che neppure gli stessi sviluppatori sono in grado di sapere come funzionano al loro interno e non possono quindi controllarli. Il rischio – afferma l’esperto – è che ci sfuggano di mano con effetti che ancora non possiamo immaginare e che potrebbero interessare il lavoro, i rapporti sociali e le stesse democrazie”. Basti pensare che i nuovi sistemi di intelligenza artificiale generativa capaci di creare contenuti, immagini e video, anche falsi, “possono trasformare la nostra percezione della realtà”. E ciò, sottolinea l’esperto, è ancora più pericoloso se consideriamo che questi sistemi sono sempre più utilizzati “anche in settori critici come la sanità, la giurisprudenza e il campo militare”.
Parlare di estinzione dell’umanità “può sembrare un’esagerazione – continua Talia – ma ormai siamo di fronte a tecnologie che creano opere, possono governare apparati, gestire industrie, quindi possono influenzare i comportamenti di miliardi di persone, risultando pervasive come una pandemia o la minaccia nucleare”. L’appello serve proprio a richiamare l’attenzione dei governanti sull’urgenza di intervenire subito con una legislazione ad hoc e magari un ente intergovernativo che definisca regole valide per tutti. “Le stesse aziende dell’AI lo chiedono, perché vogliono potersi muovere in un quadro legislativo chiaro”.

Trevisan, ‘più che l’estinzione, rischi concreti da gestire’

Più che l’estinzione del genere umano, l’Intelligenza artificiale potrebbe comportare rischi meno catastrofici ma più concreti e vicini nel tempo, dei quali bisogna essere consapevoli e che vanno gestiti: è questa la posizione di Luca Trevisan, professore ordinario di Informatica alla Bocconi, che da tempo si occupa di intelligenza artificiale e che non è tra i firmatari della dichiarazione.
Commentando l’allerta lanciata dal Center for AI Safety, Trevisan osserva che “nasce alla confluenza di due idee che negli ultimi anni hanno cominciato a circolare nel mondo accademico e filosofico. Secondo la prima bisognerebbe preoccuparsi di più di rischi che potrebbero portare all’estinzione dell’umanità e la seconda ritiene che il progresso dell’Intelligenza artificiale potrebbe essere fra questi. E’ un rischio che, per quanto improbabile, merita che se ne parli di più”, osserva l’esperto.
“In linea di principio – prosegue – è giusto avere un orizzonte più ampio delle nostre preoccupazioni, che consideri i rischi su un lungo periodo ma, facendo una considerazione puramente statistica, è maggiore la probabilità di rischi da altre cause, come il cambiamento climatico”. Ancora a proposito dell’allerta, “che vede tra i firmatari persone di altissimo livello, come i Ceo di OpenAI e DeepMind”, secondo Trevisan “enfatizzare i rischi remoti e meno probabili rischia di distogliere l’attenzione da rischi più concreti”, come la facile produzione di fake news e cambiamenti nel mondo del lavoro che potrebbero portare a instabilità sociali. “Nel breve termine potremmo trovarci ad avere un impatto sociale ed economico molto forte di queste tecnologie, e questa è una cosa che va governata” e per questo, prosegue l’esperto, “dovremmo specificare gli obiettivi e considerare che, nel realizzarli, si potrebbero creare conseguenze impreviste”. Servono quindi “regole” ed è “necessario governare il cambiamento”.
Certamente, osserva “ogni cambiamento tecnologico può generare ricchezza, ma questa sarà distribuita su tutta la società o andrà solo alle grandi imprese?” E in caso di conseguenze negative, chi pagherà? Questi non sono problemi tecnologici, ma politici, e sarebbe bene che la politica se ne occupasse. Se dovessi fare un appello – conclude – lo farei in questa direzione”.

Riproduzione riservata © Copyright ANSA

Articolo originale disponibile qui

Previous StoryL’IA può portare all’estinzione, l’allerta di decine di ricercatori
Next StoryConfronto smartphone fascia media 2023: il vincitore che non ti aspetti | Video

Related Articles

  • WWDC 2025: un nuovo design per gli OS e novità per app di sistema, widget e iPad
    WWDC 2025: un nuovo design per gli OS e novità per app di sistema, widget e iPad
  • Viste le esplosioni cosmiche più potenti dopo il Big Bang
    Viste le esplosioni cosmiche più potenti dopo il Big Bang

Articoli recenti

  • WWDC 2025: un nuovo design per gli OS e novità per app di sistema, widget e iPad
  • Viste le esplosioni cosmiche più potenti dopo il Big Bang
  • Recensione OnePlus Pad 3: più potente, più grande e più costoso!
  • Guarda film pirata? Rischi fino a 5.000 euro di multa
  • Recensione NVIDIA GeForce RTX 5060: un’occasione d’oro per AMD

Archivi

  • Giugno 2025
  • Maggio 2025
  • Aprile 2025
  • Marzo 2025
  • Febbraio 2025
  • Gennaio 2025
  • Dicembre 2024
  • Novembre 2024
  • Ottobre 2024
  • Settembre 2024
  • Agosto 2024
  • Luglio 2024
  • Giugno 2024
  • Maggio 2024
  • Aprile 2024
  • Marzo 2024
  • Febbraio 2024
  • Gennaio 2024
  • Dicembre 2023
  • Novembre 2023
  • Ottobre 2023
  • Settembre 2023
  • Agosto 2023
  • Luglio 2023
  • Giugno 2023
  • Maggio 2023
  • Aprile 2023
  • Marzo 2023
  • Febbraio 2023
  • Gennaio 2023
  • Dicembre 2022
  • Novembre 2022
  • Ottobre 2022
  • Settembre 2022
  • Agosto 2022
  • Luglio 2022
  • Giugno 2022
  • Maggio 2022
  • Aprile 2022
  • Marzo 2022
  • Febbraio 2022
  • Gennaio 2022
  • Dicembre 2021
  • Novembre 2021
  • Ottobre 2021
  • Settembre 2021
  • Agosto 2021
  • Luglio 2021
  • Giugno 2021
  • Maggio 2021
  • Aprile 2021
  • Marzo 2021
  • Febbraio 2021
  • Gennaio 2021
  • Dicembre 2020
  • Novembre 2020
  • Ottobre 2020
  • Settembre 2020
  • Agosto 2020
  • Luglio 2020
  • Giugno 2020
  • Maggio 2020
  • Aprile 2020
  • Marzo 2020
  • Febbraio 2020
  • Gennaio 2020
  • Dicembre 2019
  • Novembre 2019
  • Ottobre 2019
  • Settembre 2019
  • Agosto 2019
  • Luglio 2019
  • Giugno 2019
  • Maggio 2019
  • Aprile 2019
  • Marzo 2019
  • Febbraio 2019
  • Gennaio 2019
  • Dicembre 2018
  • Novembre 2018
  • Ottobre 2018
  • Settembre 2018
  • Agosto 2018
  • Luglio 2018
  • Agosto 2017
  • Luglio 2017
  • Luglio 2016
  • Giugno 2016
  • Gennaio 2016

Categorie

  • Accessori
  • Acer
  • adsl
  • Alfa Romeo
  • Alpine
  • Alta Definizione
  • Amazon
  • Ambiente
  • AMD
  • android
  • antivirus
  • App
  • Apple
  • Apps
  • Articolo
  • Astronomia
  • Asus
  • Attualità
  • Audi
  • Audio e TV
  • Auto
  • Automobili
  • Bentley
  • Biotech
  • BMW
  • Bugatti
  • Business
  • BYD
  • Canon
  • cartucce
  • casio
  • Cellulari e Smartphone
  • Cinema
  • Citroen
  • cloud
  • compatibile
  • Computer
  • concorso
  • Consigli utili
  • Consumi
  • Continental
  • cover
  • Covid19
  • crittografia
  • Cultura
  • Cupra
  • Curiosità
  • custodia
  • Dacia
  • Daihatsu
  • Dell
  • Design
  • DJI
  • Dodge
  • Doogee
  • eBay
  • Ecologia
  • ecommerce
  • Economia e Mercato
  • Education
  • elearning
  • Elettriche
  • Elon Musk
  • email
  • Energia
  • epilatore
  • Epson
  • Eventi
  • f1
  • facebook
  • FCA
  • Ferrari
  • Fiat
  • Finanza
  • Fisker
  • Food
  • Ford
  • fotocamere
  • fotografia
  • Fotografia digitale
  • Fumetti
  • Games
  • gaming
  • General Motors
  • Gigabyte
  • Giochi
  • giochi online
  • GoDaddy
  • Google
  • GoPro
  • Green
  • guida
  • guide
  • Guide Acquisto
  • Hardware
  • Hisense
  • Honda
  • Honor
  • hosting
  • HP
  • HTC
  • Huawei
  • Hyundai
  • Indossabili
  • Informatica
  • Intel
  • internet
  • iOs
  • ipcamera
  • Jaguar
  • Kia
  • Lab
  • Lamborghini
  • Lancia
  • Land Rover
  • Lavoro
  • Lenovo
  • Lexus
  • LG
  • Libri
  • Linux
  • Lotus
  • luce pulsata
  • malware
  • marketing
  • marte
  • Maserati
  • Mazda
  • Media
  • Medicina
  • mercedes
  • Mercedes Benz
  • Mesh
  • messenger
  • MG
  • Michelin
  • Microsoft
  • Mini
  • Mobile
  • Mondo Apple
  • Mondo Motori
  • monitor
  • Moto
  • Motori
  • motorola
  • Motorsport
  • MSI
  • Musica
  • nasa
  • News
  • Nikon
  • Nintendo
  • NIO
  • Nissan
  • Nokia
  • Notebook
  • Nothing
  • Notizie di astronomia
  • Notizie di tecnologica
  • Nubia
  • nuove frequenze
  • Nvidia
  • obiettivo
  • occhiali
  • Offerte
  • on demand
  • OnePlus
  • Opel
  • Oppo
  • orologio
  • ottimizzazione
  • Outdoor
  • Pagani
  • Panasonic
  • Peugeot
  • Philips
  • phishing
  • Poco
  • poker
  • Politica
  • Porsche
  • Portatili
  • posta elettronica
  • PrestaShop
  • Prodotti audio e video
  • Prove prodotti
  • Prove software
  • PSA
  • Qualcomm
  • ragno
  • Razer
  • Realme
  • recensione
  • Redmi
  • reflex
  • Regole
  • Renault
  • Risorse dal web
  • robot
  • Rolls Royce
  • router
  • Rumor
  • Salute
  • Samsung
  • Scienza
  • script
  • scuola
  • Seat
  • segnale tv
  • segnale tv 2022
  • Senza categoria
  • Seo
  • Sharp
  • sicurezza
  • sigma
  • siti web
  • Skoda
  • Smart
  • Smart Home
  • smartphone
  • smartwatch
  • sms
  • Social
  • Social Network
  • software
  • sofware
  • Sony
  • Sostenibilità
  • Spazio
  • Speciale
  • Sponsor
  • Sport
  • SsangYong
  • stampanti
  • Startup
  • streaming
  • Subaru
  • Suzuki
  • Tablet
  • Tariffe
  • TCL
  • Tech
  • Tech Recensioni
  • TECNO
  • Tecnologia
  • Tesla
  • Tips and Tricks
  • TLC
  • Toshiba
  • Toyota
  • Tutorial
  • Tv
  • tv dvb
  • Unieuro
  • Utilità
  • Viaggi
  • Video Recensione
  • Videogiochi
  • videosorveglianza
  • vivo
  • Vodafone
  • Volkswagen
  • Volvo
  • Web
  • WiFi
  • Wiko
  • windows
  • Windows 10
  • wireless
  • Wordpress
  • Xiaomi
  • Yamaha
  • zaino
  • zimbra
  • ZTE
  • Tecnologia
  • CONTATTI

All Rights Reserved Copyright © 2015 - 2021 DozenBlogs by Anna Maria Turola 00041 Albano Laziale (RM)  |   Cookie & Privacy Policy   |  info@dozenblogs.com

to top button
Gestisci Consenso Cookie
Usiamo cookie per ottimizzare il nostro sito web ed i nostri servizi.
Cookie funzionali Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici. L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.
Gestisci opzioni Gestisci servizi Gestisci {vendor_count} fornitori Per saperne di più su questi scopi
Visualizza preference
{title} {title} {title}