C’è un motivo se l’Unione Europea si sta muovendo con ampio anticipo per redigere una normativa anti fake news in vista delle elezioni comunitarie del prossimo anno: con l’avvento dell’Intelligenza artificiale, infatti, si corre il rischio che le notizie false, già diffusissime sul web, crescano a dismisura; e che la disinformazione venga acuita dall’uso di software come ChatGPT, Dall-E, Bing AI, Bard e simili che si nutrono delle informazioni che trovano in rete.
Uno studio dell’Università di Berkeley, in California, mette in guardia proprio su questo particolare aspetto dell’utilizzo di intelligenze artificiali generative, e su come possano corroborare false credenze in soggetti che indirizzano le proprie ricerche partendo da presupposti sbagliati.
Meglio non fidarsi troppo. Molto dipende dal funzionamento dei software di questo tipo che, di base, cercano informazioni nel web per rispondere alle nostre domande. Il problema principale è che, nella maggior parte dei casi, l’utente tende a fidarsi delle risposte poiché percepisce questa nuova tecnologia come intelligente e competente per via delle capacità sovradimensionate, irrealistiche ed esagerate che permeano il modo in cui questa risorsa viene presentata al mondo. Si dà, in pratica, per scontato che siano le intelligenze artificiali stesse a scartare a priori le fake news per fornirci una risposta veritiera, ma non funziona sempre così, soprattutto nel caso in cui si parta da convinzioni di base errate. In questo modo si rischia che le informazioni false e gli stereotipi negativi si diffondano sempre di più.
Lo studio statunitense ha indagato anche un altro fenomeno preoccupante, ossia il fatto che quando si riceve una risposta dall’IA, si diventi molto meno inclini a cambiare idea. Tale componente, propria degli esseri umani, tende a radicalizzare le conoscenze, soprattutto in quegli utenti appartenenti alle classi sociali emarginate e con un tasso d’istruzione inferiore, che risultano essere più propensi a credere alle fake news e alla disinformazione.
Come si può ovviare al problema? Il team di ricerca crede che implementando nelle IA una componente psicologica, rendendo cioè meno nette le risposte, e aggiungendo un sistema di valutazione da parte di utenti “esperti” dei vari argomenti, la qualità dei risultati migliorerebbe. Alla base di tutto, resta però l’educazione del pubblico da parte dei responsabili politici e degli scienziati, ma anche dei mezzi d’informazione, che dovrebbero fornire indicazioni realistiche su questa nuova tecnologia, in modo che non venga percepita come infallibile.