Il chatbot di cui tutti parlano da settimane sa scrivere sintesi di articoli scientifici abbastanza credibili da ingannare gli stessi scienziati, una scoperta che sta gettando scompiglio nel mondo accademico e non solo. ChatGPT, un prototipo di intelligenza artificiale capace di comprendere il linguaggio umano e intrattenere conversazioni scritte anche molto complesse con gli utenti, ha prodotto finti abstract (cioè riassunti, anteprime) di pubblicazioni mediche, talmente verosimili da mettere in difficoltà gli incaricati del processo di revisione da cui di solito passa ogni articolo scientifico.
ChatGPT: che cos’è? ChatGPT è un chatbot, un software basato su intelligenza artificiale e machine learning sviluppato per simulare una conversazione con gli umani. È stato lanciato e rilasciato gratuitamente il 30 novembre dall’organizzazione di ricerca senza scopo di lucro OpenAI, fondata nel 2015 da alcuni big della Silicon Valley, tra cui Elon Musk, con lo scopo di “sviluppare un’intelligenza artificiale amichevole in modo che l’umanità possa trarne beneficio”.
Più nello specifico ChatGPT, è un modello linguistico di grandi dimensioni, cioè addestrato con enormi quantità di testo generato dall’uomo. Può creare stringhe di testo realistiche su richiesta (per esempio: “digita un profilo per una app di incontri”, o “scrivi una poesia sulla neve”) e con una prosa convincente, anche se non necessariamente provvista di senso logico.
Prolisso e molto popolare. A differenza di altri modelli linguistici come GPT-3, lanciato nel 2020 sempre da OpenAI, è utilizzabile senza costi da chiunque abbia una connessione Internet, e negli ultimi mesi milioni di persone l’hanno utilizzato per divertimento, mettendo alla prova le sue doti di scrittore, insegnante, giornalista, cantautore… o per scopi più seri, come comporre email di lavoro o risposte da dare ai clienti che si rivolgono a un customer service. Ognuno di questi input allena ChatGPT al linguaggio umano.
lo riconoscI? Un gruppo di ricercatori guidato da Catherine Gao della Northwestern University di Chicago ha deciso di chiedere a ChatGPT di formulare gli abstract di 50 articoli di medicina presi da alcune delle più autorevoli riviste scientifiche del settore (JAMA, The New England Journal of Medicine, The BMJ, The Lancet e Nature Medicine) e di confrontarli agli originali sottoponendo il risultato ad altri scienziati, per testare la credibilità del lavoro della AI. Gli abstract generati dal chatbot sono stati inoltre dati in pasto a un sistema di controllo antiplagio e a uno che identifica l’output delle AI, per capire se e quanto ChatGPT riesca ad agire “sotto mentite spoglie”.
Beccato! (O no?). Gli abstract del chatbot hanno passato indenni il controllo antiplagio, con un “punteggio di originalità” del 100%, equivalente a nessun plagio. Il rilevatore di AI ha distinto correttamente come fasulli il 66% degli abstract generati da ChatGPT, ma i revisori in carne ed ossa non hanno saputo fare molto di meglio. Hanno riconosciuto come falsi il 68% degli abstract del chatbot e come veri l’86% degli abstract originali. Significa che il 32% delle sintesi non reali sono state ritenute vere e che il 14% di quelle vere è stato ritenuto un fake. Insomma ChatGPT può mettere in difficoltà anche gli esperti di un campo del sapere, incaricati dalle riviste scientifiche di fare le pulci agli articoli prima che vengano pubblicati. Una presa di coscienza che apre a considerazioni etiche importanti.
Non bastavano le fake news… La ricerca scientifica ha infatti un ruolo fondamentale per la politica e la società, e decisioni che riguardano tutti noi potrebbero essere prese sulla base di articoli scientifici inesistenti, fabbricati ad arte. E anche se alcuni scienziati sono meno drastici nel tirare conclusioni, occorrerà fissare dei limiti chiari su quando e come questo tipo di AI possano essere usate in ambito accademico.
Chatbot giornalista. Il dibattito non riguarda soltanto le Università. Negli ultimi mesi il sito di tecnologia statunitense CNET ha usato un sistema di intelligenza artificiale per scrivere 73 articoli di spiegazione su temi finanziari, riletti dalla redazione per eliminare eventuali strafalcioni e poi firmati con lo pseudonimo “CNET Money”. L’ha fatto in modo trasparente, in una sorta di esperimento scientifico, aggiungendo una breve didascalia in calce al titolo – eppure la maggior parte dei lettori se ne è accorta soltanto pochi giorni fa, quando un utente ne ha parlato apertamente su Twitter. Non solo: anche Google sembra non aver dato peso alla cosa, visto che alcuni di questi articoli sono stati premiati dal suo algoritmo salendo di posizione e generando un traffico notevole.
Fotogallery L’intelligenza artificiale che usi tutti i giorni