Negli ultimi anni, la rapidissima diffusione di software basati sull’Intelligenza artificiale ha portato allo sviluppo di video “deepfake” sempre più sofisticati e difficilmente distinguibili da quelli autentici, creando non pochi problemi nel campo dell’informazione. Questi video, capaci di riprodurre volti e voci di personaggi pubblici o privati, sono spesso utilizzati per fini ingannevoli, con conseguenze potenzialmente gravi per la società.
In risposta a queste minacce, un team di ricercatori dell’Università di Buffalo, guidato dall’esperto Siwei Lyu, ha sviluppato un programma innovativo per smascherare i filmati fasulli: il DeepFake-o-Meter, una piattaforma open-source e accessibile a chiunque con una semplice registrazione gratuita, che permette di analizzare contenuti sospetti in modo rapido ed efficace.
Strumento accessibile. Il software è stato progettato per essere uno strumento alla portata di tutti, non solo di ricercatori o esperti del settore. Chiunque, dagli utenti dei social media ai giornalisti, fino alle forze dell’ordine, può caricare un file video, audio o un’immagine sulla piattaforma, che in meno di un minuto restituisce un’analisi dettagliata del documento.
Il sistema combina diversi algoritmi di rilevamento all’avanguardia, ciascuno basato su fattori come l’accuratezza, il tempo di esecuzione e l’anno di sviluppo, offrendo così una valutazione complessiva. Invece di produrre una risposta binaria, sì o no, il DeepFake-o-Meter elabora una serie di possibilità, indicando la probabilità in percentuale che il contenuto sia stato generato da un’intelligenza artificiale e lasciando all’utente la decisione finale.
Collaborazione e trasparenza. Un aspetto cruciale di questa applicazione, spiegano dall’Università di Buffalo, è la sua natura collaborativa e trasparente. Gli utenti possono scegliere di condividere i file caricati con i ricercatori, contribuendo al miglioramento continuo degli algoritmi. Il fatto che la piattaforma sia open-source, infatti, significa che chiunque può accedere al codice sorgente e verificare il funzionamento interno del sistema.
Questo approccio garantisce un livello di trasparenza che la maggior parte degli altri strumenti sul mercato non offre. In un recente test, per esempio, la piattaforma ha dimostrato la sua superiorità nel rilevamento di un deepfake audio attribuito falsamente a Joe Biden, raggiungendo un tasso di probabilità del 69,7%, più alto rispetto ad altri strumenti utilizzati nella stessa analisi.
Lotta ai deepfake. Nonostante i progressi tecnologici, Siwei Lyu sottolinea che l’intervento umano resta fondamentale. Mentre gli algoritmi possono rilevare sottili manipolazioni invisibili al nostro occhio, sono ancora lontani dal possedere una comprensione profonda della realtà che invece noi abbiamo.
Per questo motivo, il DeepFake-o-Meter non solo intende potenziare la capacità di rilevamento automatizzato, ma mira anche a creare una comunità online di utenti che collaborano attivamente per smascherare i contenuti falsificati.
In futuro, Lyu e il suo team sperano di ampliare le capacità della piattaforma, includendo funzionalità che permettano di identificare anche gli strumenti di intelligenza artificiale utilizzati per creare i deepfake, con l’obiettivo finale di accertare non solo la falsità del contenuto, ma anche i responsabili e le loro intenzioni, affinché possano essere denunciati agli organi competenti.