Il fenomeno dei deepfake – termine che è nato soltanto nel 2017 – è rapidamente cresciuto, nei pochi anni che ha avuto a disposizione, sino a rappresentare un vero problema per la veridicità dell’informazione in Rete.
Con deepfake si intende un filmato – ma anche un’immagine – creato con tecniche di intelligenza artificiale sovrapponendo video e immagini esistenti a video e immagini originali.
Le fattezze di un personaggio – per lo più una celebrità – vengono sovrapposte alle azioni di un altro soggetto, così che sembri che sia il personaggio a compiere quelle azioni.
Dei deepfake s’è visto finora soprattutto il lato peggiore, accanto a utilizzi umoristici o ironici: essi sono stati infatti spesso utilizzati per creare falsi video pornografici ritraenti persone famose, o anche per dar vita a filmati di revenge porn.
Il vero problema è che spesso questi video, ancorché fasulli, sono così ben fatti da ingannare anche l’occhio più attento: sul lungo periodo, ciò comporta che si sia sempre sospettosi sulla veridicità di un dato filmato, e gli utenti finiscano col non sapere davvero se un certo materiale sia vero o falso.
Microsoft, Facebook e Google sono da qualche tempo molto impegnate nella costruzione di strumenti open source in grado di identificare i deepfake in maniera automatizzata: l’intento è fornire ad aziende, governi e media i mezzi per classificare i video.
L’ultimo contribuito da parte di Google in questo senso è un enorme database, contenente oltre 3.000 deepfake, realizzati nell’ultimo anno con il contributo di diversi attori e ora inseriti nello strumenti noto come FaceForensics.
L’idea è che la disponibilità di una mole di dati tanto grande possa servire a rendere sempre più precisi i vari software in sviluppo per l’identificazione dei deepfake, visti come una minaccia a causa del «possibile abuso dei media sintetici», che costituisce un pericolo per chiunque navighi nel web.
Sopra, l’attore originale. Sotto, il deepfake.