Da febbraio 2020, YouTube ha rimosso oltre un milione di video che trattavano il tema del COVID-19 e che la piattaforma ha ritenuto violassero le politiche imposte a chiunque voglia caricare un contenuto. Si tratta del dato più appariscente di un lungo post pubblicato ieri da Neal Mohan, Chief Product Officer di YouTube, volto a spiegare come il servizio di proprietà di Google sia sia mosso e ancora si stia muovendo per gestire il problema della disinformazione online e allo stesso tempo non intaccare la libertà di parola delle persone.
“La disinformazione è passata dall’essere un fenomeno marginale a uno mainstream“, ha notato Mohan, spiegando quello che oramai abbiamo sotto gli occhi tutti, ovvero che “non è più confinato alle cerchie di negazionisti dell’Olocausto o a chi è in cerca di verità alternative per l’11 settembre, ma coinvolge ora ogni aspetto della nostra società e della cronaca, muovendosi a una velocità impressionante“.
La soluzione a questo problema, secondo YouTube, non è solamente legata alla necessità di dover diventare più rapidi ed efficaci nella rimozione dei contenuti, nonostante anche quello sia un processo fondamentale e già oggi dalla piattaforma vengono rimossi 10 milioni di video ogni trimestre, la maggior parte dei quali con meno di 10 visualizzazioni. Secondo Mohan il lavoro più importante da fare è sui video che restano online, quelli che non hanno le premesse per essere tolti ma allo stesso tempo non sono tutti caratterizzati dallo stesso livello qualitativo.
“Quando oggi qualcuno cerca su YouTube delle news o delle informazioni, ottiene risultati ottimizzati per essere di alta qualità piuttosto che sensazionalistici“. I contenuti rimossi da YouTube, quelli che violano le policy perché “portano direttamente a seri danni nel mondo reale“, sono solo una piccola percentuale del totale, circa lo 0,16 / 0,18%, mentre per l’azienda è importante anche concentrarsi su tutti gli altri, cercando di mostrare video basati su elementi fattuali sapendo però che non sempre, quando ci sono eventi in evoluzione, è possibile avere riferimenti sicuri. “In assenza di certezze, le aziende che lavorano nel campo della tecnologia dovrebbero decidere quando e dove mettere i paletti per decidere cosa è disinformazione? Secondo me no“, ha continuato.
Un esempio di questo modo di procedere, spiega il post, è quello delle scorse elezioni presidenziali del 2020: non avendo da subito dei risultati certificati su cui basarsi, YouTube ha permesso a tutte le voci e le opinioni diverse di esprimersi, pur dando maggior visibilità a quelle che, basandosi sul lavoro fatto in precedenza, erano considerate più affidabili. Quando a dicembre 2020 i risultati sono stati certificati, è iniziata la rimozione di quelli che insinuavano l’ipotesi che ci potesse essere stata una frode.
Un esercizio di equilibrismo, in qualche modo, con l’intervento che si chiude con la promessa di ulteriori aggiornamenti in futuro sui sistemi attualmente in sviluppo per combattere la disinformazione online e, nello specifico, su Youtube.