Dal primo marzo Facebook ha rimosso più di 2,5 milioni di contenuti relativi alla vendita di mascherine, disinfettanti per le mani e kit di test per il coronavirus. E ad aprile ha messo una etichetta di avvertimento per gli utenti su circa 50 milioni di contenuti a tema Covid-19 frutto dell’analisi di 7500 articoli da parte dei fact checker partner. Sono alcuni dati del ‘Community Standards Enforcement Report’ pubblicato periodicamente dalla società di Mark Zuckerberg, che da’ conto delle azioni messe in campo in alcune aree sensibili, anche linguaggio d’odio e bullismo.
“Ad oggi – sottolinea Facebook – abbiamo indirizzato oltre 2 miliardi di persone verso le fonti messe a disposizione dalle autorità sanitarie attraverso il nostro Centro Informazioni sul Covid-19 e i pop-up su Facebook e Instagram e rimosso centinaia di migliaia di contenuti di disinformazione che potrebbero portare a danni fisici imminenti”.
Il Community Standards Enforcement Report mette in chiaro anche le altre aree di azione della piattaforma sui contenuti dannosi. In sei mesi ha rimosso 6,3 milioni di contenuti relativi a organizzazioni che diffondono odio, 2,8 miliardi di account fake, 4,8 miliardi di contenuti spam. E grazie ai sistemi di Intelligenza Artificiale – spiega – è migliorato il rilevamento ‘proattivo’, cioè quello che consente di rilevare questo genere di post prima che li segnalino li utenti. Per l’hate speech, in particolare, Facebook è ora “in grado di rilevare quasi il 90% dei contenuti” prima che ne vega informato. Su Instagram, invece, oltre a lanciare nuovi strumenti anti-bullismo la società sottolinea di aver apportato miglioramenti alla tecnologia di corrispondenza di testo e immagini per trovare più contenuti su suicidio e autolesionismo.
In questo modo “è aumentata del 40% la quantità di contenuti” su cui ha preso provvedimenti e “del 12% la percentuale di rilevamento proattivo”. Mentre riguardo il bullismo in sei mesi la piattaforma è intervenuta su 1,5 milioni di contenuti.