Piattaforme come YouTube e Facebook fanno firmare contratti da cui emergono i pericoli per la salute dei lavoratori dall’esposizione a contenuti violenti
(Photo by Paula Bronstein/Getty Images)
Che esista un rischio di una desensibilizzazione alla violenza nella prolungata esposizione a contenuti estremi è una questione sempre più dibattuta, e con questo rischio devono fare i conti anche le grandi aziende tecnologiche che trasmettono e diffondono quei contenuti. Da quanto emerge da una recente inchiesta di The Verge, alcune piattaforme come YouTube o Facebook hanno ora iniziato a far firmare ai loro moderatori accordi relativi a eventuali rischi di malattie da stress post traumatico (Ptsd), le stesse riportate dai militari impiegati in zone di guerra.
Lo scorso dicembre, per esempio, questo tipo di documento è stato fatto firmare ai lavoratori di un centro di moderazione, gestito dal gruppo di servizi aziendali Accenture per conto di YouTube, in Texas. Un altro caso è avvenuto con i moderatori di contenuti che lavorano per Facebook in Europa, come riportato dal Financial Times (possibile paywall). Attraverso questa pratica, in sostanza, le aziende riconoscono che il lavoro che stanno proponendo comporta dei rischi per la salute mentale e psicologica dei dipendenti, proprio a causa della continua esposizione a contenuti violenti.
Come riportato da The Verge, agli impiegati si chiede di accettare consapevolmente che “è possibile che la revisione dei contenuti possa avere un impatto sulla mia salute mentale, e potrebbe anche portare a episodi di stress post traumatico (Ptsd)”. Inoltre, ai dipendenti viene anche chiesto di impegnarsi a far presente eventuali situazioni personali relative a queste malattie, così che l’azienda possa poi prendere i provvedimenti del caso, compreso il licenziamento.
A The Verge Accenture non ha fornito i numeri delle persone che hanno effettivamente riportato disturbi mentali in seguito all’esposizione prolungata a contenuti violenti ed estremi.
Ad ogni modo, il problema esiste e diventa sempre più pressante con il moltiplicarsi dei contenuti in rete. Tra le possibili azioni che le aziende potrebbero mettere in campo, ci sono il sostegno a ricerche specifiche sulle condizioni dei lavoratori e informative trasparenti sui rischi del mestiere fin dall’annuncio di lavoro. Inoltre, i moderatori dovrebbero avere limiti fissi alla quantità di contenuti violenti da controllare e beneficiare servizi di assistenza psicologica e sanitaria anche dopo la fine del rapporto di lavoro.
Leggi anche