
Il nuovo sistema di verifica dell’età basato su intelligenza artificiale introdotto da Roblox sta generando un’ondata di segnalazioni e criticità che ne mettono in discussione l’affidabilità. L’obiettivo dichiarato era aumentare la sicurezza dei minori, ma le prime esperienze stanno mostrando limiti tecnici significativi, con errori di classificazione e vulnerabilità facilmente sfruttabili.
Il sistema richiede agli utenti di inviare un video‑selfie per stimare l’età tramite modelli di computer vision, oppure di caricare un documento d’identità se hanno almeno 13 anni. La verifica è diventata obbligatoria per accedere alle funzioni di chat, modificando in modo sostanziale il funzionamento della piattaforma. Le prime analisi indicano che il modello IA adottato commette errori sistematici: utenti minorenni vengono classificati come adulti e viceversa. Ciò chiaramente compromette la separazione delle fasce d’età, ossia la funzione base del nuovo sistema di sicurezza.
Sono stati documentati casi in cui la verifica tramite selfie è stata aggirata con facilità. Un esempio emblematico riguarda un bambino che è riuscito a farsi classificare come adulto disegnando baffi e barba sul volto, dimostrando che il modello non distingue correttamente elementi reali da artifici grafici. Parallelamente, alcuni genitori hanno verificato i propri figli come adulti per evitare restrizioni, mentre account verificati come minorenni vengono venduti online a pochi dollari. Questo fenomeno apre la strada a potenziali abusi, poiché consente a sconosciuti di accedere a spazi destinati ai bambini.
La distribuzione globale è iniziata dopo una fase di test limitata, ma i problemi erano già emersi in precedenza durante i test interni. Nonostante ciò, la verifica è stata resa obbligatoria per tutti gli utenti che desiderano utilizzare la chat, con conseguenze immediate sulla fruibilità del servizio. Gli errori di classificazione hanno anche portato molti utenti a perdere l’accesso ai propri contatti abituali. Utenti della stessa età sono stati inseriti in fasce differenti, impedendo loro di comunicare a causa delle restrizioni automatiche imposte dal sistema.
Sono state segnalate anche difficoltà nel mantenere la verifica corretta nel tempo. Alcuni utenti hanno riferito che la classificazione cambia dopo aggiornamenti o nuove scansioni, rendendo instabile l’esperienza d’uso e costringendo a ripetere il processo più volte. È nato inoltre un mercato nero di account verificati come minorenni, che rappresenta una delle criticità più gravi. La vendita di questi profili consente a potenziali malintenzionati di ottenere accesso privilegiato alle chat dei bambini, vanificando l’intero impianto di sicurezza progettato dalla piattaforma.
Il sistema di verifica basato su IA sta generando effetti contrari rispetto a quelli desiderate: classificazioni errate, vulnerabilità sfruttabili, perdita di funzionalità e un mercato parallelo di account verificati. Le criticità tecniche e operative emerse nelle prime settimane indicano la necessità di una revisione profonda del modello e delle procedure di verifica.
Articoli suggeriti:
Articoli suggeriti: