Da oggi, Instagram inizierà ad avvisare gli utenti quando stanno per pubblicare parole “potenzialmente offensive” in una foto o video che viene caricato nel feed principale. Tramite una nota ufficiale, Instagram ha annunciato l’arrivo di questa nuova funzionalità che utilizza degli strumenti di rilevamento basati su intelligenza artificiale in grado di riconoscere frasi o parole che possono essere potenzialmente offensive per altri utenti.
Di conseguenza, in caso positivo, verrà mostrata un notifica in cui si avviserà l’utente che la frase in oggetto “sembra simile ad altre che sono state segnalate” e verrà quindi incoraggiato ad apportare delle modifiche ma potrà anche continuare a pubblicare senza nessun cambiamento, ovviamente a suo rischio.
Secondo Instagram, che ha già iniziato ad utilizzare per i commenti uno strumento simile basato sul machine learning, indurre le persone a riflettere prima di pubblicare parole potenzialmente offensive ha prodotto dei risultati “promettenti” per quanto riguarda la lotta contro il bullismo online.
Questa è comunque solo l’ultima di una serie di misure che Instagram ha adottato per affrontare il bullismo sulla sua piattaforma. Lo scorso ottobre, ricordiamo, è stata introdotta una funzionalità che consente agli utenti di “proteggersi da interazioni indesiderate” applicando una restrizione ad un account “fastidioso”.
A differenza degli altri strumenti di moderazione di Instagram, in questo caso, si fa affidamento sugli utenti stessi per capire quando vengono utilizzate parole particolarmente offensive nei loro commenti. Al momento, questa funzione è stata attivata in alcuni paesi ma verrà presto estesa a livello globale.