Facebook Inc. ha rimosso decine di milioni di post pubblicati degli utenti che hanno violato i suoi termini di servizio negli ultimi sei mesi, secondo il rapporto sulla trasparenza semestrale di mercoledì. Questo è diventato un annuncio aziendale consueto, proprio come un rapporto trimestrale sugli utili.
La novità è l’aggiunta di dati da Instagram per la prima volta che sottolinea la profondità delle violazioni dei contenuti nell’app di condivisione delle foto. Milioni di post sulla pornografia infantile, la vendita di droghe e armi da fuoco, il terrorismo e il suicidio e l’autolesionismo sono stati rimossi da Instagram nel terzo trimestre, ha rivelato Facebook.
L’inclusione di Instagram nel suo rapporto aggiunge un altro livello alla lotta in continua evoluzione di Facebook contro contenuti illegali e discutibili. Facebook ha investito miliardi di dollari nel rendere il suo sito più sicuro e meno vulnerabile alle influenze esterne e la divulgazione dei dati su Instagram mostra i progressi che sta compiendo nel monitoraggio di miliardi di foto e video.
In una teleconferenza con i giornalisti, l’amministratore delegato Mark Zuckerberg e i membri del team degli standard della community di Facebook hanno presentato i numeri di Instagram: rimozione di 753.700 contenuti relativi alla nudità o allo sfruttamento sessuale dei bambini, in crescita del 47% rispetto al secondo trimestre; 133.300 casi di propaganda terroristica, in crescita del 25%; 1,5 milioni di pezzi legati alla vendita di droghe, circa lo stesso del secondo trimestre; e 845.000 articoli relativi a suicidio e autolesionismo, all’incirca gli stessi del trimestre precedente.
I numeri per Facebook FB, -0,78% in generale, danno un’idea della vastità di contenuti illegali che scorre attraverso una piattaforma utilizzata da circa 2,5 miliardi di persone in tutto il mondo.
Facebook ha dichiarato di aver rimosso 1,7 miliardi di account falsi nel terzo trimestre, in calo rispetto a 2,2 miliardi nel primo trimestre. “Poiché stiamo bloccando più tentativi di creare account falsi e offensivi prima ancora che vengano creati, ce ne sono meno da disabilitare”, ha affermato Facebook nel rapporto .
Il gigante dei social network ha dichiarato di aver espulso 11,6 milioni di contenuti relativi alla pornografia infantile nel trimestre conclusosi a settembre. (Facebook ha affermato che i suoi algoritmi software e la forte dipendenza dall’intelligenza artificiale sono stati in grado di rilevare il 99% di tali contenuti.)
La società ha rimosso 4,4 milioni di contenuti relativi alle vendite di droga e 2,3 milioni relativi alle vendite di armi da fuoco nel terzo trimestre, rispetto a 841.000 e 609.000, rispettivamente, sei mesi prima.
Una nota interessante è che la propaganda del terrorismo è stata più difficile da identificare su Instagram che su Facebook. Facebook ha dichiarato di aver rilevato e rimosso il 98,5% di tutto il contenuto del terrorismo – su Instagram, il dato era del 92,2%.
Tutto sommato, i numeri illustrano il diluvio di sfide che Facebook e altri servizi di social network come Snap Inc. SNAP,-0.35% e Twitter Inc. TWTR,-1.08% affrontare costantemente. Lo status di Facebook come la più grande piattaforma di comunicazione ha portato a numerose audizioni congressuali di alto profilo in cui Zuckerberg ha dovuto spiegare ai legislatori federali quali misure sta adottando la sua azienda per ripulire i contenuti discutibili.