Digital

Tra luglio e settembre 2018 Youtube ha rimosso 7.8 mln di video, 224 mln di commenti e chiuso 1.6 mln di canali

Secondo il rapporto trimestrale sull'applicazione delle norme della community della piattaforma, il team di revisori, attraverso tecnologie di machine learning, si è impegnata a rimuovere tutti i contenuti illeciti che violano le regole dell'azienda. Ben oltre il 90% dei video caricati a settembre del 2018 sono stati cancellati per estremismo violento o sicurezza dei minori.

Google ha da sempre utilizzato un mix di tecnologia e revisori per identificare i contenuti che violano le norme sulla piattaforma Youtube, e nel 2017 ha cominciato ad utilizzare una tecnologia di machine learning più avanzata per segnalare i contenuti da sottoporre alla revisione dei team. Questa combinazione ha permesso di acquisire una sempre maggior rapidità nel far applicare le norme.

Ad aprile Google ha lanciato il rapporto trimestrale sull'applicazione delle norme della community di YouTube. Ed è in questo contesto che oggi amplia il rapporto per includere ulteriori informazioni, quali le rimozioni dei canali, il numero di commenti rimossi e il motivo per cui un video o un canale è stato rimosso.

In passato sono state condivise informazioni su come la tecnologia stia aiutando i team di revisori a rimuovere i contenuti a un ritmo e a una velocità che le persone da sole non potrebbero raggiungere. Trovare tutti i contenuti che violano le policy su YouTube è una sfida gigantesca, ma è una delle responsabilità principali che l'azienda si assume.

Da luglio a settembre 2018 sono stati rimossi 7,8 milioni di video. L'81% di questi sono stati rilevati dalle macchine, il 74,5% dei video rilevati dalle macchine non aveva ancora ricevuto nessuna visualizzazione. Quando viene identificato un video che viola le norme, viene rimosso e viene inviata al canale una segnalazione. Molti canali sono stati chiusi perchè pubblicano ripetutamente contenuti proibiti, come lo sfruttamento sessuale dei minori. Gran parte dei tentativi illeciti proviene da utenti che cercano di caricare spam o contenuti per adulti: oltre il 90% dei canali e più dell'80% dei video rimossi a settembre del 2018 violava le norme sullo spam o sui contenuti per adulti.

Guardando specificamente ad aree in cui i volumi delle violazioni sono piccoli, ma le tipologie di violazione sono assolutamente inaccettabili, come l’estremismo violento e la sicurezza dei bambini, si nota l’impatto degli investimenti fatti nella lotta a questo tipo di contenuti: ben oltre il 90% dei video caricati a settembre del 2018 e rimossi per estremismo violento o sicurezza dei minori avevano meno di 10 visualizzazioni.

Questi numeri possono variare di trimestre in trimestre, specialmente quando i team irivedono e naspriscono le norme o l'applicazione delle stesse per una certa categoria al fine di rimuovere più contenuti. Per esempio, lo scorso anno è stata rafforzata l’applicazione delle norme sulla sicurezza dei minori, grazie a consultazioni con esperti per assicurare che le norme coprissero una vasta gamma di contenuti che possono essere dannosi per i bambini. Come conseguenza, è stato rilevato che il 10,2% delle rimozioni di video è dettato dalla sicurezza dei minori, mentre il materiale sull'abuso sessuale di minori rappresenta una frazione di percentuale dei contenuti che viene rimosso.         

Come per i video, anche nei commenti Google si affida ad una combinazione di tecnologia smart per il rilevamento e revisori in carne e ossa per segnalare, esaminare e rimuovere spam, incitamento all'odio e altri comportamenti inappropriati.

Sono stati realizzati strumenti che permettono ai creator di moderare i commenti che ricevono sui propri video. Per esempio, i creator possono scegliere di esaminare tutti i commenti prima di pubblicarli, o di tenere automaticamente in sospeso quelli che contengono link o contenuti che possono essere offensivi. Oltre un milione di creator usa questi strumenti per moderare i commenti sul proprio canale.

Da luglio a settembre 2018, i team di Youtube hanno rimosso oltre 224 milioni di commenti che violavano le norme della community. Nella maggior parte dei casi, la rimozione era dovuta a spam e il numero totale di rimozioni rappresenta una frazione dei miliardi di commenti pubblicati su YouTube ogni trimestre. Nonostante siano stati rimossi più commenti, l'insieme dei commenti è cresciuto anziché ridursi.

"Vogliamo impegnarci a garantire che YouTube rimanga una comunità vivace, dove la creatività può prosperare, i creator indipendenti possono guadagnarsi da vivere, e le persone di tutto il mondo possono entrare in contatto condividendo passioni e interessi. Questo significa che saremo inflessibili nella lotta contro gli utenti malintenzionati sulla nostra piattaforma e nei nostri sforzi per rimuovere i contenuti inaccettabili prima che siano visualizzati. Sappiamo che c'è ancora del lavoro da fare e continueremo a investire in persone e tecnologia per rimuovere rapidamente i contenuti inappropriati. Non vediamo l'ora di farvi avere altri aggiornamenti" ha commentato il Team di Youtube.