Internet

Youtube rimuove più di otto milioni di video non idonei in tre mesi

Sommario:

Anonim

YouTube ha pubblicato un rapporto sulla trasparenza sull'applicazione delle sue linee guida della community, che non consentono tra l'altro molti contenuti relativi a pornografia, istigazione alla violenza, molestie o discorsi di odio. Grazie ai suoi algoritmi di apprendimento automatico, l'azienda è stata in grado di rimuovere quasi 8, 3 milioni di video dalla sua piattaforma tra ottobre e dicembre 2017.

YouTube rileva video con contenuti inappropriati sempre più velocemente

Secondo la pubblicazione del rapporto, quasi 6, 7 milioni di quei video eliminati sono stati contrassegnati per la prima volta dalle macchine, con il 76% eliminato prima che qualcuno li vedesse. L'uso di algoritmi avanzati di machine learning ha drasticamente ridotto i tempi di risposta nella rimozione di contenuti inappropriati dall'introduzione di tali tecniche nel giugno 2017.

Si consiglia di leggere il nostro post su AMD invalida la garanzia di Ryzen se si utilizza un dissipatore di calore diverso da quello di serie

Oltre alle macchine, gli utenti umani hanno anche segnalato più di 9, 3 milioni di video inappropriati nello stesso periodo di tempo, la maggior parte dei quali a causa di contenuti correlati a sessualità, spam o discorsi di odio e violenza. Si noti che quasi il 95 percento di questi video è stato taggato da utenti comuni, mentre gran parte del resto proviene da un gruppo di utenti specializzati che YouTube chiama Trusted Flaggers.

YouTube sta inoltre implementando la dashboard della cronologia dei rapporti, in modo che gli utenti possano tenere traccia dello stato dei video che hanno segnalato quando l'azienda li esamina. La nuova dashboard è ora disponibile e rappresenta anche i video che potrebbero essere soggetti a limiti di età, anziché essere rimossi completamente dopo il processo di revisione. Cosa ne pensi di questa misura adottata da YouTube?

Theguardian font

Internet

Scelta dell'editore

Back to top button