A través de un informe la empresa de Google señaló que el material retirado consistía en discursos de odio o incitaba a la violencia.
Al menos cinco millones de videos fueron eliminados de YouTube en el cuarto trimestre del año pasado por violar las políticas de contenido de la plataforma antes de que los espectadores pudieran llegar a verlos.
Así lo dio a conocer el pasado lunes la empresa propiedad de Google en un informe en el que destacó su respuesta a la presión para vigilar su comunidad en la Red.
YouTube indicó que la automatización de la aplicación a través del software "está dando sus frutos" permitiendo eliminaciones más rápidas. La compañía dijo que no tenía datos comparables de trimestres anteriores, informó Reuters.
YouTube afirmó que todavía necesita un equipo interno de personal para verificar los hallazgos automatizados en otros 1,6 millones de videos que fueron eliminados solo después de que algunos usuarios los vieran.
El sistema automatizado no identificó esos videos, que la plataforma retiró una vez que le fueron reportados por usuarios, organizaciones activistas y Gobiernos.
Responsables de YouTube dicen que la compañía elimina los videos que contienen discursos de odio o incitan a la violencia. Además, la plataforma está vetada a las "organizaciones terroristas" identificadas por el Gobierno estadounidense y a los materiales que estos grupos cargarían si pudieran hacerlo.
YouTube aseguró también que es difícil hacer cumplir una política basada en la falta de veracidad de los contenidos como criterio para eliminarlos, de manera que la empresa busca otras violaciones para eliminar videos con información engañosa.
El año pasado, YouTube comenzó a eliminar videos cuyo mensaje ponía en peligro a los niños o en los que un personaje de dibujos animados se utilizaba de manera inapropiada.