News

6/recent/ticker-posts

YouTube asusta a los más jóvenes


  • El algoritmo vuelve a jugar una mala pasada a la plataforma al marcar como aptos para niños clips violentos y con contenido sexual.



Cuando YouTube lanzó, en febrero del 2015, YouTube Kids parecía una buena idea, pero Google no tuvo en cuenta que siempre hay adultosdispuestos a pervertir la mejor de las intenciones. YouTube Kids es una aplicación distinta de la de YouTube –disponible sólo en algunos países, entre los que se halla España–, con una interfaz de usuario especialmente pensada para que la usen niños pequeños, y con cuatro secciones: series, aprendizaje, música y explorar. Además ofrece una serie de controles para que los padres monitoricen y limiten la experiencia de sus hijos.
A partir de aquí, todo parecía diseñado para que los padres pudieran aparcar a sus hijos delante de la pantalla con tranquilidad.
Hay que tener en cuenta que un estudio elaborado en el 2016 por Ofcom ­–órgano regulador de telecomunicaciones en el Reino Unido– concluía que los niños británicos ya dedican más tiempo al consumo de contenidos online (15 horas a la semana los niños de entre 5 y 15 años; 8 horas semanales los niños de entre 3 y 4 años) del que emplean para ver la televisión. Y que el 73% de los niños de entre 5 y 15 años son usuarios de YouTube, así como el 37% de los de 3 y 4 años. De hecho, 100 de los canales más populares de la plataforma están pensados para ellos.
La compañía retira 150.000 vídeos, veta la publicidad en 2 millones y cierra 270 cuentas y 50.000 canales
El contenido al que los niños tienen acceso mediante YouTube Kids se filtra de forma automática –otra vez el algoritmo– entre todos los vídeos existentes en YouTube, y en Google ya advierten lo siguiente en la descripción del servicio: “Ningún sistema automatizado es perfecto y, por tanto, es posible que tu hijo se tope con algo que no te guste que vea. Si encuentras un vídeo que consideras inapropiado, márcalo y lo revisaremos lo antes posible”.
El problema es que el sistema es tan poco perfecto que millones de criaturas han podido ver vídeos en los que aparecen Peppa Pig fumando y con armas en la mano o los personajes de la Patrulla Canina suicidándose poseídos por el demonio. Y son sólo algunos ejemplos y no lo peores. También ha vídeos con contenido sexualmente inapropiado. Todo este contenido, obviamente, también está disponible en la aplicación corriente de YouTube.
El problema es doble. Por un lado que haya gente que se dedique a crear estos vídeos, y por el otro que los filtros de YouTube no lo detecten. Y para la plataforma el daño ha sido el mismo que cuando se descubrió que colocaba anuncios en vídeos que enaltecían el terrorismo: la fuga de anunciantes. En esta ocasión, han sido marcas como Adidas o HP las que han dejado de anunciarse porque sus productos han aparecido en canales en los que había comentarios explícitamente sexuales referidos a menores.
Todo esto salió a la luz en marzo, pero una vez más la compañía ha respondido con lentitud. En un comunicado publicado a finales de noviembre en el blog de la compañía Johanna Wright, vicepresidenta de dirección de producto de YouTube, reconocía: “En los últimos meses, hemos notado una tendencia creciente alrededor del contenido en YouTube que se intenta pasar como familiar, pero que claramente no lo es. Si bien algunos de estos vídeos pueden ser adecuados para adultos, otros son completamente inaceptables, por lo que estamos trabajando para eliminarlos de YouTube”. Al mismo tiempo el portal de vídeo en línea anunciaba la eliminación de 150.000 vídeos, el cierre de 270 cuentas, la imposibilidad de hacer comentarios en otros 625.000 vídeos, así como la retirada de anuncios en dos millones de vídeos y 50.000 canales. Es decir, realmente el problema no era menor. “El contenido que pone en peligro a los niños es aborrecible e inaceptable para nosotros”, se justificaba YouTube.
Por si esto no fuera suficiente, pocos días después del anuncio de estas medidas, a YouTube le aparecía otro problema y por el mismo flanco. Al escribir en el buscador en inglés una expresión del tipo how to have, la función autocompletar ofrecía opciones como how to have sex with kids (como tener relaciones sexuales con niños). En esta ocasión, YouTube sí reaccionó rápido y solucionó el problema, mientras que paralelamente aseguraba que estaban investigando el problema para “determinar qué es lo que había detrás de la aparición de este autocompletado”
Más revisiones manuales
Como Facebook y Twitter, YouTube acaba de anunciar un plan de acción para luchar contra el contenido inapropiado. Susan Wojcicki, directora ejecutiva de la compañía, mediante un comunicado, concretó el martes en qué consistirán estas medidas. En primer lugar, Wojcicki indicó que –durante el 2018– YouTube reforzará el equipo de personas encargadas de revisar manualmente todo el contenido que se publica, que superarán las 10.000. De todas formas, YouTube no renuncia a seguir usando la inteligencia artificial, pues, tal y como explica Wojcicki, “en la actualidad, un 98% de los vídeos que eliminamos por su contenido violento y extremista son detectados por nuestros algoritmos de aprendizaje automático”. Según su directora ejecutiva, desde que YouTube empezó a usar algoritmos para detectar este tipo de contenidos –en junio–, “se han revisado y detectado vídeos que podrían haber precisado, para su valoración, la intervención de 180.000 personas trabajando 40 horas a la semana”.
Uno de los problemas que YouTube ha tenido que afrontar en los últimos meses ha sido la fuga de anunciantes cuyos anuncios aparecían en vídeos polémicos. Por eso la responsable de la compañía ha querido mandar un mensaje tranquilizador a sus clientes y les ha asegurado que YouTube tiene “planes para aplicar unos criterios más estrictos, además de efectuar más revisiones manuales e incrementar en gran medida la cantidad de expertos encargados de revisar la publicidad, para garantizar que los anuncios aparecen sólo en aquellos lugares donde deberían hacerlo”.

Publicar un comentario

0 Comentarios