News

6/recent/ticker-posts

Qué es el escándalo de abuso infantil en YouTube y por qué es tan importante







La polémica comenzó con un video del exyoutuber Matt Watson, quien anunció haber descubierto que en menos de un par de minutos, con pocos clics y de una forma alarmantemente fácil, se pueden encontrar videos que parecen ser usados por pedófilos como una especie de red para compartir contenido de abuso infantil.
Watson, en su video, creó una cuenta de YouTube completamente nueva y usó un VPN para esconder su firma digital, y comenzó a experimentar con las búsquedas en YouTube, demostrando cómo fácilmente se pueden encontrar estos videos. Solamente tuvo que buscar “bikini haul” (los “hauls” son un tipo de videos en los que personas y Youtubers de moda muestran sus compras de cosas, en este caso bikinis) y, tras acceder al primer video, uno normal de una Youtuber mostrando sus nuevos bañadores, entre los recomendados de YouTube aparecieron videos de personas en piscinas. Al hacer clic en uno de estos, vio que entre los nuevos videos recomendados aparecían niñas y niños jugando y haciendo cosas inocentes, y al acceder en ellos se encontró con los comentarios despreciables de pedófilos.
A Watson solo le tomó tres clics desde su primera búsqueda, en una cuenta completamente nueva sin ningún tipo de recomendaciones o gustos relacionados, para encontrar estos comentarios. Pero lo peor, comenta, es que una vez entras en ese video de un niño o niña inocente, el algoritmo de YouTube lo tomará en cuenta y comenzará a recomendarte videos similares, y tras ver algunos podría ser básicamente lo único que te recomiende.

Y esta es la primera mitad del problema de la plataforma al respecto, el hecho de que su algoritmo no identifica este problema y no para de recomendar esta clase de videos.de autor de la imagenSERGEI KONKOV/GETTY IMAGES
Image captionAlgunos pedófilos se aprovechan de los algoritmos de YouTube para introducir cierto contenido o hacer comentarios inapropiados.
La segunda mitad, es aún más importante, e involucra el aspecto más despreciable de todos: los comentarios. En videos de niños jugando o haciendo cosas inocentes e infantiles, los pedófilos se dedican a comentar colocando marcas de tiempo (acceso directo a momentos en específico en los videos) en momentos en cierto modo comprometedores para la integridad del niño o niña, en los que se mueven o realizan alguna acción que, para mentes enfermizas, pueda ser comprometedora.
Peor aún, en los comentarios también comparten enlaces a perfiles en Twitter, foros y hasta números de teléfono para añadir en grupos de WhatsApp o cualquier plataforma de mensajería, en los que se sospecha comparten contenido de abuso infantil. Todo eso, entre cientos de comentarios más “inofensivos” de tipo “qué bella” o “princesa”, los cuales no dejan de ser igual de despreciables y malintencionados.
Esta no es la primera vez que explota una polémica de este tipo relacionada al contenido que facilita el abuso infantil en YouTube, en años anteriores también había sucedido, y YouTube lo que hizo entonces fue prometer una mejora de su algoritmo y cerrar las secciones de comentarios en muchos videos de ese tipo, incluso eliminando algunos.
Esta vez, sin embargo, la polémica está teniendo mayores consecuencias e incluso compañías están presionando a YouTube para que actúe al respecto. Empresas gigantes como Disney y Nestle, además de desarrolladores de videojuegos como Epic Games (responsables de Fortnite), han eliminado sus anuncios publicitarios de YouTube hasta que la plataforma tome medidas al respecto del problema de abuso infantil, lo que podría suponer pérdidas millonarias para la compañía de videos.
YouTube anunció que han eliminado mas de 400 canales de videos, además de “docenas de millones de comentarios” relacionados al problema, pero esto no es una solución definitiva, solo temporal y puntual. Es probable que esos canales hayan sido reportados por usuarios, tras descubrir la explotación y abuso infantil que sucedía en los videos y comentarios, pero idealmente YouTube tendría que evitar que suceda en primer lugar, no solo actuar una vez que ya ha sido publicado un comentario o video que facilitaba el acceso a contenido ilegal de pedofilia.
En declaraciones de YouTube, la compañía “prohíbe terminantemente cualquier tipo de contenido que ponga en peligro a menores de edad”, y aseguran que van a hacer más al respecto. Pero sin duda, tomando en cuenta que el problema se relaciona al algoritmo de recomendaciones de YouTube y al sistema de comentarios como tal, en una plataforma a la que se cargan más de 400 horas de videos cada minuto, no es un problema fácil de resolver.
Mientras tanto, lo mejor que pueden hacer todos los usuarios de YouTube es reportar cualquier tipo de video o comentario de este tipo que encuentren. 


"YouTube está facilitando la explotación sexual de niños. Y está siendo monetizada".
Esa es la frase que titula el video del youtuber Matt Watson (también conocido como MattsWhatItIs), quien muestra su indignación tras haber descubierto "una red de pedofilia en YouTube".
"Las recomendaciones del algoritmo de YouTube están facilitando a los pedófilos la capacidad de conectarse entre sí, intercambiar información y poner enlaces en los comentarios", dijo Watson en un video de más de 20 minutos publicado el pasado domingo que acumula cerca de dos millones y medio de visitas.
Watson explica que solamente le hicieron falta dos clics para acceder a contenido publicado por pedófilos y que la plataforma recomienda videos similares de manera automática, de forma que con pocos clics la columna de recomendaciones (a la derecha) se llena de videos con menores.
Además, según el youtuber la plataforma es utilizada por pedófilos para intercambiar contenido de menores y contactos.
También aclara que aunque algunos internautas ya advirtieron sobre este problema. Y dijo que tiene pruebas de que esos videos están siendo monetizados.
"Esto está mal, hay que hacer algo. Ellos lo saben. Y me repugna que nadie haga nada", dijo el creador de contenido californiano.
A continuación, reveló lo fácil que le resultó encontrar videos de contenido sexual con menores de edad que todavía siguen publicados en YouTube.
Son videos aparentemente inocente de niñas probándose bikinis, jugando o haciendo estiramientos, pero en los comentarios se pueden leer las reacciones de pedófilos buscando interacción con los menores o señalando partes del video que encuentran sexualmente sugerentes, así como enlaces que dirigen a contenido pornográfico.
Algunos de esos videos tienen millones de visualizaciones.







Matt WatsonDerechos de autor de la imagenMATTSWHATITIS/YOUTUBE
Image captionMatt Watson pidió a los internautas que usen el hashtag #YouTubeWakeUp (YouTube, despierta) para "contarle a todo el mundo sobre esto".

Watson pidió a sus espectadores que se pongan en contacto con las marcas que aparecen en los anuncios de esos videos para advertirles que están apoyando indirectamente una red de pedofilia.
Las reacciones no se hicieron esperar.
Algunas compañías como Disney, Nestlé, Purina, McDonalds, Canada Goose, Epic Games y Fortnite dijeron este miércoles que retiran su publicidad de la plataforma de videos de Google a raíz del escándalo.
Otras empresas, como Grammarly, dijeron que están en conversaciones con la plataforma para tratar de resolver el problema antes de cancelar del todo sus inversiones publicitarias.
"Cuando supimos sobre este asunto, nos quedamos -y todavía estamos- totalmente horrorizados, y contactamos a YouTube para que lo rectifique inmediatamente", declaró Senka Hadzimuratovic, vocera de Grammarly, una herramienta de gramática en línea.

¿Qué dice YouTube?

"Cualquier contenido, incluidos los comentarios, que ponga en peligro a los menores es abominable y tenemos políticas claras en YouTube que lo prohíben", le dijo a BBC Mundo un vocero de YouTube.
"Hemos tomado acciones inmediatas borrando cuentas y canales, denunciando la actividad ilegal a las autoridades y deshabilitando los comentarios en decenas de millones de videos que contienen imágenes de menores".
"Hay más por hacer, y continuamos trabajando para mejorar y detectar este tipo de abusos más rápidamente".
Este portavoz también le dijo a BBC Mundo que la compañía está tomando acciones más drásticas y "agresivas" de las que ha implementado hasta ahora para abordar mejor la gestión del contenido inapropiado y que ha eliminado más de 400 canalesalgo que también ha expresado públicamente.
Otras medidas incluyen eliminar videos que fueron publicados sin malas intenciones, pero terminaron poniendo en peligro a menores de edad e incrementar la capacidad de descubrimiento de este tipo de contenido.
La empresa también dijo que siempre estuvo comprometida en la lucha contra ese material "horrendo" usando tecnología de vanguardia, en la que seguirá invirtiendo.
Según datos de YouTube, la tecnológica eliminó el año pasado 46.000 cuentasde ciberdelincuentes y las denunció al Centro Nacional para Menores Desaparecidos y Explotados, una organización sin fines de lucro que fue establecida por el Congreso de Estados Unidos.
Y asegura que no solo no dejará de hacer ese trabajo, sino que aumentará sus esfuerzos para velar por la seguridad de los jóvenes.
Las normas de YouTube prohíben a menores de 13 años ser propietarios de cuentas en la plataforma.

Los antecedentes

Este problema se suma a una crisis de anunciantes que estalló en 2017, cuando cientos de firmas ,como A&T y Verizon o la farmacéutica GSK, retiraron sus anuncios luego de una investigación del diario británicoThe Times que concluyó que el sitio estaba colocando avisos publicitarios junto a videos extremistas de contenido político y religioso.







YouTubeDerechos de autor de la imagenGETTY IMAGES
Image captionEsta no es la primera vez que las grandes marcas se alejan de YouTube.

A finales de 2017, YouTube reaccionó presentando algunos cambios para luchar contra los abusos.
En ese momento, algunos periodistas, como el corresponsal de tecnología de la BBC Rory Cellan-Jones, se preguntaban si Google, propietaria de YouTube desde 2006, se enfrentaba a una crisis de confianza.
"Los medios de comunicación se enfrentan a regulaciones estrictas y las próximas podrían surgir del propio Google si no se solucionan los actuales problemas de otra manera", señaló.
Varios anunciantes regresaron un año después a la plataforma luego de que YouTube les asegurara que hizo progresos para detectar y gestionar el contenido inapropiado más rápidamente.























YouTubeDerechos de autor de la imagenGETTY IMAGES
Image captionYouTube dijo que sus políticas prohíben la pedofilia y tildó la situación de "abominable".

Relacionado









YouTube logoDerechos de autor de la imagenGETTY IMAGES
Image captionGoogle compró YouTube por más de US$1.000 millones en 2006.

Google eliminó un canal de YouTube tras descubrir que estaba utilizando las reclamaciones de derechos de autor para extorsionar a otros usuarios.
Los responsables de Kenzo y ObbyRaidz, canales en los que publican videos jugando a Minecraft, denunciaron que habían recibido mensajes exigiéndoles dinero a cambio de retirar dos reclamaciones en su contra.
En los mensajes se les amenazaba diciéndoles que si se negaban a pagar, recibirían un tercer aviso por incumplimiento de derechos de autor o copyright.
Según Google, este aviso hace que un canal de YouTube esté "sujeto asueliminación".
La cuenta de YouTube del supuesto extorsionador ha sido eliminada después de que se dieran a conocer sus actos.









Tuit de YouTubeDerechos de autor de la imagenYOUTUBE/TWITTER
Image caption"Estos avisos de eliminación fueron abusivos, tenemos tolerancia cero hacia las peticiones legales fraudulentas, por lo que eliminamos los canales que las enviaron", anunció YouTube.
Presentational white space

La extorsión

Kenzo y ObbyRaidz recibieron mensajes pidiendo que realizaran pagos de entre US$75 y US$400 vía PayPal o Bitcoin.
Ninguno de los dos lo hizo.
El británico Kenzo, quien tiene 60.000 suscriptores en YouTube, acudió a las redes sociales para pedir ayuda después de que uno de sus videos fuera retirado por la segunda reclamación de derechos de autor fraudulenta del extorsionador.
En su respuesta al tuit de Kenzo, YouTube dijo que ambas reclamaciones contra él habían sido "obviamente abusivas" y que el video eliminado ya había sido republicado en su canal.
Google, propietario de YouTube, no respondió a una petición de información por parte de la BBC sobre cómo pretende evitar este tipo de extorsiones en el futuro.

¿Cómo se reclama por derechos de autor?

Una "notificación de eliminación por derechos de autor" tenida en cuenta hace que un video de YouTube pueda acabar siendo retirado y que el canal infractor reciba un aviso por incumplimiento de copyright.
Para hacer esta reclamación, un usuario solo debe proporcionar su información de contacto y una descripción de los derechos de autor que cree que están siendo infringidos por el video en cuestión.
El denunciante también debe aceptar las posibles consecuencias legales si las alegaciones de infracción de derechos de autor resultaran ser "falsas o de mala fe".
El youtuber estadounidense ObbyRaidz calificó el sistema como "inservible" en un video publicado en su canal.
"Cualquiera puede hacerlo", dijo. "Hicieron tan fácil eliminar el canal de alguien: denuncian varios videos y su canal se termina".
"En mi opinión, YouTube solo puso una curita sobre un tema mucho más grande", dijo refiriéndose a la eliminación de la cuenta del extorsionador.
"Esto es algo que puede afectar a más canales en el futuro y necesitan solucionarlo cuanto antes".

Identificación automática

YouTube ha recibido críticas por su sistema de identificación de contenido porque determina de manera automática si un video contiene material que infringe derechos de autor.
Los ataques aumentaron el año pasado cuando un youtuber recibió un aviso de infracción de copyright por incluir su propia canción en uno de sus videos.
Una notificación de eliminación de un video por derechos de autor tiene su origen en una simple solicitud enviada a YouTube por un usuario.
Estas reclamaciones, sin embargo, no siempre conllevan la retirada o eliminación de un canal.








Paul DavidsDerechos de autor de la imagenPAUL DAVIDS
Image captionPaul Davids, acusado de "piratear" su propia canción en uno de sus videos de YouTube, enseña a tocar la guitarra en su canal.

Por ejemplo, una persona puede optar por reclamar derechos de autor para, si su petición tiene éxito, mantener el video en la plataforma pero dirigiendo los ingresos por publicidad hacia el titular de los derechos.
Pero lo cierto es que este tipo de reclamación se está volviendo cada vez más común.
El youtuber MrBeast, que tiene más de 14,8 millones de suscriptores, aseguró que cinco de sus videos más recientes fueron desmonetizados bajo dichas reclamaciones, por lo que se plantea pagar a una persona para ayudarle a evitar esta medida cuando sus videos no infringen las normas.








Tweet from YouTuber MrBeast, which reads: "These companies don't give time stamps when they copyright claim my videos and idk if they are fake or real. I'm seriously looking to pay someone to help me figure this stuff out, reply if you have experience. Even my new video just got claimed and we only used epidemic sounds.Derechos de autor de la imagenMRBEAST/TWITTER













Presentational white space

Publicar un comentario

0 Comentarios