YouTube recibe denuncias por permitir que ciertos vídeos lleguen a manos de pedófilos

0
56

No han sido pocos los diarios y portales digitales que han venido reportando información sobre esta situación anómala que tiene el canal de , una filial de , quizá la empresa mas grande del planeta. The Guardian, The New York Times, The Washington Post, Gizmodo y The Verguer, han venido informando sobre como YouTube tiene una puerta abierta para los

Youtube lleva años acumulando polémicas, pero ésta es realmente grave: el New York Times ha revelado que el sistema de recomendaciones de contenido de la plataforma suministra automáticamente vídeos de menores a grupos de pedófilos. ¿Cómo ha sucedido esto?. Un poco de contexto para entenderlo mejor: en 2006 Youtube es comprada por Google por 1.650 millones dólares. A pesar de la enorme inversión, Youtube estuvo varios años en constantes pérdidas. Aún así a Google no le importaba: la plataforma no paraba de crecer en usuarios. Pero algo comenzó a cambiar a partir de 2010, con la llegada de Salar Kamangar a la dirección de Youtube. Google buscaba tener más control y empezar a rentabilizar la compañía y para ello tenían que cambiar muchas cosas. Youtube necesitaba ingresar más dinero y eso sólo se podía conseguir poniendo más anuncios. Y para poner más anuncios era obligatorio aumentar las horas de visualización de los usuarios. Y aumentarlas MUCHO.

La nueva dirección de Youtube se obsesionó con una cifra: alcanzar las 1.000 millones de horas de vídeos vistas al día. Tras varios años de esfuerzo en 2017 alcanzaron su objetivo, ya con la actual CEO al frente (Susan Wojcicki). Así celebraba la compañía el logro en su blog. Este enorme aumento de horas de visualización hizo crecer de igual manera los beneficios ya que la cantidad de anuncios emitidos era mucho mayor. En 4 años habían conseguido multiplicar por 4 sus ingresos. Una historia de éxito, ¿no? No tan rápido. Para conseguir este enorme aumento de horas vistas al día, Youtube tuvo que modificar por completo la red neuronal de recomendaciones de vídeos para que cumpliese un solo objetivo: conseguir que los usuarios pasasen el máximo tiempo posible en la plataforma. Esta red neuronal aprende poco a poco como conseguir que pasemos cada vez más tiempo consumiendo contenido y, por ejemplo, comienza a recomendar a los usuarios vídeos cada vez más largos (no sólo más afines a sus intereses). Pero no sólo eso: también aprende que el contenido que nos enfada, el contenido extremo o controvertido engancha a los espectadores a la pantalla. Y empieza a recomendarlo. A recomendarlo constantemente. A muchos usuarios.

Youtube, al igual que Facebook, descubrió que el contenido que más cerca se encuentra de estar prohibido es el que consigue que pasemos más tiempo en la plataforma. Durante años decidió seguir recomendándolo, coger el dinero de los anuncios y guardar silencio. Es entonces cuando los analistas comienzan a darse cuenta de que algo raro ocurre en Youtube. La periodista Zeynep Tufekci descubre que la plataforma, independientemente de lo que estés viendo, cada vez te ofrece contenido más extremo. Los vídeos de conspiraciones, de ideologías extremas, con mensajes misóginos o de odio hacia minorías comienzan a ser una constante en las recomendaciones de los usuarios y a ganar miles de visitas. Muchos medios reportan que en Youtube comienza a producirse cada vez más el efecto “madriguera de conejo”: ciclos de contenido que arrastran al espectador a consumir vídeos cada vez más extremos, más peligrosos y más conspiranoicos.

Y finalmente llegamos al escándalo sobre la pedofilia: la red neuronal de Youtube descubrió que existía un público muy concreto que demandaba vídeos de niños pequeños, así que se los suministraba vía recomendación. El contenido de estos vídeos no era sexual en sí mismo: niños pequeños jugando o hablando a cámara. Pero juntos formaban un patrón de consumo que hacía que un tipo de usuario pasase mucho tiempo en la plataforma, así que la red neuronal de Youtube se lo proporcionaba. Vídeos inocentes de niños jugando en una piscina alcanzaban la increíble cantidad 400.000 visitas y estaban siendo recomendados a gente que consumía videos eróticos en Youtube. El sistema de recomendaciones solo estaba haciendo su trabajo: aumentar el tiempo de visionado.

“Me espantó el número de reproducciones”, dijo Christiane C., cuya hija de 10 años y una amiga subieron un video de ellas mismas en el que aparecen jugando en una piscina. Credit Maria Magdalena Arrellaga para

 

A pesar de la enorme polémica, Youtube no ha eliminado el sistema de recomendaciones: tan sólo lo ha limitado para este tipo de vídeos. La plataforma argumenta que no puede hacerlo desaparecer completamente porque “perjudicaría a los creadores de contenido”. Pero en realidad hay otro motivo más importante: el 70% de las visualizaciones de vídeos en Youtube suceden gracias al sistema de recomendación. Eliminarlo supone renunciar a muchísimos ingresos en forma de anuncios. Para Youtube acabar con su sistema de recomendaciones de vídeos significaría apagar la máquina de hacer dinero. Y no parece que esté dispuesto a hacerlo incluso aunque se revelen efectos secundarios tan terribles como estos.

Ésta es la respuesta oficial de Youtube a la crisis, donde propone:

1 – Reducir las recomendaciones de estos vídeos

2 – Restringir el contenido en directo a menores

3 – Prohibir los comentarios en estos videos

El tema de la prohibición de los comentarios es fundamental porque hace unos meses Youtube sufrió otra crisis importante cuando se descubrió que los pedófilos los utilizaban para indicar los momentos clave en vídeos de niños. A pesar de que Youtube lleva meses trabajando en ello, diferentes análisis de medios han confirmado que los comentarios siguen apareciendo en los vídeos de niños.

Respecto al tema de como funciona realmente la red neuronal de Youtube, este vídeo de Crespo  lo explica de una manera clara y sencilla.:

 

Youtube ha defendido muchas veces que el contenido extremo no funciona mejor que el contenido normal. En Gizmodo se tomaron la molestia de revisar algunos canales y comprobar los vídeos más vistos. El resultado no da la razón a Youtube precisamente.

Youtube acaba de publicar otro post en su blog a raíz de la crisis, afirmando que va a prohibir el contenido que incite al odio y reducir el contenido que está cerca de estar prohibido. Tras los últimos escándalos ha tenido que reaccionar.  Como suele suceder con Google y Facebook, una cosa es proponer políticas y otra llevarlas a cabo. Hoy mismo Youtube ha vuelto a demostrar con el caso de Carlos Maza que no está tan dispuesto a acabar con el “hate speech” como anuncia en su blog.

Los medios digitales y los expertos ya están analizando este nuevo cambio de políticas y no son muy clementes con Youtube: “The platforms have become very good at issuing PR statements about proposed changes that don’t ultimately have much effect.”

El medio Voxdotcom  ha hecho un artículo muy interesante recopilando todo el caso de Carlos Maza, incluyendo las respuestas que Youtube le ha ido según avanzaba la polémica.

Por otro lado los anunciantes no han reaccionado a la polémica y esa es una de las claves de la situación. En este artículo de Adweek se explica muy bien: “Mientras no se les acuse públicamente de ser parte del problema, no van a hacer nada”: acá puedes leer el artículo de Adweek

Mira el hilo:

 

Si te ha gustado, ¡compártelo con tus amigos! No critiques, crea

Dejar respuesta

Please enter your comment!
Please enter your name here