Copiar enlace

Hablar de desinformación, noticias falsas o contenido extremista nos remite inmediatamente a las redes sociales, y si bien Facebook ha tenido que enfrentar una gran oleada de críticas por las fake news en su plataforma, YouTube se ha convertido en una red social llena de contenidos de una credibilidad, cuanto menos, discutible.

A pesar de que YouTube ha llevado a cabo campañas contra el discurso de odio, la discriminación y los vídeos de conspiraciones, una investigación realizada por Bloomberg asegura que los máximos responsables de YouTube ignoraron las recomendaciones y propuestas de sus empleados para modificar los sistemas de recomendación de su plataforma, con el fin de evitar vídeos tóxicos para la audiencia.

En entrevistas con varios empleados y ex empleados de Google y YouTube el reportaje abre de nuevo el debate sobre la importancia que tiene para los directivos, incluyendo a Susan Wojcicki, CEO de YouTube, crecer en visitas y tiempo de visualización y no sobre el control en el contenido que se comparte.

YouTube se apunta al fact-checking para combatir los bulos y la desinformación

YouTube propiciaba la propagación de vídeos de conspiraciones, odio y supersticiones

De acuerdo a la investigación, Wojcicki tenía el claro objetivo de conseguir 1.000 millones de horas diarias en tiempo de visualización. En la lucha por alcanzar ese objetivo, los ex empleados aseguran que la máxima responsable de la red social “nunca ponía un dedo en la balanza” para tratar de moderar el contenido de vídeos de conspiraciones o tóxicos, para ella lo único que importaba eran las métricas.

De esta forma, el problema no reside en la existencia en este tipo de vídeos de conspiraciones, odio y supersticiones, sino en que los algoritmos siguen permitiendo que estos contenidos se continúen propagando de forma masiva, e incluso se refuercen dentro de los apartados de recomendaciones.

El gigante de los vídeos espera alcanzar ventas de publicidad por más de 16.000 millones de dólares (aproximadamente 14.000 millones de euros) este año, cifra que seguirá creciendo. De acuerdo con la investigación de Bloomberg, desde 2012 YouTube llegó a la conclusión de que recomendar vídeos tras terminar de ver uno, era la mejor forma de mantener a los usuarios cautivos en el sitio web, y cuanto más escandaloso fuera el contenido, más interés despertaría en los espectadores. Y, claro, conseguir más visualizaciones le permitiría conseguir más ingresos por publicidad.

La orden era no etiquetar como nocivos los vídeos conspiracionales

Uno de los hechos más relevantes de la investigación es que los trabajadores han declarado haber recibido órdenes de no catalogar estos vídeos de conspiraciones, odio y supersticiones como nocivos, con lo cual el algoritmo dejaría de recomendarlos.

Tras las elecciones presidenciales en Estados Unidos, el estudio señala que Wojcicki convocó a una reunión en la que un empleado mostró preocupación por los vídeos más populares relacionados con las elecciones, que eran dominados por contenido extremista, sin embargo no hubo cambios en las políticas internas de YouTube.

La plataforma rechazó propuestas para atajar el problema de los vídeos nocivos

El estudio afirma que desde que Wojcicki tomó el mando de YouTube, han destacado en los contenidos teorías de conspiración, incluidas las referentes a la vacunación infantil o la vinculación de Hillary Clinton con un culto satánico que han provocado la ira de los legisladores que se encuentran ansiosos por regular las compañías de tecnología.

Varios ingenieros han asegurado que han tratado de revertir esta mala práctica en YouTube. Yonatan Zunger comenta que antes de irse de la compañía en 2016 propuso realizar modificaciones a la lista de vídeos recomendados, y ya que muchos de ellos se encontraban justo en la línea del incumplimiento de las políticas de uso, crear una nueva categoría para estos vídeos limítrofes y evitar recomendarlos, pero su propuesta fue rechazada, aunque en enero de este año la plataforma comenzó a ponerla en práctica.

YouTube responde al escándalo

Un portavoz de YouTube ha negado a Bloomberg estas afirmaciones y señaló que la compañía ha “tomado una serie de pasos importantes, incluida la actualización de nuestro sistema de recomendaciones para evitar la propagación de información dañina, mejorar la experiencia de noticias en YouTube, elevar la cantidad de personas enfocadas en temas de contenido en Google a 10,000, invertir en aprendizaje automático para poder encontrar y eliminar con mayor rapidez el contenido que viole nuestras políticas, que son actualizadas y revisadas. Este no es el final: la responsabilidad sigue siendo nuestra prioridad número uno”.

 

Escribir comentario

¡Mantente al día!