Facebook cambió su popular sección "Tendencias", que muestra a los usuarios una lista de temas y asuntos de los que más se habla en el día, para volverla más automatizada y reducir un poco más la posibilidad de que haya sesgo humano, escribió la compañía el viernes en su blog. De hecho, la red social reemplazó 26 editores por ingenieros para diseñar y manejar el algoritmo. No obstante, el cambio ha ocasionado varios problemas. Desde la promoción de una historia falsa sobre el despido de una periodista de Fox News a un video de un hombre masturbándose con una hamburguesa de Mc Donald's, la red se llenó de temas falsos o inadecuados.
El cambio que implementó Facebook es el más reciente intento de la compañía en los últimos meses para acentuar su neutralidad. De la nueva forma, la información se muestra según cuánta gente está hablando sobre un mismo tema. La sección quedó bajo análisis en mayo tras un reporte que argumentaba que suprimía noticias conservadoras, lo que generó que legisladores del Partido Republicano exigieran más transparencia. Facebook dijo que una investigación interna no halló evidencias de sesgo político.
Facebook rechazó hacer declaraciones al respecto y se limitó a hacer referencia en un post en su blog oficial en el que se lee: "Con un algoritmo a cargo del proceso podremos escalar la cobertura y llegar a más temas para hacer que poco a poco lleguemos a más gente". En ningún punto se menciona la necesidad de comprobar la veracidad de la información.
Ergo, sin ojos humanos, devino el caos. Por ejemplo, se difundió la noticia falsa de que Fox News había despedido a una periodista por apoyar a la candidata presidencial demócrata Hillary Clinton. La información provino de un sitio que no está incluido en la lista de medios de confianza de Facebook.
¿Cómo funciona el algoritmo en cuestión? Facebook elige los temas candentes según una combinación de volumen y cantidad de movimiento. Los "trending topics" registran una buena cantidad de menciones originales que la destacan del resto. Antes, los editores escribían una descripción de cada tema para seleccionar aquellos que, a su juicio, merecían un clic de los usuarios.
El equipo que comenzó a trabajar en 2014 y que despedido el viernes pasado se encargaba de filtrar y seleccionar las noticias populares en la red social. Según informó el diario El País de Madrid, Shayra Khan, integrante del grupo, detalló que trabajaban fuera de hora, sin turnos de vacaciones y con contratos de empleo temporal. Los exempleados recibirán una compensación de cuatro semanas por su trabajo.
Por otra parte, Facebook cuenta con un sistema de detección de fraudes y noticias engañosas, pero este se basa en las notificaciones enviadas por los usuarios. Si estos no lo perciben así –lo cierto es que los usuarios son fácilmente engañados por noticias falsas–, tampoco lo hace Facebook.
Mark Zuckerberg, fundador de la red social, siempre ha insistido en que Facebook es una empresa de tecnología y no un medio de comunicación y, por lo tanto, su negocio es construir herramientas tecnológicas y no de contenidos. Sin embargo, sea por un algoritmo o por la selección de seres humanos, la empresa decide qué contenido verán los usuarios en su "feed" de noticias.
"Las máquinas piensan en blanco y negro", dijo a The Guardian Mandy Jenkins, jefe de prensa de Storyful, sitio especializado en la verificación y distribución de noticias sociales. "No creo que la verificación se pueda automatizar aún. Lo que necesita ser verificado par ser real no es blanco y negro", agregó.
Inicio de sesión
¿Todavía no tenés cuenta? Registrate ahora.
Para continuar con tu compra,
es necesario loguearse.
o iniciá sesión con tu cuenta de:
Disfrutá El Observador. Accedé a noticias desde cualquier dispositivo y recibí titulares por e-mail según los intereses que elijas.
Crear Cuenta
¿Ya tenés una cuenta? Iniciá sesión.
Gracias por registrarte.
Nombre
Contenido exclusivo de
Sé parte, pasá de informarte a formar tu opinión.
Si ya sos suscriptor Member, iniciá sesión acá