Tecnología > ALGORITMOS

Facebook todavía destaca noticias falsas

Los algoritmos de la red social no han dejado de destacar bromas y conspiraciones desde que se eliminó el factor humano
Tiempo de lectura: -'
24 de octubre de 2016 a las 05:00

Se suponía que el incidente de Megyn Kelly fue una anomalía. Un infortunio de una sola vez. Un poco de (muy pública y embarazosa) mala suerte. Sin embargo, en las seis semanas desde que Facebook renovó su sistema de tendencias, el sitio ha promovido repetidamente historias "noticiosas" que en realidad son obras de ficción.

The Washington Post registró cada noticia que Facebook destacó a través de cuatro cuentas durante los días de trabajo a partir del 31 de agosto al 22 de setiembre durante ese tiempo. Se descubrieron cinco historias de tendencias que eran indiscutiblemente falsas y tres que eran profundamente inexactas. Además de eso, se encontró que los comunicados de prensa, publicaciones de blog de sitios como Medium y enlaces a tiendas online como iTunes eran tendencia con regularidad.

"No me sorprende en absoluto la cantidad de historias falsas que han sido tendencia", dijo un exmiembro del equipo que solía supervisar Trending al Post. "Fue más que predecible por cualquier persona que pasó tiempo con la funcionalidad real del producto, no solo con el código".

Los resultados del Post no deben tomarse como concluyentes: el seguimiento de los resultados solo fue durante las horas de trabajo por lo que seguramente más engaños hayan quedado fuera. Pero la observación periódica de las tendencias de Facebook de noticias falsas sigue en pie - en todo caso, fue subestimada la frecuencia.

Facebook promovió una cuenta de nuevas y literalmente mágicas características del iPhone, que provenían del sitio fakingnews.firstpost.com. El día después, Facebook destacó un comunicado de prensa de la "Asociación Americana de Médicos y Cirujanos"- una organización médica desacreditada-, así como una historia de un tabloide que alegaba que los ataques del 11 de setiembre fueron una "demolición controlada". Sin embargo, si los usuarios pensaban que la indignación llevaría a alguna reforma en Trending, estaban equivocados: Menos de una semana después, Facebook impulsó una historia sobre los Buffalo Bills desde el sitio satírico SportsPickle.

"Me gustaría decir que esperaba más de Facebook en la defensa de la verdad y de informar a la ciudadanía", dijo DJ Gallo, fundador y editor de SportsPickle. "Pero creo que hemos visto con esta elección que gran parte de lo que se publica en Facebook -y todas las redes sociales- no es exacta".

La función de tendencias de Facebook se supone que debe servir como una instantánea de las noticias más importantes y más discutidas del día. Esto es posible gracias a la colaboración entre sus algoritmos y un equipo de editores. Un algoritmo destaca temas inusualmente populares, un humano los examina y los veta y otro algoritmo destaca las historias aprobadas para las personas que estarán más interesadas en ellas.

Si falta alguna parte de ese proceso, Trending no funciona muy bien - una observación fácilmente ilustrada por un producto de Facebook llamado Signal, que muestra los temas populares antes y después de que se aprueben. La lista es demasiado larga y es difícil ver cómo cualquiera de los temas podría ser relevante; la lista es un mar indescifrable de nombres de lugares, equipos deportivos y conspiraciones.

En mayo pasado, sin embargo, Facebook se enfrentó a un torrente de acusaciones de alto perfil sobre el sesgo político en el equipo editorial de Tendencias. Tan así que la empresa decidió modificar el papel de los humanos en la aprobación de temas de actualidad. El 26 de agosto, Facebook despidió a su equipo editorial y dio a los ingenieros que los reemplazaron un mandato diferente a la hora de proceder. Si a los editores se les dijo que verificaran de forma independiente temas de tendencias surgidos por el algoritmo, a los ingenieros se les dijo aceptar todos los temas de tendencias si se relacionan con al menos tres artículos recientes desde cualquier fuente o un artículo reciente con cinco posteos relacionados.

El equipo de redacción anterior también podía influir qué noticias específicas se muestran con cada tema al rechazar la historia seleccionada por el algoritmo si era "tendenciosa", un "llamador de clics" o irrelevante. El equipo de revisión de calidad actual de Trending no veta URLs.

Es una barra tan baja que está casi garantizado que permita rumores como los de Megyn Kelly o el anuncio de la Tercera Guerra Mundial. Facebook admitió en una declaración luego del episodio de Kelly que la historia "reunió las condiciones para la aceptación en el momento porque no había un número suficiente de artículos pertinentes".

Aunque estas directrices de revisión son las que se llevan la culpa, Facebook no ha indicado ningún plan de cambiarlas. Más bien, la red social sostiene que su problema de noticias falsas puede ser resuelto por algoritmos mejores y más robustos.

En una conferencia reciente, Adam Mosseri -vicepresidente de gestión de producto de Facebook- indicó que se estaba trabajando para añadir tecnologías de filtrado automatizado de falsedades y parodias al algoritmo de tendencias, como los que existen en Noticias (News Feed hace suposiciones sobre el contenido basado en el comportamiento del usuario a su alrededor). Otra solución podría ser algo así como el sistema que Google Noticias utiliza para clasificar las principales noticias, lo que da a editores aprobados los medios para marcar el contenido importante.

Vale la pena señalar, por supuesto, que incluso Google Noticias ha sido engañado antes - todas las plataformas sociales, no solo Facebook, enfrentan la tarea compleja y abrumadora de la identificación de fraudes y otros tipos de información errónea. Aún así, Facebook es un caso especial: alrededor del 40% de todos los adultos estadounidenses se dirigen a él para buscar noticias, que -a pesar de la insistencia de Mark Zuckerberg de que Facebook "no es una compañía de medios"- hace que su manejo de cosas como Trending sean realmente importantes.

Walter Quattrociocchi, un científico de computación italiano que estudia la propagación de información errónea en línea, señala que Facebook es un ambiente propicio para engaños y conspiraciones: sus usuarios tienden a agruparse en burbujas de ideas afines, y reciben noticias altamente personalizadas en el muro y por medio de servicios tales como Trending. Cuando Facebook inyecta selectivamente noticias falsas en las dietas de noticias altamente personalizadas, dijo Quattrociocchi, corre el riesgo de seguir polarizando y alienar a sus usuarios hambrientos de conspiraciones.

"Esto se está convirtiendo en una caja de Pandora", dijo.

Y Facebook no se ha dado cuenta cómo cerrarla.


Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...