Facebook hizo un experimento psicológico secreto en sus usuarios, ¿estuvo mal?

Los cuatro puntos que hay que considerar para entender por qué la manipulación de sentimientos por parte de la red social provocó tanta indignación
Durante una semana de 2012, Facebook intervino 689.000 cuentas de usuarios de habla inglesa a lo largo de su base. Luego, de forma aleatoria, modificó sus flujos de noticias en diferentes formas para cambiar lo que veían. Por lo tanto, algunos feeds se veían más "felices", ya que la red social les estaba escondiendo las publicaciones negativas. Otros, por el contrario, pasaron a ser más "tristes", dado que Facebook bajó la incidencia de los posts positivos.

Ante esto, la pregunta que ha estado incendiando internet en los últimos días es si Facebook sobrepasó sus límites al realizar un experimento psicológico secreto en una fracción de sus usuarios. El consenso es que la red social probablemente hizo algo mal. Pero, ¿qué exactamente?

El objetivo aparente era averiguar si las emociones en Facebook son contagiosas, es decir, si los flujos de noticias felices o tristes hacen a los usuarios más propensos a escribir mensajes más felices o tristes. Los resultados fueron esclarecedores: los investigadores encontraron evidencia que sugiere que el "contagio emocional" existe.

Para entender mejor por qué este estudio ha provocado un debate encendido, vamos a diseccionar algunos de los cargos que se le achacan a la red social:

1. Usó información de los usuarios para un estudio académico. La investigación involucró un vasto número de cuentas. Esa gente no tuvo la opción de dar (o no) su consentimiento para participar en este estudio específico, a pesar de que por el simple hecho de usar Facebook, ellos técnicamente ya le dieron a la red social un amplio permiso para usar que sus datos sean usados en "operaciones internas, incluidos la solución de problemas, el análisis de datos, la investigación, el desarrollo y la mejora del servicio".

2. Manipuló el flujo de noticias de la gente para que se sientan más felices o tristes. Facebook no estaba intentado ver si podía hacer que la gente estuviera triste solo porque puede hacerlo. En realidad, estaba poniendo a prueba una hipótesis legítima enmarcada en un cuerpo más amplio de la literatura académica sobre lo que la red social puede estar provocándonos emocional, cultural y socialmente. Si hay algo problemático en la metodología de este estudio, probablemente sea que los investigadores no pueden replicar el estudio para probar los resultados por fuera de Facebook.

3. El estudio logró pasar un comité de revisión institucional. Facebook consiguió la aprobación de uno de estos comités, que son grupos designados para evaluar la ética de las investigaciones basadas en humanos. Dicho comité vio los resultados del análisis de datos de la red social y le dio luz verde, pero evidentemente no consideró cómo Facebook había obtenido los datos en primer lugar.

Entonces, ¿Facebook cometió una falta de ética? Si la red social fuera parte del gobierno estadounidense o una institución académica financiada por el mismo, entonces sí. Las investigaciones realizadas en esos entornos con seres humanos como sujetos requieren de la aprobación de un comité de revisión institucional. Pero por tratarse de una entidad privada, Facebook no está legalmente obligada a ello.

4. Es espeluznante. Más allá de todas las críticas antes mencionadas, todavía hay algo profundamente inquietante en el experimento de Facebook. Sospecho que el episodio dice más acerca de nosotros y de nuestra creciente relación con los datos, más que sobre las acciones aisladas de la red social. Recién estamos empezando a entender qué tan dominantes y potencialmente invasoras pueden ser las compañías cuando están armadas de datos.

Comentarios