La autocensura según Facebook

La red social recolecta información sobre los comentarios que los usuarios llegan a tipear, pero deciden borrar y no publicar
Si alguna vez empezaste a tipear un comentario en Facebook, te arrepentiste y lo borraste, hay algo que debés saber: la red social tiene información de eso que te callaste. Y lo que es peor, lo usa para conocer mejor tu comportamiento.

Facebook le llama autocensura a estas publicaciones que nunca existieron, pero que, gracias a un código existente en los navegadores, es recolectado por la mayor red social del mundo. Esta semana, dos empleados de la compañía, el ingeniero de software Sauvik Das y el científico de datos Adam Kramer, publicaron una investigación sobre los comentarios no publicados de 3,9 millones de usuarios a lo largo de 17 días.

Según los investigadores, 71% de los usuarios “mostraron algún nivel de autocensura de último momento”. Además, son más comunes los abortos de posts (33%) que de comentarios (13%). El estudio también determinó que este tipo de comportamientos se intensifican cuando se escribe a una audiencia amplia (por ejemplo, al actualizar el estado) o a una reducida (como un grupo).

Das y Kramer explican en su estudio que, cada vez que tipeás en tu estatus, en el muro de otra persona o en un cuadro de comentario y luego borrás el mensaje, Facebook recibe información de que te autocensuraste, no el texto eliminado.

Contra la privacidad


A diferencia del guardado automático de algunos servicios como Gmail, donde el correo tipeado se almacena aunque uno cierre el navegador en medio de la escritura, esta función de Facebook no tiene ninguna utilidad para el usuario. Es solo una herramienta para la empresa. De hecho, los propios investigadores escriben al final de su estudio: “Hemos logrado un mejor entendimiento de cómo y dónde se manifiesta la autocensura en la red social. A continuación, vamos a necesitar entender mejor qué y por qué”.

En la política de privacidad de Facebook se establece que la red social reúne aquella información que el usuario elige compartir, ver o con la cual interactúa de alguna manera. Desde la compañía informaron a la revista Slate que la autocensura es considerada un tipo de interacción social.

En esta misma línea, la red social informó esta semana que para 2014 el algoritmo que define qué se exhibe en el feed de noticias funcionará con inteligencia artificial.

Para ello, la compañía contrató al profesor Yann LeCun del Center for Data Science de la Universidad de Nueva York, quien va a liderar el laboratorio de inteligencia artificial. El nuevo algoritmo “podría incluir cosas como clasificar (los mensajes) en el feed de noticias o determinar los anuncios que se muestran a los usuarios para que sean más pertinentes”, dijo LeCun.

También, afirmó, se podría empezar a “analizar contenidos, entender el lenguaje natural y ser capaz de modelar a los usuarios para permitirles aprender cosas nuevas, entretenerlos y ayudarlos a conseguir sus objetivos”.

Populares de la sección

Comentarios