¿Por qué Facebook no borra el video de un asesinato en vivo?

La red social considera que no incita a la violencia sino que "genera conciencia"; ¿qué es lo que se rechaza entonces?

La semana pasada, el asesinato de un hombre de 28 años en Chicago (Estados Unidos) fue grabado en vivo en Facebook. La red social, hasta ahora, no retiró el video de la plataforma. ¿Por qué? La empresa argumenta que no viola los estándares de la comunidad porque no se cree que el contenido celebre la violencia, sino que "genera conciencia".

Para Facebook, el video en cuestión "ayuda a sensibilizar", según un informe de CNN. El video se mantiene en línea, pero con una advertencia para el usuario. Caso contrario ocurrió con una grabación en la que se transmitió en vivo una ejecución de un policía francés y su pareja por un simpatizante del Estado Islámico. En este caso, Facebook está colaborando con las autoridades francesas para dar con el homicida. Además, la empresa bajó los videos y canceló la cuenta del terrorista. Sin embargo, no está claro cuántas personas vieron el material ni si alguien copió el archivo.

"Los terroristas y los actos terroristas no tienen cabida en Facebook", señaló la empresa en un comunicado.

"Cuando nos reportan contenidos terroristas, los eliminamos tan pronto como es posible. Atendemos las solicitudes de eliminación de parte de las autoridades con la mayor urgencia", afirma la empresa.

En 2015, tras un tiroteo en Virginia (Estados Unidos), Facebook retiró un video en el que se veía la muerte de varias personas, pero no se pudo evitar que los espectadores lo copiaran y subieran a YouTube.

Facebook tiene una política muy estricta respecto al contenido considerado sensible, ya sea por ser temas violentos o de contenido sexual. En concreto, los estándares se dividen en ocho categorías, incluyendo ataques a figuras públicas, bullying y acoso, violencia sexual y bienes regulados. Pero no está claro qué es lo que se permite cuando la línea es delgada. Los términos de la red social afirman que se "busca el balance" para mantener seguros a sus usuarios, motivar el comportamiento respetuoso, reconocer la diversidad cultural y empoderar a las personas a controlar lo que ven en su feed de noticias.

En este caso, la línea es tan fina como en los videos o imágenes con desnudos femeninos. Estos no están permitidos en la red social –ni un pezón– pero sí pueden publicarse fotos de mujeres con cicatrices por mastectomías o mujeres amamantando a sus bebés (aunque esto no fue siempre así). Según los términos, Facebook acepta fotos de desnudos en pinturas y esculturas, pero los usuarios han reportado que esas imágenes fueron retiradas de la red social por error. Hace poco fue retirada una obra artística que mostraba a Donald Trump con un pene pequeño, pero luego fue restituida.

Otro ejemplo: en Facebook se puede publicar fotos de alguien consumiendo marihuana pero no se puede vender la droga.

"Si alguien viola nuestras Normas Comunitarias al usar Live, tendremos que interrumpir esas transmisiones lo más pronto posible en cuanto recibamos el reporte correspondiente", señaló la empresa. "Entendemos y reconocemos que, cuando se trata de los contenidos y la seguridad en los videos de Live, hay desafíos únicos. Es una gran responsabilidad".

La red social depende en gran medida de que sus usuarios reporten las publicaciones que violan las condiciones del servicio. La empresa también tiene empleados que revisan los videos en vivo más populares para actuar con mayor rapidez.