Tecnología > Twitter

El dilema de Twitter

La red ha adoptado distintas posturas respecto a la censura de fotos y videos de personas de relevancia pública muertas
Tiempo de lectura: -'
23 de agosto de 2014 a las 13:00
Cuando el año pasado Twitter decidió dar mayor prioridad a las imágenes dentro de su sitio no imaginó que enfrentaría tan difícil dilema. Primero, las imágenes de muertos de relevancia pública se expanden a lo largo de la red social. Luego, los usuarios expresan enojo. Finalmente, la compañía se ve forzada a decidir qué remover y qué no.

Dos incidentes recientes ilustran lo difícil que es para la red social decidir entre ser un foro abierto o patrullar el flujo de mensajes en busca de contenido inapropiado. Por un lado, Twitter está dando de baja las cuentas de usuarios que comparten imágenes de la muerte de James Foley, el periodista que fue decapitado ante las cámaras por terroristas islámicos. Por otra parte, las fotos del cuerpo de Michael Brown, el adolescente que fue asesinado por la Policía en Ferguson, Misuri, continúan circulando.

Para muchos usuarios, las violentas imágenes del asesinato de Foley pueden ser interpretadas como una forma de expandir el mensaje terrorista. En cambio, compartir la muerte de Brown es una forma de denunciar la injusticia y discriminación.
La libertad de prensa y de expresión no implica que debas publicar cualquier video sin importar qué tan brutal y violento sea”, dijo Bruce Shapiro de Columbia

“Están dejando a las masas decidir qué debería estar y qué no”, dijo Ken Light, docente de fotoperiodismo en la Universidad de California, Berkeley. En su opinión, la censura de las imágenes de Foley es correcta: “El video de la decapitación no debería volverse viral jamás. Al descubrir uno, tiene que ser borrado de inmediato”.

El dilema que enfrenta Twitter, un defensor de la libertad de expresión y distribuidor en tiempo real de la información, no es muy diferente al que viven los medios de comunicación, opinó Bruce Shapiro, director ejecutivo del Centro Dart para el Periodismo y Trauma de la Escuela de Periodismo de Columbia. “La libertad de prensa y de expresión no implica que debas publicar cualquier video sin importar qué tan brutal y violento sea”, dijo.

Los incidentes sucedieron justo después de que la hija de Robin Williams, Zelda, dijera que cerraba su cuenta de Twitter tras recibir mensajes abusivos sobre la muerte del actor.

“Para respetar los deseos de los seres queridos, Twitter removerá las imágenes de personas muertas en ciertas circunstancias”, dice la versión publicada esta semana de sus políticas de privacidad. “Al revisar este tipo de pedidos de eliminación, Twitter considera factores de interés público como la importancia noticiosa del contenido y podría no ser capaz de honrar cada pedido”, se aclara.

Sin automatizar


El software de Twitter no está diseñado para filtrar de forma automática todo el contenido inapropiado. El equipo de Confianza y Seguridad de la red trabaja las 24 horas para eliminar este tipo de mensajes, informó Nu Wexler, vocero de la empresa. Por ejemplo, se usa tecnología de análisis de imagen para rastrear y denunciar pornografía infantil.

Twitter no prohíbe de forma específica la presencia de contenidos gráficos violentos en su sitio. Lo que sí se censuran son las “amenazas violentas directas y específicas”, así como las “imágenes obscenas o pornográficas”, según sus términos de uso. Si la experiencia de Facebook sirve de guía, la red de microblogging debería ir más lejos que esto.

En octubre, cerca de la época en la cual Twitter empezó a desplegar imágenes de forma automática en las cronologías, comenzó a circular en Facebook el video de una decapitación. La compañía se resistió a bajarlo hasta que las quejas de los usuarios se intensificaron e incluyeron a personalidades como el primer ministro británico, David Cameron. Entonces, la red social cambió sus políticas y comenzó a eliminar los “contenidos que celebran la violencia”.

Ahora que Twitter está incentivando las fotos y videos, también debería rever sus reglas, dijo Shapiro: “Necesitás una política empresarial que reconozca que las imágenes violentas pueden tener un impacto en los usuarios que las están viendo, en las personas vinculadas a dichas imágenes y en el equipo que tiene que revisar estas cosas. No podés ignorar el rol de Twitter en divulgar estos contenidos”.

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...