Empleada en la oficina de Manila, Filipinas. Registrada por Moises Saman para Magnum

Tecnología > VULNERABLES

Las secuelas de trabajar como moderador de contenido online

Tras una exposición constante, las personas que filtran el contenido violento, pueden sufrir problemas psicológicos
Tiempo de lectura: -'
15 de mayo de 2017 a las 05:00

La semana pasada, Facebook anunció que iban a contratar a 3 mil nuevos moderadores para vigilar el contenido indebido en su red social, cifra que se suma a los ya 4 mil empleados que tiene en el mundo para esa función. Su objetivo es, principalmente, que no se vuelvan a emitir en directo asesinatos o abusos sexuales.

Hasta que la inteligencia artificial no haya avanzado lo suficiente, los robots no podrán sustituir a las personas que hoy en día ejercen de filtro. Lo que supone una preocupante consecuencia, ya que muchos de los empleados que eliminan el contenido violento tienden a sufrir problemas mentales.

La revista Wired, unos años atrás, documentó algunos de estos casos de primera mano.

Jake Swearingen abandonó el trabajo al poco tiempo de aceptarlo, porque le daba miedo inmunizarse o verse trastornado por el contenido con el que estaba tratando a diario. Según contó a la revista, en su tercer día se topó con el video de una decapitación, sorprendido lo comunicó en voz alta, a lo que un compañero le respondió "Oh, ¿cuál de ellos?". Fue en ese momento que decidió renunciar. "No quería echar la vista atrás y ver que me había inmunizado tanto como para hacer chistes o ironizar sobre las cosas horribles que estaban sufriendo estas personas", admitió.

"Todos se cansan, generalmente entre tres y cinco meses" dijo a Wired un ex moderador de YouTube que prefirió el anonimato. "Uno empieza a pensar, 'Dios mío, en qué estoy gastando mi día. Esto es horrible'".

ff_contentmoderation3_g.png
undefined

Por alguna razón, lo que más te duele es presenciarlo desde la mirada orgullosa de la persona enferma. Te da una visión mucho más oscura de la humanidad".

Rob (como lo bautizó el autor del reportaje) empezó a trabajar en 2010. Recién graduado, este sería su primer trabajo. Lo entrevistaron e inmediatamente fue contratado. "Estaba bastante emocionado. El dinero era bueno, y además YouTube se vería muy bien en mi curriculum", contó.

Durante los primeros meses no le importaban los videos que tenía que mirar diariamente. Tenía dos pantallas, en una el contenido a monitorear, mientras que en la otra podía hacer lo que quería, como mirar series, por ejemplo. Un trabajo soñado. Pero al pasar los meses, ya no podía ignorar las violentas peleas callejeras, torturas de animales, atentados suicidas, decapitaciones y accidentes de tránsito explícitos. La primavera árabe estaba en pleno auge y abundaban los primeros planos de cadáveres, protestas violentas en todo su esplendor, así como el caos y la miseria en general.

"Si alguien subía abuso animal, la mayoría de las veces era el propio autor y estaba orgulloso. Por alguna razón, lo que más te duele es presenciarlo desde la mirada orgullosa de la persona enferma. Te da una visión mucho más oscura de la humanidad", compartió Rob.

El artículo además indicaba el salario promedio por esta tarea: US$ 300 al mes. Es una cifra insignificante, pero en los países donde se encuentran estas oficinas, es un sueldo normal. Una de estas sedes se encuentra en Manila, Filipinas. No está claro dónde se llevará a cabo la moderación de directos recientemente anunciada por Mark Zuckerberg, CEO de Facebook.

ff_contentmoderation5_g.jpg
undefined

A juicio

Microsoft, por ejemplo, tenía un departamento dedicado a borrar imágenes y videos indebidos de su buscador Bing. Por cierto, esta empresa fue denunciada por no prestar ayuda psicológica a dos de sus empleados. Los demandantes, Henry Soto y Greg Blauert, afirman que las secuelas, luego de trabajar tres años a cargo del departamento, fueron de tal gravedad que no pudieron reincorporarse a sus puestos tras una baja médica causada por sus responsabilidades.

El trabajador ni siquiera depende de la compañía para la que realiza estas censuras. Si existe un problema con la salud mental de los moderadores, al final no es Facebook ni YouTube ni Microsoft, quien se responsabiliza de ellos, sino la tercera compañía que han contratado.

Concluyendo, la cuestión de cómo se trata a este personal no es menor, sino igual de crucial como los esfuerzos por impedir que el contenido inapropiado llegue a nuestro feed, entre las fotos de mascotas y asados familiares.

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...