La denuncia señala que el gigante de la tecnología no siguió las pautas de seguridad y no ofreció apoyo adecuado a los trabajadores que revisan los videos.
Buena parte de la moderación de los videos fue recientemente encargada a máquinas, pero los sistemas mostraron falencias en la revisión de videos en YouTube.
Una exmoderadora de contenido de YouTube demanda a Google, dueño de aquel servicio, por no protegerla
adecuadamente de los potenciales daños derivados de esa tarea. Igual que otras plataformas digitales, el portal de videos cuenta con un equipo de empleados que se encargan de revisar si el contenido cumple con las normas de la plataforma para eliminar los inadecuados.
De acuerdo a CNET, la demandante señala que como resultado de su trabajo para la compañía sufre síntomas de estrés postraumático, depresión y traumas psicológicos severos.
“Tiene problemas para dormir y cuando duerme, tiene pesadillas horribles”, dice en ese sentido la demanda. “A menudo se queda despierta por la noche tratando de dormir, reproduciendo videos que ha visto en su mente. No puede estar en lugares concurridos, incluidos conciertos y eventos, porque teme a los tiroteos. Tiene ataques de pánico severos y debilitantes”, se añade.
La presentación ante la justicia señala que YouTube no siguió las pautas de seguridad y no brindó apoyo adecuado a los empleados que se ocupan de la moderación de contenido. Según consigna la demanda, esta mujer (cuya identidad no se revela) debió revisar videos que incluyeron autolesiones, suicidios, violaciones, canibalismo, decapitaciones, accidentes trágicos y tiroteos.
Los moderadores se encargan de revisar el contenido en la plataforma, exponiéndose a situaciones extremas que pueden aparecer en los videos.
La presentación ante la justicia es patrocinada por un equipo de abogados que anteriormente demandó a Facebook por descuidos del mismo orden con su plantilla de moderadores. En la ocasión, la compañía de Mark Zuckerberg pagó un acuerdo de 52 millones de dólares a los trabajadores que presentaron cuadros de estrés postraumático.
El cambio de máquinas a humanos en Youtube
Hace pocas jornadas, Financial Times publicó un informe en el que contó que YouTube decidió devolver el trabajo de revisión de contenido a moderadores humanos, luego de que los sistemas automatizados que empleó fallaran más de la cuenta.
Tal como contamos acá, cuando comenzó la pandemia Google se vio en la obligación de reducir la carga de trabajo de los 10.000 moderadores de su equipo y asignó parte de esa tarea a mecanismos robóticos. Pero la solución no fue del todo eficiente: entre abril y junio el sistema automatizado eliminó más de 11 millones de videos, una suma superior a la habitual, barriendo una gran cantidad de contenido que no infringía reglas. Es decir, arrojando muchos “falsos positivos”.
Es decir, la inteligencia artificial fue demasiado severa y provocó el enojo de muchos creadores de contenido. Desde YouTube señalaron que eran conscientes de los inconvenientes que traería aparejado el cambio: “Una de las decisiones que tomamos (al comienzo de la pandemia) cuando se trataba de máquinas que no podían ser tan precisas como los humanos, era que íbamos a errar para asegurarnos de que nuestros usuarios estuvieran protegidos, aunque eso podría resultar en un número ligeramente más alto de videos rechazados”, comentaron.