Un riesgo emergente de toxicidad en la gestión algorítmica: ¿puede la IA convertirse en mi ciberacosadora laboral? [LARPSICO]

Andalucía, 26/09/2025
Un riesgo emergente de toxicidad en la gestión algorítmica: ¿puede la IA convertirse en mi ciberacosadora laboral? [LARPSICO]

El pasado 5 de septiembre informábamos del Estudio de la Agencia Española de Seguridad y Salud en el Trabajo (EU-OSHA, por sus siglas en inglés) sobre el impacto en el estrés de la sobrecarga de gestión algoritmica en el trabajo. En realidad, no es sino uno de los riesgos que puede generar estos avances tecnológicos en un entorno social y laboral cada vez más colonizado digitalmente, como también expresaba recientemente, el día mundial de la seguridad y salud en el trabajo la OIT, con su informe 2025 en esta materia, estudio del que hemos dado cuenta también en el Boletín nº 2/2025 LARPSICO.

Que el algoritmo coloniza nuestras vidas es una evidencia y la necesidad de llevar a cabo avances o progresos para una adecuada protección de los derechos de las personas, tanto civiles como sociales y laborales también. Entre esos avances, dábamos cuenta en las referidas informaciones del reconocimiento de derechos, individuales y colectivos, de transparencia sobre los usos que se hacen de la I.A. y de la gestión por algoritmos, a fin de garantizar que no son nocivos para los derechos humanos. Recientemente, conocíamos que el propio Tribunal Supremo, sala contencioso-administrativa, dictaba una sentencia que obligaba a la Administración del Estado a facilitar, en favor de una Fundación Ciudadana (CIVIO), el código fuente de la aplicación informática, llamada BOSCO, que acredita a las personas beneficiarias del “bono social eléctrico” (STS, 3ª, 1119/2025, 11 de septiembre). Con certeza -corrigiendo las sentencias previas de tribunales inferiores que lo negaron en este caso- recordaba que:

“2.- El derecho de acceso a la información pública adquiere especial relevancia ante los riesgos que entraña el uso de las nuevas tecnologías en el ejercicio de las potestades públicas o la prestación de servicios públicos, como ocurre con el empleo de sistemas informáticos de toma de decisiones automatizadas en la actividad de las Administraciones públicas, especialmente, cuando tienen por objeto el reconocimiento de derechos sociales. En estos casos debe conllevar exigencias de transparencia de los procesos informáticos seguidos en dichas actuaciones…”.

En estos escenarios, y como el propio Convenio 190 OIT prevé, también es posible que la violencia y el acoso en el trabajo pueda producirse mediante este tipo de gestión por I.A., dando lugar a una modalidad emergente de ciberacoso en el trabajo. El peligro mayor de este tipo de acosos es que llevaría a su máxima expresión la invisibilidad que, con carácter general, tiende a acompañar a la violencia psíquica y al acoso moral laboral, en la medida en que la gestión algorítmica se articula sobre la presión psicosocial creada por el control y la evaluación constante de datos, reduciendo a las personas a una suerte de “caja abierta de datos” de todo tipo, incluidos los personales, incluso emocionales. En estos escenarios de gestión sociolaboral creciente, no solo el acoso se volvería más sutil, sino que sería aún más difícil de detectar. De este modo, el comportamiento acosador lo encontramos no en decisiones directas y tangibles de quienes ocupan la dirección, sino que estaría escrito en un “código matemático”, sin rostro ni huella que lo identifique. En consecuencia, habría emergido ya lo que podía considerarse como 'ciberacoso 4.0.'.

Recuérdese que más del 15 % de las personas ocupadas teletrabajarían ya de forma habitual, siendo, en todo caso, muy mayoritaria la población laboral que permanece en ua continua conexión fuera de su jornada, sometidas a la necesidad, si no de derecho, sí de hecho, de responder a correos, llamadas, mensajes en tiempo teóricamente de descanso. Este uso generalizado y constante de herramientas digitales someten nuestras vidas a un permanente control, mediante análisis-predicción de patrones de vida, no solo laborales, también personales. La inteligencia artificial (IA) y la gestión por algoritmos para casi todo ya intensifica exponencialmente estos controles, generando una presión intensa en las actitudes y modos de las personas, en especial en el trabajo. Desde luego así sucede netamente cuando se trabaja en plataformas digitales, pero hoy se extiende mucho más allá. Por doquier se implantan sistemas de evaluación del rendimiento profesional basado en la ultravigilancia algorítmica. Condiciona todo el proceso laboral, desde los ingresos a la permanencia, pasando por condiciones organizativas, horarios, etc.

Conviene ser precisos en esta cuestión. La gestión algorítmica de una parte muy creciente de nuestras vidas, dentro y fuera del trabajo, difumina las fronteras entre los usos legítimos y los viciados, incluyéndose entre estos la potencialidad intimidatoria, degradante y hostigadora (como evaluar a la persona trabajadora continuamente mediante medición de rendimientos y control de datos y conductas, lo que crea una presión laboral que hace del trabajo un entorno digital hostil, tan invisible formalmente como intenso). El ciberacoso algorítmico formaría parte, pues, como patrón organizacional estructural, que invisibiliza el control intimidatorio bajo la secuencia interminable de las estadísticas métricas (neo-taylorismo digital) objetivas, invisibilizando el daño psicosocial, de aquella modalidad de acoso que conocemos como acoso institucional (se trataría de una suerte de ciberacoso moral 4.0” o ciberacoso laboral institucional por algoritmos). Ahora bien, hay soluciones dentro del sistema normativo preventivo europeo y estatal, sin necesidad de estar demandando continuamente nuevas leyes, en un vicio de hiperregulación sin fin. En efecto, no tiene acogida, aún, esta cuestión en la LPRL, y debería cambiar. Pero sí disponemos de un gran conjunto de normas relativas a la protección de datos personales que sí cuentan con herramientas útiles. También el Convenio 190 de la OIT.

Desde luego, un uso social responsable de todos los sistemas digitales a efectos de prevenir el riesgo de fatiga informática, y, cómo no, de violencia y ciberacoso en el trabajo, está establecido en el art. 88 de la Ley Orgánica de Protección de Datos y Garantía de Derechos Digitales (al igual que en el art. 18 de la Ley de Trabajo a Distancia). Pero está también en el Reglamento Europeo de Inteligencia Artificial (RIA). Sin duda, se halla igualmente en el Convenio 190 de la OIT (art. 3) y se refleja en la Directiva (UE) 2024/2831 del Parlamento Europeo y del Consejo, de 23 de octubre, relativa a la mejora de las condiciones laborales en el trabajo en plataformas. En este ámbito, también vamos a encontrar regulación en el Convenio de la OIT sobre protección del trabajo en las plataformas digitales, y que verá la luz en breve.

Asimismo, en el plano de las garantías, hemos visto cómo la Inspección de Trabajo se pertrecha cada vez más con una “legión de algoritmos” para lucha más eficazmente contra los incumplimientos laborales. No le costará nada, pues, ampliar su alcance para supervisar también los algoritmos corporativos. Al igual que acabamos de reconfirmar la importancia de la transparencia de la gestión algorítmica para visibilizar esos impactos, sea de los sistemas informáticos sea de las propias redes usadas para la comunicación en todos los ámbitos, más si tienen impacto en los derechos sociales, como dice el TS. Sin duda, la protección de las personas trabajadoras frente a la violencia digital y el ciberacoso algorítmico o por I.A. (al igual que frente a la fatiga informática o estrés de I.A.) forma parte de las garantías esenciales, en entornos digitales (laborales y extralaborales), del derecho a la seguridad y salud, en especial psicosocial, de las personas.

Como las direcciones y jefaturas, de las que hablamos en una entrada anterior, los modelos de gestión por algoritmos viciados o tóxicos existen en la realidad cibernética de nuestro tiempo, que impacta en la integridad y bienestar de las vidas de las personas, no son en absoluto “ciencia-preventiva ficción”. Fuera del entorno laboral la constatación es diaria, a través de los usos extendidos intimidatorios y acosadores de las redes sociales. Pero también se halla, más difusos, en los sistemas digitales de control laboral, a través de diferentes vías, como calificar usuales “errores laborales” como fallas graves de los estándares de productividad, el continuo recurso a rankings que fomentan competencia desmedida, etc. Difícil de denunciar, sus huellas psicosociales son profundas a medio y largo plazo, más si no se facilitan mecanismos y apoyos de adaptación: ansiedad, burnout, bajas prolongadas, absentismo laboral, pérdida de confianza mutua, en el entorno laboral, un crecimiento exponencial de las bajas voluntarias (más de 3 millones en 2024, todo un récord histórico)…

La IA tiende a presentar una imagen de la persona en general, y trabajadora de forma particular, reducida a pura “caja de datos personales” a explotar de forma continua e intensiva por un artificial sistema métrico-predictivo basado en parámetros de productividad, ajeno a imperativos de ética sociolaboral- El futuro del trabajo corre el riesgo de edificarse sobre jirones de deshumanización, carente del más mínimo resquicio de empatía en el modo de gestión de personal, con límites difusos en sistemas puramente métricos. No es tanto una cuestión de más leyes, renovadas profundamente en estos años, sino de una visión más proactiva de sus límites y obligaciones, primando la prevención.

Información de autoría
Correo electrónico
Teléfono
953 212 082
Información adicional

Horario de atención telefónica: 09:00 a 14:00 horas

Compartir en

Índice