¿Genera la IA 'niebla mental' en las personas trabajadoras e intensifica su fatiga informática?: Sí, según un estudio de Harvard [LARPSICO]

Andalucía, 25/03/2026

La IA, 'villana' o 'heroína'

La Inteligencia Artificial (IA) ¿'villana' o 'heroína' para las personas en sus trabajos? Como toda gran invención humana, la Inteligencia Artificial (IA), cuya presencia coloniza ya todas nuestras esferas de vida, social y laboral, lamentablemente, es digna de lo mejor para el progreso humano (reducción de los esfuerzos más penosos, mejora de la predicción de soluciones a problemas humanos graves, como las enfermedades, nuevas oportunidades para empleos cualificados, etc.) y también de lo peor, al reforzar las conductas más peligrosas del ser humano (ej. ciberdelincuencia, odio, explotación digital extrema, etc.). Por lo tanto, la tecnología digital se ve como “factor revolucionario en la organización del trabajo”, por lo que aquí interesa, pero también actúa como fuente de riesgos, algunos específicos, como la denominada “fatiga digital”. A ella hemos prestado atención desde el LARPSICO, a través de la FCT-P 2/02-2022: Fatiga informática y desconexión digital en trabajo: protocolos de salud.

  • Bajo la promesa de una productividad casi ilimitada y una liberación de las tareas más tediosas, con frecuencia se oculta una realidad bien diferente, sino opuesta. De modo que el uso intensivo, casi constante, de las tecnologías digitales, no solo de la IA, presentado a menudo como el gran “bálsamo de fierabrás” contra la penosidad y el agotamiento humanos por el trabajo (físico), lleva un tiempo mostrándonos su cara oculta, la del “agotamiento psicosocial”. La literatura y la filosofía llevan tiempo avisándonos de los peligros de la sobrecarga digital y su instrumentalización al servicio de la maximización del rendimiento. Seguramente la obra más conocida es la del filósofo coreano recriado en Alemania, H. Byung Chul y su célebre explicación de cómo estamos pasando desde la “sociedad del rendimiento” a la “sociedad del cansancio” a través de los auténticos “caballos de Troya” que encierra la digitalización constante de nuestro trabajo. La conectividad permanente muta en disponibilidad laboral continua, por lo que la omnipresencia digital difumina las fronteras entre los tiempos de trabajo y los de no trabajo (ocio, descanso), de modo que cualquier tiempo y cualquier lugar tiende a ser propicio para el trabajo, incluyendo formas de “auto-explotación”.

El uso de la IA en el trabajo genera niebla mental y fatiga emocional

El uso intensivo de la IA en el trabajo genera niebla mental y fatiga emocional. Pero no es sólo filosofía social, los estudios científicos refuerzan esta comprensión de un tiempo excesivo de exposición no ya solo a la telemática o digitalización, sino a su fase superior de uso de la IA. Un estudio realizado por la siempre prestigiosa Universidad de Harvard evidencia que el uso intensivo de los dispositivos de IA en los tiempos de trabajo genera un estado de niebla mental que termina perjudicando la salud mental de las personas empleadas. Más concretamente, el estudio de Harvard Business Review titulado “When Using AI Leads to “Brain Fry”, algo así -en versión algo libre, pero gráfica- como “cuando la IA te fríe el cerebro”, publicado en marzo de 2026, identifica en estos usos intensivos herramientas de IA un potente factor de riesgo de “niebla cognitiva” y fatiga mental.

  • La ciencia ético-social vuelve a mostrar el reverso tenebroso de la fuerza, la cara amarga de la revolución fascinante prometida: la "fatiga mental por IA" o "AI Brain Fry" (cerebro frito por IA). De nuevo, la mejora tecnológica de la productividad se realizaría a través del incremento de la carga cognitiva o mental de quienes la usan a diario. El fenómeno añade una capa de complejidad técnica, porque se pasa del agotamiento por repetición (típico del taylorismo de mediados de siglo XX) al “agotamiento por hipervigilancia” o supervisión digital. El caso típico es el de las plataformas como Gas Town (la persona trabajadora coordina enjambres de agentes a velocidades que superan la capacidad de procesamiento humano), sin duda la imagen de la insostenibilidad cognitiva del trabajo humano. Cuando la empresa usa métricas como el consumo de tokens o las líneas de código generadas, como sucede en gigantes como Meta, no se está evaluando la eficiencia, sino la capacidad de resistencia del sistema nervioso de la plantilla, nos dicen estas investigaciones.
  • Además, en estos casos el esfuerzo mental no se reduce, se intensifica hasta un 14% debido a esa supervisión constante de la IA y, dispara la sobrecarga de información casi un 20%, según el referido19% según el citado estudio de la Universidad de Harvard. El resultado es una persona profesionalizada con graves dificultades para la toma de decisiones ocasionada a causa de la "niebla mental" de un sistema operativo por encima de las capacidades biológicas de las personas, al menos a medio y largo plazo.

Teoría de los rendimientos decrecientes

El "redescubrimiento de la teoría de los rendimientos decrecientes” en su versión IA. Es en este punto donde estas investigaciones ofrecen un resultado muy revelador y que, pese a su originalidad, recuerda una “ley” sabida desde hace tiempo. El estudio presenta como descubrimiento “crucial” la ruptura de la curva de productividad. Viene a significar que usar dos herramientas de IA puede ser beneficioso, si se mantienen ciertos equilibrios, pero la incorporación de una tercera implicaría una inflexión. La multitarea algorítmica sería no solo nociva para la salud, sino que termina produciendo resultados improductivos.

  • En cierto modo nos recuerda a la célebre “ley económia de los rendimientos decrecientes”, según la cual, a partir de un determinado momento, añadir más recursos a un proceso de producción no solo no aumenta el rendimiento, sino que lo reduce. Ante esta situación es vital distinguir entre:
    • IA como herramienta de ayuda: Cuando sustituye tareas mecánicas, reduciendo el agotamiento mental en un 15%.
    • IA como estresor agudo: Cuando exige monitorización constante, provocando fatiga por toma de decisiones y aumentando la posibilidad de cometer errores hasta un 39%.

Medidas preventivas

El tiempo de las medidas preventivas para evitar que la supervisión por IA termine generando fatiga mental humana. La “niebla mental” y/o "cerebro frito" supone, lógicamente, un coste humano inasumible, pero también económico a medio y largo plazo. Su sintomatología lleva a estas personas a incrementar su deseo de cambiar de trabajo. No es falta de talento, es una respuesta biológica a un entorno que rompe el cerebro. En definitiva, los nuevos modelos de supervisión por IA deben tratarse como un factor de riesgo más asociado a la fatiga mental digital o informática, de índole organizacional, no debido a eventuales “debilidades cognitivas” humanas.

  • La empresa, a través de los instrumentos de los sistemas preventivos de riesgos laborales deben establecer límites de control, requerir incluso cambiar el tipo de métricas, de modo que no se atienda solo a la "intensidad" sino a sus "impactos" (al igual que se pide para el diseño de los sistemas automatizados en los derechos de protección de datos, por ejemplo) y fomentar una higiene cognitiva real. Si no protegemos nuestra atención de la "estática mental" derivados de la gestión por algoritmos, la gran promesa de la eficiencia terminará en un colapso sistémico del talento. Cabría decir que, sin la protección de la salud mental a medio y largo plazo, poca funcionalidad cabe esperar a medio plazo del algoritmo y la IA, salvo, claro, que se tenga una visión de lo humano como un clínex, de usar y tirar cuando esté “mentalmente frito”, reemplazándolo por otra persona o, peor, por un robot.

Ante este panorama, que no es de pura ciencia preventiva ficción, ni distopia pura, cabe exigir que las organizaciones diseñen y pongan en prácticas, a través del sistema preventivo ex art. 16 LPRL, estrategias para un uso más equilibrado de la inteligencia artificial con las capacidades humanas. Esto incluye, entre otras medidas, el diseño de herramientas más intuitivas y reducir la cantidad de tareas que requieren supervisión constante

Información de autoría
Correo electrónico
Teléfono
953 212 082
Información adicional

Horario de atención telefónica: 09:00 a 14:00 horas

Compartir en

Índice