Por Gemma Galdon Clavell, Héctor Ortega Sánchez
La tecnología no nos salvará.
David Lyon
1.- Introducción
Cuenta E. P. Thompson (1967) que cuando los relojes se generalizaron en las fábricas, como forma de controlar la jornada, los empleadores movían las manecillas para que los obreros trabajaran más horas sin darse cuenta. Los relojes no se habían desarrollado como tecnología anti-obrera y en realidad su proliferación abrió la puerta a la protección de los derechos laborales, al permitir teóricamente que los trabajadores controlaran y denunciaran excesos de jornada. Pero este es un buen ejemplo de cómo el impacto real de la tecnología no está determinado por sus capacidades intrínsecas, sino por las relaciones de poder en las que se introduce. El ejemplo del reloj de E. P. Thompson muestra claramente que, en un contexto de desigualdad material, la tecnología acabará siempre beneficiando al que ostenta ese poder.
El impacto real de la tecnología no está determinado por sus capacidades intrínsecas, sino por las relaciones de poder en las que se introduce.
Con el desarrollo acelerado de las nuevas tecnologías desde la segunda mitad del siglo XX, y sobre todo en los últimos años, con la eclosión de los algoritmos y la inteligencia artificial, los retos de la incorporación de estas tecnologías en entornos laborales son cada vez más perentorios. No obstante, dilucidar cuáles son esos retos, o incluso cuáles son los procesos tecnológicos relevantes, no es tarea fácil. La tecnología ha jugado históricamente a juegos de espejos, al presentarse como una solución mágica y neutra, in‐ cuestionable, pretendiendo desconectarse de las circunstancias y los contextos sociales concretos en los que se desarrolla. Un halo de misterio y necesidad siempre ha acompañado a la tecnología; en 1770, por ejemplo, se presentó en Viena, ante la corte de la emperatriz María Teresa de Austria, el “Turco”, un autómata in‐ ventado por el húngaro Wolfgang von Kempelen capaz de vencer a los mejores ajedrecistas del imperio. Esa “inteligencia artificial” causó tal fascinación que anduvo de gira varios años entre Europa y América, llegando a vencer a los mismísimos Benjamín Franklin y Napoleón Bonaparte.
Sin embargo, unos lustros después, se acabó descubriendo que, en realidad, el Turco escondía a un maestro ajedrecista que se situaba en el interior de la mesa y que, mediante un sofisticado mecanismo de juego de espejos, ruedas dentadas y poleas, quedaba oculto a la vista del público. Ese ajedrecista era el encargado de mover los brazos del “autómata”, con lo que detrás del artificio tecnológico se escondía en realidad un trabajador del ajedrez. Resulta cuanto menos irónico que siglos después Jeff Bezos, el fundador de Amazon, decidiera llamar “Mechanical Turk”, el turco mecánico, a su plataforma de microtareas a través de la cual miles de personas de todo el mundo contribuyen al funcionamiento de la tecnología más puntera, ya sea clasificando imágenes, visualizando vídeos o realizando las llamadas que, teóricamente, realizan inteligencias artificiales de uso cotidiano, como los asistentes personales (Alexa, Siri, etc.)1. Los turkers realizan tareas simples, a bajo coste, que requieren un nivel de inteligencia que las máquinas no pueden realizar, es decir, dan soporte a la IA (inteligencia artificial) y a veces, incluso, la sustituyen.
De la misma forma que el Turco necesitaba de un ajedrecista que entre bambalinas era la clave para el funcionamiento del invento, la IA de hoy oculta a miles, millones de “trabajadores del clic” que, anónimamente, hacen viables muchos de los algoritmos y aplicaciones que nos rodean; las que, al mismo tiempo, están trasformando bruscamente no solo las demás actividades productivas, sino también la manera en que nos relacionamos socialmente.
La relevancia de ejemplos como el de los relojes y el Turco anticipa ya que no todos los retos a los que nos enfrentan las nuevas tecnologías son nuevos. Pero sí que es necesario avanzar en esfuerzos de conceptualización de las dinámicas tecnológicas actuales y sus impactos en el mundo del trabajo. Para el objetivo de este libro, es importante arrojar luz sobre los retos que plantea la introducción de la IA y otras tecnologías innovadoras en las relaciones laborales y, específicamente, en la participación de trabajadores y trabajadoras en los procesos de toma de decisión respecto a la producción y las condiciones laborales. Los ejemplos que abren este capítulo apuntan ya a dos retos clave: el determinante contexto de las relaciones de poder y la opacidad de los sistemas que dan vida a las decisiones algorítmicas.
2.- Estructura y objetivos
En este artículo recogemos las principales inquietudes que suscitan las nuevas herramientas tecnológicas en el mundo del trabajo. Para ello, realizamos una breve exposición de la evolución tecnológica reciente, pasando a continuación a presentar las implicaciones y riesgos que para las personas trabajadoras pueden suponer. Primero centrándonos en trabajos estándar, a continuación, comentando brevemente los trabajos atípicos que emergen al albor de la economía de plataformas, y, finalmente, abordando los retos que el impacto de las nuevas tecnologías tiene sobre las dinámicas de participación en el ámbito laboral.
Planteamos un enfoque que se aleja de los discursos tecnofóbicos, pero también del tecno-optimismo (Cockshot y Nieto, 2017; Alboleda, 2021; Bastani, 2019) que ve en las herramientas tecnológicas oportunidades de replicación política con carácter social; de la misma manera, mantenemos diferencias con el neo‐ ludismo que ve en el conjunto de estas herramientas una “jaula de oro” artificial que estaría limitando las capacidades organizativas humanas (Silvestri, 2021). La cuestión, entendemos, es previa a estas posiciones maximalistas. Cabe preguntarse: ¿son realmente lo que creemos las nuevas tecnologías tal y como se suelen presentar?, ¿son los problemas que detectamos una cuestión del modo de producción o es la misma herramienta la que implica externalidades y deficiencias graves o son ambas? Pues una de las preocupaciones que ha emergido durante la pandemia de la COVID‐19 y tras ella frente a ese optimismo tecnológico es:
¿Dónde están los frutos de años de inversión y promesas sobre las contribuciones de la tecnología a mejorar nuestras sociedades y sus procesos? ¿Dónde está la inteligencia artificial, los robots, los datos que teóricamente llevan décadas ayudándonos a tomar mejores decisiones?
[…] todo lo que no está. ¿Dónde están los frutos de años de inversión y promesas sobre las contribuciones de la tecnología a mejorar nuestras sociedades y sus procesos? ¿Dónde está la inteligencia artificial, los robots, los datos que teóricamente llevan décadas ayudándonos a tomar mejores decisiones? ¿Dónde están las “Smart cities” y sus promesas de mejora de la calidad de vida y la calidad democrática cuando miles de personas han necesitado apoyo más que nunca? ¿Dónde están las herramientas de “evidence‐based” y “data‐driven policy”, los cuadros de mando, los costosos softwares de respuesta a emergencias, las apps y sistemas digitales de mejora de la relación entre administración y ciudadanía que nos habían convertido ya, teóricamente, en ciudadanos virtuales? ¿Cómo es posible que en el siglo XXI de Silicon Valley el mundo se esté enfrentando a una pandemia global con herramientas propias de la Edad Media? (Galdon Clavell, 2021).
En el contexto que nos ocupa, en definitiva, no entendemos cómo es posible que, después de años de teorizar sobre el potencial liberador de la tecnología, el debate laboral alrededor de sus impactos recupere reivindicaciones teóricamente consolidadas, como el derecho a contar con un contrato reconocible, un registro horario o no cobrar menos por ser mujer, es decir, derechos laborales básicos. Ya no digamos conocer cómo se toman decisiones importantes, como puedan ser un aumento de salario o un despido mediante algoritmos. El reto es amplio, consolidar y extender los derechos precedentes, mientras se lucha por incorporar nuevos derechos ante los desarrollos tecnológicos.
El objetivo del texto, por tanto, es tratar de concienciar a los agentes sociales, civiles y políticos sobre un necesario replanteamiento del uso de la tecnología. Como veremos, existe una colusión entre abuso, especulación e irrealidad que está impactando con gran intensidad en las relaciones sociales y laborales, y que puede desorientar a la reivindicación de una aplicación más pragmática y realista, y por tanto justa, de estas herramientas. Pretendemos proporcionar una perspectiva más robusta desde la que enfocar y abordar la conquista de nuevos derechos digitales, posibilitando una mayor participación, tanto en ámbitos sociales como laborales. Aunque aquí, principalmente, tratemos de estos últimos, las analogías y paralelismos con la vida cotidiana y pública son claramente evidentes.
3.- Tecnología y trabajo
La irrupción de las nuevas tecnologías en el mundo del trabajo no representa una novedad en general. Las capacidades humanas y las maquínicas han sufrido varias etapas de “acomodación”. Son sobradamente conocidos los comienzos y la evolución de la industrialización, que abarca desde la mecanización del taller artesanal en la Primera Revolución Industrial (1771), basada en el movimiento por vapor de agua y el ferrocarril, a la posterior electrificación, el uso del petróleo y la producción en masa en la Segunda Revolución Industrial (1875), representada paradigmáticamente por el taylorismo, hasta llegar a la Tercera Revolución Industrial, con la electrónica, la informatización, la comunicación y la información (1973). Desde esa fecha, algunos mantienen que estaríamos insertos en una cuarta revolución industrial, alentada por desarrollos exponenciales en las tecnologías cibernéticas: internet de las cosas, la nube, la robótica, el blockchain, el big data, la computación cuántica o el incremento de la capacidad y rapidez en las redes: 3G, 4G y 5G. Otros, no obstante, cuestionan la materialidad de algunas de las promesas de esos avances tecnológicos, y ven en estos inicios del siglo XXI la evolución previsible de la Tercera Revolución industrial.
Estemos en los estertores de la tercera o en los albores de la cuarta, el actual régimen laboral posfordista o postaylorista, marcado por el paso tecnológico hacia la computación y la información, ha tenido profundas consecuencias para los mercados laborales, desplazando empleo entre sectores productivos, dando pie a la irrupción del management en las organizaciones empresariales e iniciando un proceso de debilitamiento del Estado de bienestar fordista. Los programas políticos vinculados al neoliberalismo han promovido la desinversión en vivienda, educación, investigación e industrias públicas, y han privatizado amplios servicios básicos, como la sanidad, el agua, el transporte y las comunicaciones. Este contexto ha llevado a una depreciación de ciertas garantías que se creían consolidadas sobre estándares de vida ciudadanos y derechos laborales, resintiéndose con ello el sistema democrático, en el que se va perdiendo la confianza, alejando a los ciudadanos y trabajadores de los canales clásicos de participación política y laboral.
A través de este nuevo proceso de producción, basado en la información y en la computación, para algunos la era del “capitalismo biocognitivo” (Fumagalli, 2020), entraríamos en una fase de hibridación productiva en la que las personas quedan expuestas en lo más profundo de sus vidas a la mercantilización: desde los medios de reproducción de la vida a los de producción de los objetos, hasta llegar a la mercantilización del “sentimiento” mediante el consumo y el ocio a través del control de los datos que generamos. El papel central de la tecnología en los cambios sociales, económicos y políticos actuales ha quedado establecido inexorablemente, ante lo cual han emergido diferentes propuestas de respuesta al reto tecnológico en el mundo del trabajo y sobre los derechos laborales. Así, desde el neooperaísmo italiano, por ejemplo, se ha propuesto que la capacidad tecnológica, general intellect, pueda ser empleada para profundizar en los estándares de bienestar social y laboral, y no solo en la dirección de la explotación y de la exclusión, incluso con el fin utópico de poner fin a las ataduras laborales. No obstante, entrando ya en la segunda década del siglo XXI parece evidente que la celebración de la tecnología como medio de liberación que ha dominado gran parte del discurso industrial, y que profetizaba en los años setenta y noventa del siglo XX que mediante el uso de internet entraríamos en una nueva fase de derechos civiles, de mejoras laborales, de transparencia y de capacidad cooperativa que mejoraría nuestras democracias, subestimó en gran medida la capacidad de los empleadores para manipular las manecillas de los relojes. Así, lo que se vendía como una liberación al alcance la mano, a través de “todo este conocimiento objetivado en las máquinas” (Virno, 2020) que estaba generando un excedente en el tiempo de trabajo, en vez de traducirse en riqueza social y tiempo libre, se ha traducido en nuevas formas de dominación en las que la persona trabajadora “cognitiva” y, como ella, todas las demás, es sobreexplotada, tanto en sus relaciones laborales como en las sociales.
Hoy en día todas las tecnologías que se introducen en los entornos laborales refuerzan en mayor o menor medida el poder y la capacidad de control de los empleadores, contribuyendo de esta forma activamente al deterioro de las capacidades de los trabajadores y trabajadoras para conquistar espacios de poder y participación en su lugar de empleo. La posibilidad de revertir esa tendencia sólo podrá nacer de la inversión en conocer el “espíritu” de la máquina2, sus juegos de espejos, como fase previa y necesaria para realizar un buen diagnóstico de la situación y medir las posibilidades para conseguir cambios reales.
Establecida esta serie histórica, pasamos ahora a analizar de qué formas concretas las nuevas tecnologías, y especialmente los algoritmos de inteligencia artificial, influyen en las dinámicas de las relaciones laborales, e incluso pueden llegar a determinarlas.
4.- Algoritmos: automatización de la selección, el desempeño y la producción
En la era de la información, todo está “datificado”. Toda actividad humana o logística, incluidas las relaciones e interacciones sociales, generan un rastro de datos que puede ser recogido y analizado para tomar decisiones, en un proceso que denominamos genéricamente big data. A esa “datificación” y al uso de los datos para tomar decisiones se les ha añadido más recientemente el uso de algoritmos de aprendizaje automático (machine learning) que llevan el análisis de datos más allá del big data y que, mediante reglas estadísticas y probabilísticas aplicadas a esa enorme cantidad de datos precedentes, identifican patrones, optimizan procesos y formulan predicciones en actividades tan diversas como la producción, el trabajo, el consumo, la movilidad, las necesidades sanitarias, las coberturas de las aseguradoras, los resultados académicos, etc.; cuando no buscan, además de predecir, influir y reconducir las conductas, al utilizar las previsiones para canalizar objetivos comerciales, policiales, farmacéuticos, sanitarios, electorales, laborales, etc.
Los sistemas algorítmicos son esencialmente árboles de decisiones en los cuales, en su evolución más compleja (aunque poco habitual en entornos cotidianos), las llamadas “redes neuronales” avanzan hacia la toma de decisiones autónomas o semiautónomas, creando lo que se ha definido como “cajas negras” (Pasquale, 2015), puesto que, debido al gran volumen de datos procesados y a las diferentes funciones que intervienen en el proceso, a menudo es difícil conocer con certitud el motivo concreto de una decisión específica. Así, alguien es contratado o despedido “porque lo dice el algoritmo”, sin que a menudo ni candidato ni empleados conozcan los parámetros tomados en cuenta para tomar tal decisión, puesto que esos fueron establecidos por un desarrollador externo cuyo rol terminó al entregar el sistema algorítmico al empleador, y cuya visibilidad sobre los procesos de datos ulteriores es también limitada. Por tanto, la decisión del algoritmo queda oculta ya no solo para el usuario que se ve afectado por la decisión, sino incluso para el implementador del sistema y para el propio desarrollador o desarrolladora, que no tienen acceso al nexo causal de responsabilidad en la iteración, pues ¿de quién será la responsabilidad de una mala decisión adoptada por un algoritmo que toma decisiones mediante un modelo de autoaprendizaje opaco o cuyos parámetros ya nadie recuerda?
Existen tres grandes procesos o “momentos” vinculados al trabajo en los que los algoritmos de inteligencia artificial juegan un papel creciente: la selección de personal, la evaluación del desempeño y la organización de la producción. Desde que comienza la búsqueda de empleo, tanto para el oferente como para el solicitante de empleo, existen en la actualidad múltiples herramientas tecnológicas que ofrecen mejorar el proceso de búsqueda y selección de perfiles a través del big data y la IA. Estas soluciones prometen la eliminación de los sesgos humanos del proceso. No obstante, la realidad es que estas soluciones a menudo lo que hacen es reproducir los sesgos del contexto social. Varios estudios han constatado que los algoritmos reflejan y perpetúan sesgos, desigualdades y discriminaciones, pues los datos que se usan para entrenar al algoritmo pueden ser no representativos, o los modelos algorítmicos elegidos pueden dejar fuera sistemáticamente atributos menos habituales, pero no por eso indeseables. La dificultad es todavía mayor, pues, aunque uno pretenda excluir o deshacerse de criterios como el género o la etnia en los procesos de programación de los algoritmos, los datos subyacentes a tales atribuciones son múltiples y tienden a correlacionarse, como pueden ser, por ejemplo, la etnia con el idiolecto, la residencia con el nivel de renta, la flexibilidad horaria con el género y la maternidad, la alimentación con una determinada religión, los hobbies con la orientación sexual, etc. Y se acrecienta, y se problematiza aún más la situación, si tenemos en cuenta la reciente doctrina jurisprudencial conocida como discriminación por asociación, que implica que el perjudicado por la discriminación no sea directamente alguien que pertenezca a un colectivo vulnerable, sino que la discriminación puede sucederle a alguien al que se le relacione o asocie a un colectivo históricamente discriminado, sin ser él o ella misma un sujeto tipo del mismo. Con ello se encadenan sesgos sociales e históricos que, incorporados a las bases de datos, son reproducidos por los algoritmos, que pueden acabar determinando las oportunidades laborales de millones de personas.
Hasta aquí nos hemos referido al momento de la búsqueda de empleo, que es solo la primera de las fases de la criba. Estos procesos, además, se siguen de una evaluación detallada, entrevista personal y contratación definitiva en los que pueden replicarse los mismos sesgos, discriminaciones y disfunciones, que hemos visto, escondidas tras la pretendida neutralidad de la tecnología.
A la par, durante la propia actividad laboral, las tecnologías algorítmicas encuentran crecientes usos también en la evaluación del desempeño de trabajadores y trabajadoras, tanto en la evaluación técnica del rendimiento como en la supervisión del desempeño laboral. La jerarquización del mando siempre ha implicado labores de vigilancia con diferente intensidad (Ball, 2010), pero el salto cualitativo actual reside en la extensión e intensificación de la monitorización a tiempo real de los trabajadores y trabajadoras a través de múltiples sistemas de recopilación de datos. El control algorítmico actual es más “amplio”, “instantáneo”, “interactivo” y “opaco” (Kellogg, Valentine y Christin, 2020). Así, hoy en día se encuentra a disposición de las empresas una amplia gama de sensores y dispositivos, como las cámaras de videovigilancia y los dispositivos de audio, que ya no solo generan alertas cuando alguien las visualiza, sino que, mediante algoritmos con patrones de reconocimiento de movimiento y de voz, pueden avisar de conductas que se entiendan inapropiadas sin intervención humana; los dispositivos móviles con geolocalización y registro de la movilidad; los dispositivos biométricos de identificación y control de la presencia; los software de procesamiento de lenguaje natural para revisar y cribar e-mails, chats y comunicaciones para evaluar no ya solo el desempeño, sino el estado anímico, la fidelidad o el compromiso de las personas trabajadoras, y un largo etcétera. Estos sistemas, como decíamos, son instantáneos en su retroalimentación en tiempo real, son interactivos, en cuanto que tanto empleados como empleadores entran en contacto con el sistema a través de su uso, y están programados para ser opacos, puesto que limitan la visión y el conocimiento sobre su funcionamiento a determinados perfiles de usuarios, escudándose en el secreto comercial, la propiedad intelectual, las relaciones jerárquicas o las necesidades de la producción (Burrell, 2016). Más allá de los temas de opacidad y discriminación, esta presión organizativa y disciplinaria puede acabar derivando en pérdidas significativas de autoestima, aumentando el sentimiento de vulnerabilidad y disminuyendo la creatividad, provocando tecnoestrés, síndrome del burnout (trabajador quemado) o tecnoadicción. No hay que olvidar que estos dispositivos también son una manera de vigilar y castigar, de reemplazar y recompensar. Los algoritmos determinan qué personas trabajadoras podrían o deberían ser despedidas o sancionadas, premiadas o compensadas, con lo que estos sistemas tecnológicos acaban tomando decisiones de enorme trascendencia sobre las personas trabajadoras, sin que estas, a su vez, cuenten con los medios o posibilidades para escrutar los motivos o datos que han llevado a tal toma de decisiones.
Finalmente, existe un tercer ámbito de penetración de los algoritmos en los entornos laborales: la organización de la producción. Estas nuevas tecnologías han posibilitado la emergencia de una nueva realidad empresarial, la economía de plataformas, alrededor de la cual se han estructurado la mayor parte de los debates públicos y políticos sobre el impacto de la tecnología en el trabajo. La economía de plataformas, siguiendo a Casilli (2019), se ha impuesto desde mediados de la década del 2000 para calificar a las empresas de servicios de emparejamiento de información, relaciones y bienes en los que “la automatización se reduce a una fórmula simple: una fachada con un ingeniero que presume de las proezas de su máquina y una trastienda donde los trabajadores llegan hasta la extenuación por cumplir las microtareas”. El éxito de las plataformas ha consistido en su eficacia al reducir, gracias a los datos y la IA, los costes de transacción, ya que la búsqueda de información y la contractualidad en las operaciones es inmediata y simplificada. Así, la novedad del modelo de las plataformas radica en la capacidad para sincronizar a sus usuarios mediante mecanismos de coordinación algorítmicos, en donde las plataformas introducen el trabajo del usuario y de los empleados, colusionando, a través de la opacidad del algoritmo, los derechos del consumidor con los de los productores y alejándose así de los modelos tradicionales de empleo para generar “trabajos digitales”: trabajo bajo demanda, microtrabajo o trabajo en redes sociales.
Las tecnologías de IA y los algoritmos, pues, acompañan a las personas trabajadoras y su recorrido laboral de principio a fin, generando nuevas posibilidades de interacción y relación, pero también de control y opacidad. El carácter final y el impacto de esas posibilidades intrínsecas que nos brinda la tecnología, no obstante, vendrá determinado por factores externos a estos dispositivos, relacionados con el momento concreto del diálogo social, el contexto político y la capacidad de negociación de la fuerza de trabajo.
5.- Digitalización y participación
En el contexto político, económico y social actual, la tecnología, lejos de acercarnos al fin del trabajo, como preconizan desde los sectores más tecnooptimistas, está agudizando dinámicas de falta de transparencia, discriminación y desequilibrios de poder. A menudo, los algoritmos, al ser opacos para los trabajadores y trabajadoras, son manipulados de formas parecidas a como aquellos empresarios del siglo XIX manipulaban las manecillas de los relojes. Otras veces, los algoritmos de inteligencia artificial no son más que artefactos que esconden dinámicas de decisión tomadas lejos de la visión de aquellos a quienes afectan estas decisiones, a imagen y semejanza de aquel avezado jugador de ajedrez que se escondía detrás del Turco.
En el contexto político, económico y social actual, la tecnología, lejos de acercarnos al fin del trabajo, como preconizan desde los sectores más tecnooptimistas, está agudizando dinámicas de falta de transparencia, discriminación y desequilibrios de poder.
Así, mediados por algoritmos y datos sobre los que pocos tienen control, los mecanismos de participación efectiva de trabajadores y trabajadoras se dificultan, cuando no se imposibilitan absolutamente, en estos nuevos entornos digitalizados. Así, la delegación de decisiones tan importantes como la contratación y despido, la valoración del desempeño o la organización de la producción se basan en complejos sistemas de datos cuyas lógicas y procedimientos —el código— no son conocidos a menudo ni por la propia empresa, ya que son adquiridos a un proveedor externo, vaciando con ello el valor de los espacios de participación y negociación, pues se pierde la visibilidad de aquello sobre lo que se debería ejercer un control laboral y democrático.
Por eso, a medida que proliferan las tecnologías y herramientas algorítmicas debe emerger también una creciente demanda de transparencia. Al final, los algoritmos no son más que fórmulas matemáticas que calculan aquello para lo que se las ha programado, pero la decisión de qué inputs de datos deben tener en cuenta y de qué forma no son decisiones maquínicas, sino humanas. La IA puede calcular la productividad de una persona, pero sobre la base de instrucciones y datos proporcionados y codificados por personas. Los algoritmos, al fin y al cabo, son reglamentos que alguien ha tenido que establecer, pero que, como el ajedrecista real del Turco, permanecen escondidos para mantener una falsa apariencia de autonomía y neutralidad.
La puesta en valor de los espacios de participación en la empresa en la era digital dependerá del reconocimiento del papel de la tecnología en el contexto de relaciones de poder actual. Como decíamos al principio, los empresarios de los que hablaba E. P. Thompson movían las manecillas de los relojes no porque estos fueran herramientas antiobreras (al contrario, podían ser una herramienta de defensa del cumplimiento de la jornada laboral), sino porque, insertados en un contexto de relaciones de poder concreto, estos quedaban en manos del grupo más poderoso. Desde esta perspectiva, la entrada de los algoritmos y la IA en el mundo del trabajo ha evidenciado un contexto de relaciones conflictivas específicas, en las que han salido reforzados, de forma inequívoca, los poderes disciplinarios y las capacidades de control del sistema jerárquico empresarial.
El reto clave del momento actual pasa por reconocer este contexto y el rol que juega la tecnología en él, con dos objetivos principales: por un lado, la creación de mecanismos prácticos que arrojen luz sobre el funcionamiento de las herramientas de datos para permitir la participación efectiva de trabajadores y trabajadoras en la toma de decisiones sobre sus condiciones de trabajo y la organización de la producción. Por otro lado, la apuesta por soluciones tecnológicas y de datos que recuperen, devuelvan o contribuyan a la defensa de derechos de los trabajadores y de las trabajadoras.
Teniendo en consideración estos retos, algunas Administraciones han tomado la iniciativa, a la hora de desarrollar prácticas, que contribuyan a estos fines y permitan el acceso a la información para conocer el modo en que las organizaciones públicas y privadas usan la IA en la toma de decisiones, así como los principios de equidad y responsabilidad se aplican en ellas. Buen ejemplo de ello es el papel pionero del Gobierno de España en la regulación de la transparencia algorítmica en el marco de la llamada “Ley Rider”3, o la inclusión del empleo de datos y tecnologías en el ámbito laboral como un uso de alto riesgo, sometido a requerimientos de explicabilidad y transparencia en la futura ley de inteligencia artificial europea4. Es también destacable la apuesta de las fuerzas sindicales europeas para establecer estándares que aseguren que el uso de tecnologías y datos para la mejora de la eficiencia y los procesos en las empresas no implique un menoscabo de los derechos fundamentales del personal trabajador, y que, por otro lado, se regularicen las situaciones de trabajo atípicas en el sentido que se recoge en la Declaración de Frankfurt de 2016. Ésta establece que en todos los sectores donde los trabajadores y trabajadoras ven como sus actividades están sometidas a un seguimiento de la productividad y medidas de control, los dispositivos de seguimiento y procesos de datos deben cumplir con estándares para garantizar que estos brinden beneficios también a los trabajadores y a las trabajadoras.
Si, como se prevé, la IA va a seguir ganando protagonismo en los entornos laborales, tanto innovadores como tradicionales, la incorporación de un programa tecnológico por parte de los agentes sociales, sindicales y políticos, que refuerce la protección de los trabajadores y de las trabajadoras, nos parece urgente si se pretende avanzar de forma efectiva en la defensa de los espacios de participación de la fuerza laboral en contextos empresariales
Para finalizar, creemos que los siguientes principios rectores deberían formar parte de toda negociación en acuerdos sectoriales o laborales que traten de establecer límites al uso de las nuevas herramientas tecnológicas:
- Transparencia de datos: Los datos generados por las personas trabajadoras en el puesto de trabajo deben hacerse disponibles para estas y/o los representantes sindicales y estar disponibles para ser utilizados en conflictos relacionados con horas extraordinarias, jornada, lesiones, enfermedades profesionales, flexibilidad horaria, conciliación, retribuciones, etc.
- Transparencia algorítmica: Cualquier algoritmo utilizado en el puesto de trabajo debe ser transparente y auditable.
- Privacidad: Cualquier dato generado por los trabajadores y trabajadoras y la información sobre sus actividades en el entorno laboral deben ser fuertemente limitados: geolocalización, uso de dispositivos personales o en entornos personales.
- Confidencialidad: Los datos generados en el puesto de trabajo no deben ser compartidos con terceras partes.
- Reparación: Los trabajadores y trabajadoras deben tener el derecho a contestar cualquier decisión algorítmica tomada que les afecte.
- Salud y seguridad: Se deben realizar estudios de impacto y de seguimiento periódicamente, incluyendo salud física y mental, así como factores de riesgos psicosociales, las cargas de trabajo, la desconexión digital, tecnoestrés, tecnoadicción, síndrome de burnout, etc.
- Participación: Las personas trabajadoras deben tener el derecho a participar en la incorporación e implementación de nuevas tecnologías.
- Seguridad: Los datos generados por los trabajadores y las trabajadoras deben ser encriptados y protegidos correctamente.
- Si, como se prevé, la IA va a seguir ganando protagonismo en los entornos laborales, tanto innovadores como tradicionales, la incorporación de un programa tecnológico por parte de los agentes sociales, sindicales y políticos, que refuerce la protección de los trabajadores y de las trabajadoras, nos parece urgente si se pretende avanzar de forma efectiva en la defensa de los espacios de participación de la fuerza laboral en contextos empresariales. Ignorar este campo de acción, y permitir la proliferación de Turcos y relojes trucados, supone asumir la normalización de prácticas tecnológicas diseñadas para subvertir victorias relevantes del último siglo vinculadas a los derechos de las personas trabajadoras.
BIBLIOGRAFÍA
Abdelnour, Sarah y Méda, Dominique (2020): Cuando tu jefe es una app, Pamplona, Katakrak.
Alboleda, Martín (2021): Gobernar la utopía: sobre la planificación y el poder popular, Buenos Aires, Caja Negra Editora.
Ball, Kirstie (2010): “Workplace Surveillance: An Overview”, Labor History, vol. 51, no 1, pp. 87‐106.
Bastani, Aaron (2019): Comunismo de lujo totalmente automatizado, Valencia, Antipersona.
Burrell, Jenna (2016): “How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms”, Big Data & Society, vol. 3, no 1.
Casilli, Antonio A. (2019): En attendant les robots. Enquête sur le travail du clic, París, Éditions du Seuil (edición en castellano, Esperando a los robots. Investigación sobre el trabajo del clic, Madrid, Punto de vista editores).
Cockshott, Paul y Nieto, Maxi (2017): Ciber-comunismo: Planificación económica, computadoras y democracia, Madrid, Trotta.
Fumagalli, Andrea (2020): “Veinte Tesis sobre el capitalismo contemporáneo”, en Mauro Reis (comp.): Neo-operaísmo, Buenos Aires, Caja Negra.
Galdon Clavell, Gemma (2021): “La pandemia que nos digitalizó (mal)”, en Juan del Llano y Lino Camprubí (eds.): Sociedad entre pandemias, Madrid, Fundación Gaspar Casal.
Kellogg, Katherine C.; Valentine, Melissa A. y Christin, Angèle (2020): “Algorithms at Work: The New Contested Terrain of Control”, Academy of Management Annals, vol. 14, no 1, pp. 366‐410.
Pasquale, Frank (2015): The Black Box Society: the Secret Algorithms That Control Money and Information, Cambridge/Londres, Harvard University Press.
Silvestri, Leonor (2021): Servidumbre maquínica: punitivismo, trabajo y espacios de encierro, Buenos Aires, Qeen Ludd.
Thompson, Edward P. (1967): “Time, work, discipline and industrial capitalism”, Past & Present, vol. 38, no 1, pp. 56‐97.
Virno, Paolo (2020): “General Intellect”, en Mauro Reis (comp.): Neo-operaísmo, Buenos Aires, Caja Negra.
- En 2019 se hizo público que el asistente personal de Google, Duplex, utilizaba personal externalizado para realizar las llamadas que según la publicidad hacía una inteligencia artificial, https://cnet.co/3pLHfDb
- “Espíritu” en el uso secularizado de las ideas religiosas del que parte M. Weber (2012): La ética protestante y el espíritu del capitalismo, Madrid, Alianza; o W. Sombart (1972): El Burgués, Madrid, Alianza Universidad.
- Véase Adrián Francisco Varela, “Así será la ley de ‘riders’ que acaban de acordar el Gobierno y los agentes sociales: presunción de laboralidad y transparencia sobre los algoritmos”, Business Insider, 11 de marzo de 2021.
- Véase Enrique Pérez, “Europa crea la primera regulación sobre Inteligencia Artificial y robots: se prohíbe el reconocimiento facial en zonas públicas, con algunas excepciones”, Xataka, 21 de abril de 2021.
***
Gemma Galdon Clavell, analista de políticas públicas especializada en el impacto de la tecnología; es socia fundadora y directora de investigación a Éticas Research & Consulting e investigadora en el Departamento de Sociología de la Universidad de Barcelona. Tiene numerosas publicaciones. Héctor Ortega Sánchez, también pertenece a Éticas Research & Consulting
Referencia: Gemma Galdon Clavell, Héctor Ortega Sánchez (2022) Abrir la caja negra. Digitalización y participación en el Trabajo. En José Ángel Moreno Izquierdo y Bruno Estrada López (coords.) (2022) ¿Una empresa de todos? La participación del trabajo en el gobierno corporativo. Madrid, Plataforma por la Democracia Económica y Libros de la Catarata. El contenido on-line del libro ¿Una empresa de todos? se puede descargar en este enlace: https://democraciaeconomicablog.wpcomstaging.com/2022/05/17/quieres-descargarte-en-pdf-una-empresa-todos/
El capítulo se ha reproducido con la autorización de autores y editores
Deja una respuesta