La gestión por parte de los humanos puede ser deprimente. “En el viejo mundo de los taxis, a menudo se abusaba de los conductores”, dice James Farrar, director de la organización sin fines de lucro Worker Info Exchange (WIE). Los conductores pagarían la misma tarifa por conducir para una compañía de taxis, pero recibirían diferentes cantidades de negocios.
“Tendrías los llamados conductores ‘alimentados’ [fed with work] y conductores ‘hambrientos’, con conductores favorecidos que reciben todo el trabajo agradable”, dice, con algunos despachadores que asignan trabajo exigiendo sobornos. Como resultado, muchos despachadores dieron la bienvenida a ser reemplazados por algoritmos: Farrar recuerda animar esto en una sesión para nuevos conductores de Uber.
Pero la gestión por algoritmos y procesos automatizados ha introducido nuevos problemas. El pasado mes de diciembre, WIE, que apoya a los trabajadores en la obtención de sus datos, publicó su informe Gestionado por bots. Esto incluye plataformas que suspenden a trabajadores autónomos en función de un software de reconocimiento facial que deciden erróneamente que están permitiendo que otras personas usen sus cuentas y luego se niegan a permitir una revisión humana de la suspensión.
El software de reconocimiento facial tiende a ser menos preciso para las personas con piel más oscura y el informe WIE, que señala que el 94 % de los conductores de vehículos de alquiler privados registrados en Transport for London provienen de minorías étnicas, dice que esto “ha resultado desastroso para los trabajadores vulnerables que ya se encuentran en situaciones precarias”. empleo”.
Farrar dice que hay problemas más amplios, como que las plataformas toman demasiados conductores, lo que reduce los tiempos de espera pero hace que sea muy difícil ganarse la vida a través de dichos sistemas, además de congestionar las calles. “Debido a que estas empresas se han comportado de esta manera, casi se han convertido en un impedimento para hacer realidad la visión que se propusieron”, dice. “Soy un optimista de la tecnología. Puede ofrecer grandes cosas para las personas, los trabajadores y las empresas. Pero tenemos que responsabilizar a las personas por cómo lo usan”.
Farrar dice que los empleadores deben ser transparentes sobre el uso de la tecnología, en particular sobre la asignación del trabajo y la gestión del desempeño; no deben utilizar la seguridad y la prevención del fraude como excusas para ocultar lo que están haciendo; y no debe usar la automatización por sí sola para tomar decisiones que cambian la vida.
Papel de los sindicatos
El Congreso de Sindicatos, una asociación de 48 sindicatos, hizo llamados similares en La dignidad en el trabajo y la revolución de la IA, un manifiesto publicado en marzo de 2021. La oficial de política de derechos laborales Mary Towers dice que los sindicatos pueden desempeñar un nuevo papel en el manejo y análisis de los datos que los empleadores tienen sobre sus miembros, como el pago. “Creo que sin ese tipo de asistencia colectiva, sería muy difícil para un trabajador individual tomar el control de sus propios datos sin agruparlos”, dice.
Se podría utilizar un conjunto de datos para el análisis y como base para acciones tales como un reclamo de igualdad salarial. Un sindicato podría actuar formalmente como representante de sus miembros según la ley de protección de datos o podría pedirles a los miembros que recopilen datos de forma independiente, como a través de WeClock, una aplicación diseñada por la federación sindical internacional Uni que permite a los usuarios registrar cuánto tiempo pasan trabajando y viajando.
Las formas en que se utilizan la automatización y la inteligencia artificial (IA) con los datos de los trabajadores también pueden incluirse en las negociaciones entre sindicatos y empleadores. Una actualización de 2020 del convenio colectivo entre Royal Mail Group (RMG) y Communication Workers Union (CWU) incluye una sección sobre tecnología que establece que “la tecnología no se utilizará para deshumanizar el lugar de trabajo o la toma de decisiones operativas” y que “el uso de la tecnología está diseñado para respaldar debates más informados entre RMG y CWU y no reemplazarlos de ninguna forma”.
Towers dice que los empleadores que deseen utilizar bien la tecnología en la gestión del lugar de trabajo deben apuntar a “un enfoque de colaboración social”. Agrega que el personal a menudo no está al tanto de lo que están haciendo los empleadores, lo que se puede abordar publicando un registro de fácil acceso de las tecnologías que se utilizan y ofreciendo a los trabajadores acceso a sus propios datos automáticamente, en lugar de requerir una solicitud de acceso por asunto.
La transparencia sobre la automatización y la IA también tiene sentido desde un punto de vista legal, según Sally Mewies, socia y directora de tecnología y digital del bufete de abogados comerciales Walker Morris, con sede en Leeds. “No es posible, a menudo, que los humanos entiendan cómo se toman las decisiones”, dice ella. “Esa es la gran preocupación cuando se aplica a la dotación de personal y los recursos humanos”.
Esto puede plantear problemas de derecho laboral, mientras que el Reglamento General de Protección de Datos de la UE, promulgado por el Reino Unido en 2018, prohíbe que las personas estén sujetas a decisiones totalmente automatizadas a menos que se cumplan ciertas condiciones. El gobierno del Reino Unido sugirió abolir esto en una consulta de septiembre de 2021, que también propuso permitir el uso de datos personales para monitorear y detectar sesgos en los sistemas de IA. Estas medidas aún no se han propuesto formalmente en un proyecto de ley.
Sally Mewies, Walker Morris
Mewies dice que el sesgo en los sistemas automatizados genera riesgos significativos para los empleadores que los usan para seleccionar personas para puestos de trabajo o promoción, porque puede contravenir la ley contra la discriminación. Para los proyectos que involucran el procesamiento sistémico o potencialmente dañino de datos personales, las organizaciones deben realizar una evaluación del impacto en la privacidad, dice. “Tienes que asegurarte de que cuando usas algoritmos e inteligencia artificial de esa manera, no habrá un impacto adverso en las personas”.
Pero incluso cuando no es necesario, realizar una evaluación del impacto en la privacidad es una buena idea, dice Mewies, y agrega: “Si hubiera alguna crítica de seguimiento sobre cómo se implementó una tecnología, tendría alguna evidencia de que había tomado medidas para garantizar transparencia y equidad”.
Hay otras formas en que los empleadores pueden disminuir la probabilidad de sesgo en los procesos de fuerza laboral automatizados. Antony Heljula, director de innovación de la consultora de ciencia de datos Peak Indicators, con sede en Chesterfield, dice que los modelos de datos pueden excluir atributos sensibles como la raza, pero esto está lejos de ser infalible, como demostró Amazon hace unos años cuando creó un sistema de clasificación de CV de IA entrenado en una década de aplicaciones, para encontrar que discriminaba a las mujeres.
Como sugiere esto, las decisiones tanto humanas como automatizadas pueden estar sesgadas, por lo que puede tener sentido construir un segundo modelo que use deliberadamente atributos sensibles para buscar sesgos en esas decisiones, dice Heljula: “Llámelo detección de anomalías”.
Otras opciones incluyen: establecer un comité de ética para validar los usos de la IA; preferir modelos de IA relativamente explicables, como los árboles de decisión, a otros, como las redes neuronales; y basar la planificación de la fuerza laboral en datos resumidos de grupos de personas en lugar de individuos. En el último, sin embargo, los grupos deben ser lo suficientemente grandes: la predicción de que es probable que todas las mujeres de un equipo se vayan se vuelve bastante personal si solo una mujer trabaja en ese equipo.
Heljula cree que las preocupaciones sobre el sesgo y la vigilancia deberían obligar a repensar cómo se usa la IA en los recursos humanos. “Tenemos que alejarnos del monitoreo del ‘Gran Hermano’ a cosas que los empleados y contratistas agradecerían”, dice, como el uso de la tecnología para verificar los sesgos en las decisiones o evaluar las habilidades de los empleados para desarrollar planes de capacitación personalizados.
La IA también se puede usar para servicios basados en lenguaje natural para responder consultas de la fuerza laboral como “¿cuál es el salario promedio en mi equipo?”, dice. “No es monitorear lo que estás haciendo, es ayudarte a hacer tu trabajo de manera más efectiva”.
Infosys apuesta por combatir el sesgo en los sistemas de IA
La consultora de TI con sede en la India, Infosys, ha desarrollado un enfoque de cinco pasos para abordar el sesgo en la IA. Busca atributos confidenciales en los datos; establece “medidas de equidad”, como un objetivo para el porcentaje de mujeres en un rol particular; implementa un sistema basado en IA; hace que sus resultados sean explicables, como decir qué datos se usaron para rechazar a alguien para un trabajo; y se basa en la gobernanza humana de los resultados. “Es esencialmente una verificación de la cordura”, dice David Semach, jefe de IA y automatización de Infosys en Europa, sobre el aporte humano. “Es absolutamente crítico”.
Semach dice que Infosys está en el proceso de implementar dicha funcionalidad anti-sesgo con un gran grupo de bienes de consumo que utiliza algoritmos para evaluar decenas de miles de CV. La empresa ha establecido 30-40 medidas de equidad, que según Semach es el número correcto, aunque agrega que “uno de los mayores desafíos es definir las medidas” porque, en general, la empresa aún no las tenía implementadas.
El proveedor de software de análisis de datos con sede en Israel, Nice, ha publicado un “marco ético robótico” para sus usuarios de automatización de procesos robóticos (RPA). Esto dice que los robots deben estar diseñados para un impacto positivo, para ignorar las identidades grupales y minimizar el riesgo de daño individual. Sus fuentes de datos deben verificarse, a partir de fuentes conocidas y confiables, y deben diseñarse teniendo en cuenta la gobernanza y el control, por ejemplo, limitando, monitoreando y autenticando el acceso y la edición.
Oded Karev, gerente general de Niza para RPA, dice que planeó el marco principalmente en base a conversaciones con los clientes, así como a especialistas en ética académicos y socios. Los problemas de la fuerza laboral tuvieron un impacto significativo, con “muchos casos de ansiedad por la automatización” de los empleados de los clientes, así como solicitudes específicas, incluido un gran banco de EE. UU. que quería asegurarse de que los robots de software no pudieran ser explotados por personal deshonesto para cometer fraude.
La empresa construye robots por sí misma, pero también vende el uso de su plataforma de desarrollo y, aunque el marco es parte de sus términos y condiciones, no impone el cumplimiento. “Es como cuando vendes un cuchillo”, dice Karev. “Alguien puede usarlo para cortar ensalada y alguien puede usarlo para amenazar a alguien”. El marco evolucionará en función de la comunicación bidireccional con los clientes, añade.
Sin embargo, muchos empleadores ya están interesados en demostrar el uso ético. Karev dice que el riesgo de fraude se puede reducir al requerir que diferentes personas lleven a cabo los pasos para poner un robot en producción, porque esto requeriría que varias personas conspiraran en lugar de un solo estafador. Si se usan robots para monitorear a los empleados, se pueden configurar solo para usar datos de aplicaciones comerciales.
Para una empresa de tecnología global que utiliza un robot para la evaluación de CV, “agregamos la barrera de que no se pueden crear y aplicar reglas automáticamente”, dice Karev, y todos los cambios están documentados y son reversibles.
Karev dice que la automatización ética ayuda a obtener negocios del sector público, que es el mercado vertical más grande de Niza en el Reino Unido. En noviembre, anunció que una gran organización gubernamental del Reino Unido estaba utilizando tecnologías de IA y RPA como parte de una estrategia de transformación digital, incluido el procesamiento de aplicaciones de autoservicio para cambiar los acuerdos de pago y brindar orientación en tiempo real a los asesores humanos.
“Con eso viene una alta regulación, un entorno altamente sindicalizado y una gran demanda de un comportamiento ético muy estricto”, agrega.