El derecho de un ciudadano a que las decisiones tomadas por sistemas automatizados o de inteligencia artificial (IA) sean revisadas por un compañero humano no debe eliminarse mientras la IA está en su infancia, advirtió el BCS, el Chartered Institute for IT.
Este derecho, consagrado en la ley del Reino Unido a través del artículo 22 del Reglamento general de protección de datos (GDPR), es solo uno de los muchos aspectos de la protección de datos británica que el gobierno está tratando de cambiar en una revisión posterior al Brexit de las leyes de datos que ha establecido en otro curso de colisión con sus antiguos socios de la Unión Europea. Una consulta en curso, Datos: una nueva dirección, fue lanzado a tal efecto en septiembre por el Departamento de Digital, Cultura, Medios y Deporte (DCMS).
El BCS dijo que la consulta sugirió que la apelación humana contra algunas decisiones automatizadas tomadas por AI, incluida quizás la contratación de trabajo o la elegibilidad para un préstamo, podría ser innecesaria.
Pero debido a que la inteligencia artificial no siempre implica el uso de datos personales para tomar decisiones sobre las personas, la verdadera protección del derecho de un ser humano a revisar las decisiones tomadas por la inteligencia artificial debe considerar una regulación más amplia de la inteligencia artificial, dijo.
“El artículo 22 no es una disposición fácil de interpretar y existe el peligro de interpretarlo de forma aislada, como lo han hecho muchos”, dijo Sam De Silva, presidente del Grupo de Especialistas Jurídicos de BCS y socio del bufete de abogados CMS.
“Aún necesitamos claridad sobre los derechos que alguien tiene en el escenario donde hay una toma de decisiones totalmente automatizada que podría tener un impacto significativo en esa persona.
“También agradeceríamos que se aclarara si el artículo 22 (1) debe interpretarse como una prohibición general de todo procesamiento automatizado de datos que se ajuste a los criterios, o un derecho más limitado a impugnar una decisión resultante de dicho procesamiento.
“Como organismo profesional de TI, BCS no está convencido de que retener el Artículo 22 en su forma actual o eliminarlo logre tal claridad”.
De Silva dijo que también era importante considerar que la protección de la revisión humana de una decisión automatizada se encuentra actualmente en una pieza de legislación que se ocupa de los datos personales. Si no hay datos personales involucrados, sugirió, esta protección no se aplica, pero una decisión automatizada podría tener un impacto que cambiaría la vida.
“Por ejemplo, digamos que se crea un algoritmo para decidir si debe recibir una vacuna”, dijo. “Es probable que los datos que necesita ingresar al sistema sean la fecha de nacimiento, el origen étnico y otras cosas, pero no un nombre ni nada que pueda identificarlo a usted como la persona.
“Según los comentarios, la decisión podría ser que no es elegible para una vacuna. Pero las protecciones en el GDPR no se aplicarán ya que no hay datos personales.
“Por lo tanto, si creemos que la protección es lo suficientemente importante, no debería incluirse en el RGPD. Surge la pregunta: ¿necesitamos regular la IA en general y no a través de la ‘puerta trasera’ a través de GDPR? “
De Silva agregó: “Es bienvenido que el gobierno esté consultando cuidadosamente antes de realizar cualquier cambio en el derecho de las personas a apelar las decisiones sobre ellos mediante algoritmos y sistemas automatizados, pero la tecnología aún está en su infancia”.
El BCS está reuniendo más puntos de vista sobre este tema y otros planteados en la consulta, de toda su base de miembros, antes de una respuesta más amplia.
Sin embargo, no es la primera voz que ha expresado su preocupación por la preservación, o no, del Artículo 22. En su respuesta a la consulta publicada recientemente, la Oficina del Comisionado de Información dijo que acogía con agrado el enfoque en traer más claridad a un área compleja en términos éticos, y sugirió que las regulaciones futuras podrían incluir más orientación sobre el tema.
“Sin embargo, resolver la complejidad simplemente eliminando el derecho a la revisión humana no es, en nuestra opinión, en los intereses de las personas y es probable que reduzca la confianza en el uso de la IA”, dijo la ICO.
“En cambio, creemos que el gobierno debería considerar la extensión del Artículo 22 para cubrir en parte, así como en su totalidad, la toma de decisiones automatizada. Esto protegería mejor a las personas, dado el aumento en la toma de decisiones donde hay un ser humano involucrado, pero la decisión aún está influenciada significativamente por la IA u otros sistemas automatizados.
“También alentamos la consideración de cómo se podría fortalecer el enfoque actual de la transparencia para garantizar que la revisión humana sea significativa”.