Tue. Mar 12th, 2024

Los miembros del Parlamento Europeo (MEP) han aprobado un informe sobre el uso de inteligencia artificial (IA) por parte de la policía en Europa, que se opone al uso de la tecnología para “predecir” comportamientos delictivos y pide la prohibición de la vigilancia biométrica masiva.

Los eurodiputados también rechazaron las enmiendas al informe de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior (LIBE) del Parlamento sobre inteligencia artificial en asuntos penales, que según los críticos habrían debilitado el compromiso del bloque con los derechos humanos fundamentales si se aceptaran abriendo la puerta a la vigilancia masiva. .

Si bien no es legalmente vinculante, el informe LIBE describe el pensamiento colectivo de los responsables políticos europeos sobre cómo debería regularse el uso de la inteligencia artificial por parte de la policía y, según European Digital Rights (EDRi), podría influir en debates posteriores sobre la propuesta de la Comisión Europea (CE). Ley de IA publicada en abril de 2021.

El texto completo del informe, que fue aprobado en una votación de 377 contra 248 el 5 de octubre de 2021, identifica claramente que muchas técnicas de identificación impulsadas por la inteligencia artificial que se utilizan hoy en día “identifican y clasifican erróneamente de manera desproporcionada y, por lo tanto, causan daño a personas racializadas, personas pertenecientes a determinadas comunidades étnicas, personas LGBTI, niños y ancianos, así como mujeres ”.

Además, “destaca la asimetría de poder entre quienes emplean tecnologías de inteligencia artificial y quienes están sujetos a ellas”, y pide la prohibición absoluta del uso de tecnologías relacionadas con la inteligencia artificial para proponer decisiones judiciales; para cualquier procesamiento biométrico que conduzca a la vigilancia masiva en espacios públicos; y para la puntuación masiva de individuos.

Votación en contra de las enmiendas

Sobre las tres enmiendas específicamente, todas realizadas por el grupo del Partido Popular Europeo (PPE) de centro derecha, los grupos de la sociedad civil dijeron que abrirían la puerta a la vigilancia biométrica masiva, así como permitirían prácticas policiales predictivas discriminatorias.

La primera enmienda del PPE, por ejemplo, eliminó la oposición al uso de sistemas policiales predictivos y, en cambio, pidió que la policía lo desplegara con “la máxima precaución … cuando se hayan implementado todas las salvaguardias necesarias para eliminar los prejuicios forzados”.

Mientras tanto, la segunda enmienda eliminó la solicitud de una moratoria sobre el uso de reconocimiento facial y otras tecnologías biométricas, que establecía que esto debería estar vigente al menos hasta que las normas técnicas puedan considerarse plenamente compatibles con los derechos fundamentales.

En cambio, la enmienda del PPE pedía una mejora en las normas técnicas y destacó que “la supervisión y el control democráticos deben fortalecerse aún más con miras a garantizar que tales tecnologías solo se utilicen cuando sea necesario y proporcionado”.

En su tercera enmienda, el PPE eliminó el llamado del informe para que la CE deje de financiar la investigación o los despliegues relacionados con la IA “que probablemente resulten en una vigilancia masiva indiscriminada en espacios públicos”; y en su lugar argumentó que solo debería dejar de financiar proyectos que contribuyan a la vigilancia masiva “lo cual no es consistente con … [EU] y legislación nacional ”.

Añadió que la vigilancia masiva habilitada por IA no debería prohibirse cuando “sea estrictamente necesaria para objetivos muy específicos … [with] autorización judicial previa ”, y con estrictos límites de“ lugar y tiempo ”al tratamiento de datos.

En una carta abierta publicada el 4 de octubre, EDRi y otros 39 grupos de la sociedad civil, incluidos Access Now, Fair Trials, Homo Digitalis y App Drivers and Couriers Union (ADCU), pidieron a los eurodiputados que votaran en contra de las enmiendas basándose en que lo harán Permitir la vigilancia policial predictiva discriminatoria y la vigilancia biométrica masiva.

“La adopción de estas enmiendas socavaría los derechos a un juicio justo, la vida privada y familiar, la no discriminación, la libertad de expresión y reunión, los derechos de protección de datos y, fundamentalmente, la presunción de inocencia”, decía la carta.

“Creemos firmemente que el informe en la iteración adoptado por el Comité LIBE adoptó la postura más equilibrada y proporcional sobre la IA en la aplicación de la ley desde una perspectiva de derechos fundamentales”.

En respuesta al voto del eurodiputado, Griff Ferris, oficial legal y de políticas de Fair Trials, que hace campaña por la igualdad de la justicia penal a nivel mundial, dijo: “Estamos muy contentos de que una mayoría significativa de los eurodiputados rechazaran las enmiendas al informe LIBE, tomando una posición en contra La inteligencia artificial y los sistemas automatizados de toma de decisiones que reproducen y refuerzan el racismo y la discriminación, socavan el derecho a un juicio justo y la presunción de inocencia, y el derecho a la privacidad.

“Este es un resultado histórico para los derechos fundamentales y la no discriminación en la era tecnológica. Los eurodiputados han dejado claro que la policía y las autoridades de justicia penal en Europa ya no deben poder utilizar sistemas de inteligencia artificial que automatizan la injusticia, socavan los derechos fundamentales y dan lugar a resultados discriminatorios.

“Esta es una fuerte declaración de intenciones de que el Parlamento Europeo protegerá a los europeos de estos sistemas, y un primer paso hacia la prohibición de algunos de los usos más dañinos, incluido el uso de inteligencia artificial predictiva y de perfiles, y la vigilancia biométrica masiva”.

Fair Trials pidió anteriormente una prohibición absoluta del uso de inteligencia artificial y sistemas automatizados para “predecir” el comportamiento delictivo en septiembre de 2021.

Escribiendo en Gorjeo, una asesora sénior de políticas de EDRi, Sarah Chander, dijo sobre las enmiendas propuestas que “decirle a la policía que ‘tenga la máxima precaución’ al implementar vigilancia policial predictiva y reconocimiento facial … no suena como un plan adecuado para proteger nuestros derechos y libertades “.

La eurodiputada verde Alexandra Geese agregó: “A la luz de que ya más de 60.000 europeos han firmado la petición Reclaim Your Face, y el informe del comité responsable siguiendo el ejemplo y pidiendo una prohibición muy necesaria de la vigilancia masiva biométrica, es simplemente indignante que los conservadores sigan intentando para impulsar su idea de un estado policial de AI en el plenario “.

Contenido del debate

El voto a favor del informe y en contra de las enmiendas fue precedido por un debate el 4 de octubre sobre los beneficios y peligros del uso de la IA en el contexto de la aplicación de la ley, que giró en gran medida en torno al potencial de las tecnologías biométricas para permitir la vigilancia masiva.

Si bien la mayoría de los eurodiputados que participaron en el debate reconocieron los riesgos para los derechos fundamentales asociados con el uso de la inteligencia artificial por parte de la policía y el poder judicial, su tolerancia hacia ese riesgo y la forma en que podría o debería gestionarse divergieron significativamente.

Algunos, por ejemplo, creían que los riesgos que presentaban las tecnologías de IA biométrica son tan grandes que las agencias de aplicación de la ley simplemente deberían tener prohibido su uso.

“Creemos que en Europa no hay lugar para la vigilancia biométrica masiva, y que la lucha contra el crimen no se puede hacer en detrimento de los derechos de los ciudadanos”, dijo Brando Benifei, miembro de la Alianza Progresista de Socialistas y Demócratas, y agregó que la vigilancia biométrica en Los espacios públicos socavarán los principios democráticos clave, incluida la libertad de expresión, asociación y circulación.

“Al mismo tiempo, [using] Las técnicas predictivas para combatir el crimen también tienen un gran riesgo de discriminación, así como la falta de evidencia sobre cuán precisas son en realidad, estaban socavando la base de nuestra democracia. [and] la presunción de inocencia “.

Agregó que la Ley de IA propuesta por la Comisión Europea, tal como está actualmente, no proporciona las garantías necesarias para proteger los derechos fundamentales, ya que incluso en los casos de uso de mayor riesgo, los propios desarrolladores de IA están a cargo de determinar el grado en que sus sistemas alinearse con las reglas del reglamento, también conocidas como ‘evaluaciones de conformidad’.

“Creemos que la autoevaluación conlleva un riesgo excesivo de error y violación que las autoridades de seguridad solo descubrirán más adelante, si tienen los medios disponibles para hacerlo, lo que provocará daños irreparables en la vida de las personas. “

Otros, sin embargo, dijeron que si bien tendría que ir acompañada de salvaguardias legales, AI era una herramienta vital para combatir el crimen y sería absolutamente necesaria para la seguridad del estado; especialmente frente a la nueva actividad delictiva habilitada digitalmente.

“Hoy, los criminales están cambiando sus operaciones. Ya sea que se trate de un crimen organizado, terrorismo, pornografía infantil, lavado de dinero o trata de personas, ocurre en línea ”, dijo Tom Vandenkendelaere, miembro del EPP, y agregó que la inteligencia artificial, incluido el reconocimiento facial en espacios públicos, permitirá a la policía combatir el crimen de una manera más de manera específica y eficiente.

“Esto no significa que queramos dar carta blanca a las fuerzas policiales para que hagan lo que quieran. Es nuestro deber como responsables de la formulación de políticas establecer un marco legal sólido dentro del cual puedan utilizar la IA de forma segura y, al mismo tiempo, garantizar la seguridad de nuestros ciudadanos.

“Es demasiado fácil argumentar a favor de una moratoria o prohibiciones sin tener en cuenta los desafíos que enfrentan nuestros agentes de policía en el terreno. Es nuestro deber … encontrar el equilibrio adecuado entre el uso de las nuevas tecnologías, por un lado, y la protección de nuestros derechos fundamentales, por el otro. Tenemos que permanecer atentos, pero no debemos tirar al bebé con el agua de la bañera. . “

Otros eurodiputados señalaron de diversas maneras la necesidad de que la inteligencia artificial luche mejor contra el ciberdelito, el terrorismo y el blanqueo de capitales, aunque la mayoría de ellos reconoció la necesidad de fuertes salvaguardias.

Jean-Lin Lacapelle, eurodiputado del grupo de extrema derecha Identidad y Democracia (ID), opinó que la IA ha “sido estropeada por la Unión Europea” porque en lugar de “garantizar la seguridad de nosotros mismos y de nuestros hijos, limitar el uso ”al no usarlo“ en la lucha contra la delincuencia ”y detectar a los solicitantes de asilo que“ mienten ”sobre su edad en la frontera.

Algunos eurodiputados también desafiaron directamente al PPE en sus enmiendas al informe, incluido el miembro de Renew Europe, Svenja Hahn, quien dijo que los derechos humanos no eran negociables y que el PPE estaba “tratando de impulsar sus sueños de vigilancia de AI contra nuestro miedo a las masas vigilancia”.

El eurodiputado de los Verdes Marcel Kolaja, cuyos comentarios abrieron el debate, se manifestó contra el PPE y sus enmiendas en términos aún más enérgicos, acusándolos de “torpedear” la prohibición propuesta del reconocimiento facial en espacios públicos “y pedir medios legales para espiar a los ciudadanos” .

Al señalar que dos periodistas han sido asesinados en la UE el año pasado, Kolaja agregó que permitir la tecnología de reconocimiento facial en espacios públicos daría a los oligarcas “aún más herramientas en sus manos para perseguir y oprimir a los periodistas”.

Otro eurodiputado verde, Kim Van Sparrentak, instó a sus colegas del PPE a ser más realistas: “La IA no es una solución rápida para combatir el crimen o el terrorismo: una cámara de IA no detectará la radicalización y la automatización del trabajo policial no sustituye a la financiación policial y trabajadores comunitarios.

“Mirando a los EE. UU., En la ciudad de Nueva York y Boston, reemplazando la vigilancia policial predictiva impulsada por la inteligencia artificial por vigilancia comunitaria [has] redujo las tasas de criminalidad, y San Francisco y Boston ya han prohibido la biometría en espacios públicos; no solo una prohibición es perfectamente factible, nosotros en la UE estamos muy atrasados ​​en nuestras elecciones éticas de IA “.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *