Thu. Sep 5th, 2024

El Reino Unido firmó el primer tratado internacional del mundo sobre inteligencia artificial, junto con la Unión Europea, Estados Unidos y otros siete países.

El acuerdo compromete a los firmantes a adoptar o mantener medidas que garanticen que el uso de la IA sea coherente con los derechos humanos, la democracia y la ley. Estas medidas deberían proteger al público contra los riesgos inherentes a los modelos de IA, como los datos de entrenamiento sesgados, y los de su mal uso, como la difusión de información errónea.

El Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho se abrió a la firma durante una conferencia de Ministros de Justicia del Consejo de Europa en Vilnius, Lituania, el 5 de septiembre. Los firmantes actuales incluyen:

  • Andorra.
  • UE.
  • Georgia.
  • Islandia.
  • Israel.
  • Noruega.
  • República de Moldavia.
  • San Marino.
  • Reino Unido
  • A NOSOTROS

El tratado se suma a un conjunto cada vez mayor de legislación internacional que tiene como objetivo frenar los riesgos de la IA, incluida la Declaración de Bletchley, que fue firmada por 28 países en noviembre de 2023.

Se anticipan más signatarios de otros estados que negociaron el tratado. Estos incluyen los otros 39 estados miembros del Consejo de Europa y los nueve estados no miembros de Argentina, Australia, Canadá, Costa Rica, la Santa Sede, Japón, México, Perú y Uruguay.

La Lord Canciller Shabana Mahmood representó al Reino Unido con su firma. Dijo en un comunicado: “La inteligencia artificial tiene la capacidad de mejorar radicalmente la capacidad de respuesta y la eficacia de los servicios públicos y acelerar el crecimiento económico. Sin embargo, no debemos permitir que la IA nos moldee: debemos moldearla.

“Esta convención es un paso importante para garantizar que estas nuevas tecnologías puedan aprovecharse sin erosionar nuestros valores más antiguos, como los derechos humanos y el estado de derecho”.

VER: Reino Unido y los países del G7 utilizarán la IA para impulsar los servicios públicos

La secretaria general del Consejo de Europa, Marija Pejčinović Burić, dijo en un comunicado de prensa: “Debemos asegurarnos de que el auge de la IA mantenga nuestros estándares, en lugar de socavarlos. El Convenio Marco está diseñado para garantizar precisamente eso.

“Espero que estas sean las primeras de muchas firmas y que sean seguidas rápidamente por ratificaciones, para que el tratado pueda entrar en vigor lo antes posible”.

El tratado fue adoptado por el Comité de Ministros del Consejo de Europa el 17 de mayo de este año. Para que entre en vigor, cinco signatarios, incluidos al menos tres estados miembros del Consejo de Europa, deben ratificarlo. La entrada se producirá tres meses después de la quinta ratificación, el primer día del mes siguiente.

Es independiente de la Ley de IA de la UE, que entró en vigor el mes pasado, ya que el Consejo de Europa es una organización de 46 miembros distinta de la UE, y los estados no pertenecientes a la UE pueden firmarla.

La viabilidad de un tratado sobre IA se examinó por primera vez en 2019. La legislación fue reemplazada en 2022 por el Comité de Inteligencia Artificial del Consejo. Fue adoptado formalmente el 17 de mayo de este año.

¿Qué exige el tratado que hagan los signatarios?

Para proteger los derechos humanos, la democracia y el estado de derecho, la Convención Marco exige a los signatarios:

  1. Garantizar que los sistemas de IA respeten la dignidad humana, la autonomía, la igualdad, la no discriminación, la privacidad, la transparencia, la responsabilidad y la confiabilidad.
  2. Proporcionar información sobre las decisiones tomadas utilizando la IA y permitir que las personas cuestionen las decisiones o el uso de la propia IA.
  3. Ofrecer garantías procesales, incluidos mecanismos de queja y notificación de interacciones de IA.
  4. Realizar evaluaciones continuas de riesgos de impactos sobre los derechos humanos y establecer medidas de protección.
  5. Permitir a las autoridades prohibir o pausar ciertas aplicaciones de IA si es necesario.

El tratado cubre el uso de sistemas de inteligencia artificial por parte de autoridades públicas, como el NHS, y empresas privadas que operan en las jurisdicciones de las partes. No se aplica a actividades relacionadas con la seguridad nacional, asuntos de defensa nacional o investigación y desarrollo a menos que tengan el potencial de interferir con los derechos humanos, la democracia o el estado de derecho.

Según el gobierno del Reino Unido, el tratado funcionará para mejorar las leyes y medidas existentes, como la Ley de Seguridad en Línea. También tiene la intención de trabajar con reguladores, administraciones descentralizadas y autoridades locales para garantizar que se puedan implementar los requisitos del tratado.

VER: El gobierno del Reino Unido anuncia 32 millones de libras esterlinas en proyectos de inteligencia artificial

Corresponde a la “Conferencia de las Partes”, un grupo compuesto por representantes oficiales de las Partes de la Convención, determinar en qué medida se están implementando las disposiciones del tratado y hacer recomendaciones.

Los pasos del Reino Unido hacia una IA segura

El tratado dice que, aunque regula la IA, sigue promoviendo su progreso e innovación. El gobierno del Reino Unido ha estado intentando mantener este equilibrio en sus propias acciones.

De alguna manera, el gobierno ha sugerido que será estricto en sus restricciones a los desarrolladores de IA. En el discurso del Rey de julio se anunció que el gobierno “buscará establecer la legislación adecuada para imponer requisitos a quienes trabajan en el desarrollo de los modelos de inteligencia artificial más potentes”.

Esto respalda el manifiesto preelectoral del Partido Laborista, que se comprometió a introducir “regulaciones vinculantes para un puñado de empresas que desarrollan los modelos de IA más potentes”. Después del discurso, el Primer Ministro Keir Starmer también dijo a la Cámara de los Comunes que su gobierno “aprovechará el poder de la inteligencia artificial mientras buscamos fortalecer los marcos de seguridad”.

VER: Retrasar cinco años el lanzamiento de la IA en el Reino Unido podría costarle a la economía más de £150 mil millones, según un informe de Microsoft

El Reino Unido también estableció el primer Instituto nacional de seguridad de la IA en noviembre de 2023 con el objetivo principal de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Luego, en abril de este año, los gobiernos del Reino Unido y EE. UU. acordaron trabajar juntos en el desarrollo de pruebas de seguridad para modelos avanzados de IA, avanzando en los planes elaborados por sus respectivos Institutos de Seguridad de IA.

Por el contrario, el gobierno del Reino Unido ha prometido a las empresas de tecnología que el próximo proyecto de ley sobre IA no será demasiado restrictivo y aparentemente ha rechazado su introducción. Se esperaba incluir el proyecto de ley en las leyes mencionadas que se anunciaron como parte del discurso del rey, pero no lo hicieron.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *