El gobierno del Reino Unido ha lanzado una herramienta de autoevaluación gratuita para ayudar a las empresas a gestionar de forma responsable su uso de la inteligencia artificial.
El cuestionario está destinado a cualquier organización que desarrolle, proporcione o utilice servicios que utilicen IA como parte de sus operaciones estándar, pero está destinado principalmente a empresas más pequeñas o de nueva creación. Los resultados indicarán a los responsables de la toma de decisiones las fortalezas y debilidades de sus sistemas de gestión de IA.
Cómo utilizar los conceptos básicos de gestión de IA
La autoevaluación, que ya está disponible, es una de las tres partes de la herramienta denominada “Fundamentos de gestión de IA”. Las otras dos partes incluyen un sistema de calificación que proporciona una descripción general de qué tan bien la empresa gestiona su IA y un conjunto de puntos de acción y recomendaciones que las organizaciones deben considerar. Ninguno de los dos ha sido publicado todavía.
AIME se basa en el estándar ISO/IEC 42001, el marco NIST y la Ley de IA de la UE. Las preguntas de autoevaluación cubren cómo la empresa utiliza la IA, gestiona sus riesgos y es transparente al respecto con las partes interesadas.
VER: Retrasar cinco años el lanzamiento de la IA en el Reino Unido podría costarle a la economía más de £150 mil millones, según un informe de Microsoft
“La herramienta no está diseñada para evaluar productos o servicios de IA en sí, sino más bien para evaluar los procesos organizacionales que existen para permitir el desarrollo y uso responsable de estos productos”, según el informe del Departamento de Ciencia, Innovación y Tecnología.
Al completar la autoevaluación, se debe obtener la opinión de empleados con amplios conocimientos técnicos y comerciales, como un CTO o un ingeniero de software y un gerente comercial de recursos humanos.
El gobierno quiere incluir la autoevaluación en su política de adquisiciones y en sus marcos para incorporar la garantía en el sector privado. También le gustaría ponerlo a disposición de compradores del sector público para ayudarlos a tomar decisiones más informadas sobre la IA.
El 6 de noviembre, el gobierno abrió una consulta invitando a las empresas a dar su opinión sobre la autoevaluación, y los resultados se utilizarán para perfeccionarla. Las partes de calificación y recomendación de la herramienta AIME se publicarán después del cierre de la consulta el 29 de enero de 2025.
La autoevaluación es una de las muchas iniciativas gubernamentales planificadas para garantizar la IA
En un documento publicado esta semana, el gobierno dijo que AIME será uno de los muchos recursos disponibles en la “Plataforma de Garantía de IA” que busca desarrollar. Esto ayudará a las empresas a realizar evaluaciones de impacto o revisar los datos de IA en busca de sesgos.
El gobierno también está creando una herramienta terminológica para una IA responsable para definir y estandarizar términos clave de garantía de IA para mejorar la comunicación y el comercio transfronterizo, particularmente con los EE. UU.
“Con el tiempo, crearemos un conjunto de herramientas accesibles para permitir buenas prácticas básicas para el desarrollo y despliegue responsable de la IA”, escribieron los autores.
El gobierno dice que el mercado de aseguramiento de la IA del Reino Unido, el sector que proporciona herramientas para desarrollar o utilizar la seguridad de la IA y que actualmente comprende 524 empresas, hará crecer la economía en más de £6,5 mil millones durante la próxima década. Este crecimiento puede atribuirse en parte al aumento de la confianza del público en la tecnología.
El informe agrega que el gobierno se asociará con el Instituto de Seguridad de la IA, lanzado por el ex primer ministro Rishi Sunak en la Cumbre de Seguridad de la IA en noviembre de 2023, para promover la garantía de la IA en el país. También asignará fondos para ampliar el programa de subvenciones de seguridad sistémica, que actualmente tiene hasta £200 000 disponibles para iniciativas que desarrollen el ecosistema de garantía de IA.
El próximo año llegará una legislación jurídicamente vinculante sobre la seguridad de la IA
Mientras tanto, Peter Kyle, secretario de tecnología del Reino Unido, se comprometió a hacer que el acuerdo voluntario sobre las pruebas de seguridad de la IA sea legalmente vinculante mediante la implementación del proyecto de ley de IA el próximo año en la Cumbre sobre el Futuro de la IA del Financial Times el miércoles.
En la Cumbre de Seguridad de la IA de noviembre, las empresas de IA, incluidas OpenAI, Google DeepMind y Anthropic, aceptaron voluntariamente permitir que los gobiernos prueben la seguridad de sus últimos modelos de IA antes de su lanzamiento público. Se informó por primera vez que Kyle había expresado sus planes de legislar acuerdos voluntarios a ejecutivos de destacadas empresas de inteligencia artificial en una reunión celebrada en julio.
VER: OpenAI y Anthropic Sign llegan a un acuerdo con el Instituto de Seguridad de IA de EE. UU. y entregan modelos fronterizos para realizar pruebas
También dijo que el proyecto de ley de IA se centrará en los grandes modelos básicos estilo ChatGPT creados por un puñado de empresas y convertirá al Instituto de Seguridad de IA de una dirección DSIT en un “organismo gubernamental independiente”. Kyle reiteró estos puntos en la Cumbre de esta semana, según el Financial Times, destacando que quiere dar al Instituto “la independencia para actuar plenamente en interés de los ciudadanos británicos”.
Además, se comprometió a invertir en potencia informática avanzada para apoyar el desarrollo de modelos de inteligencia artificial de vanguardia en el Reino Unido, en respuesta a las críticas por el hecho de que el gobierno descartó £800 millones de fondos para una supercomputadora de la Universidad de Edimburgo en agosto.
VER: El gobierno del Reino Unido anuncia 32 millones de libras esterlinas para proyectos de inteligencia artificial después de eliminar la financiación para supercomputadoras
Kyle afirmó que si bien el gobierno no puede invertir £100 mil millones por sí solo, se asociará con inversores privados para asegurar la financiación necesaria para futuras iniciativas.
Un año de legislación sobre seguridad de la IA en el Reino Unido
El año pasado se publicaron numerosas leyes que comprometen al Reino Unido a desarrollar y utilizar la IA de forma responsable.
El 30 de octubre de 2023, los países del Grupo de los Siete, incluido el Reino Unido, crearon un código de conducta voluntario de IA que comprende 11 principios que “promueven una IA segura y confiable en todo el mundo”.
La Cumbre de Seguridad de la IA, en la que 28 países se comprometieron a garantizar un desarrollo y despliegue seguros y responsables, comenzó apenas un par de días después. Más tarde, en noviembre, el Centro Nacional de Seguridad Cibernética del Reino Unido, la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos y agencias internacionales de otros 16 países publicaron directrices sobre cómo garantizar la seguridad durante el desarrollo de nuevos modelos de IA.
VER: Cumbre sobre seguridad de la IA en el Reino Unido: las potencias mundiales hacen un compromiso “histórico” con la seguridad de la IA
En marzo, las naciones del G7 firmaron otro acuerdo comprometiéndose a explorar cómo la IA puede mejorar los servicios públicos e impulsar el crecimiento económico. El acuerdo también cubrió el desarrollo conjunto de un conjunto de herramientas de inteligencia artificial para garantizar que los modelos utilizados sean seguros y confiables. El mes siguiente, el entonces gobierno conservador acordó trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de IA mediante la firma de un Memorando de Entendimiento.
En mayo, el gobierno lanzó Inspect, una plataforma de pruebas gratuita y de código abierto que evalúa la seguridad de nuevos modelos de IA evaluando sus conocimientos básicos, su capacidad de razonamiento y sus capacidades autónomas. También fue coanfitrión de otra Cumbre de Seguridad de la IA en Seúl, en la que el Reino Unido acordó colaborar con naciones del mundo en medidas de seguridad de la IA y anunció hasta £8,5 millones en subvenciones para investigaciones destinadas a proteger a la sociedad de sus riesgos.
Luego, en septiembre, el Reino Unido firmó el primer tratado internacional del mundo sobre IA junto con la UE, EE. UU. y otros siete países, comprometiéndolos a adoptar o mantener medidas que garanticen que el uso de la IA sea coherente con los derechos humanos, la democracia y la ley.
Y aún no ha terminado; Con la herramienta y el informe AIME, el gobierno ha anunciado una nueva asociación de seguridad de IA con Singapur a través de un Memorando de Cooperación. También estará representada en la primera reunión de institutos internacionales de seguridad de IA en San Francisco a finales de este mes.
El presidente del AI Safety Institute, Ian Hogarth, dijo: “Un enfoque eficaz para la seguridad de la IA requiere colaboración global. Es por eso que estamos poniendo tanto énfasis en la Red Internacional de Institutos de Seguridad de IA, al mismo tiempo que fortalecemos nuestras propias asociaciones de investigación”.
Sin embargo, Estados Unidos se ha alejado aún más de la colaboración con la IA con su reciente directiva que limita el intercambio de tecnologías de IA y exige protecciones contra el acceso extranjero a los recursos de IA.