Thu. Aug 29th, 2024

El Instituto de Seguridad de IA del Reino Unido ha lanzado una plataforma de prueba gratuita y de código abierto que evalúa la seguridad de nuevos modelos de IA. Apodado Inspect, el conjunto de herramientas debería proporcionar un “enfoque coherente” hacia la creación de aplicaciones seguras de IA en todo el mundo.

Inspect es la primera plataforma de pruebas de seguridad de IA creada por un organismo respaldado por el estado y que se pone a disposición del público de forma gratuita. En última instancia, acelerará las mejoras en el desarrollo de modelos seguros de IA y la eficacia de las pruebas de seguridad.

Cómo utilizar la biblioteca de software Inspect

La biblioteca de software Inspect, lanzada el 10 de mayo, se puede utilizar para evaluar la seguridad de las características de un modelo de IA, incluidos sus conocimientos básicos, su capacidad de razonamiento y sus capacidades autónomas, de forma estandarizada. Inspect proporciona una puntuación basada en sus hallazgos, que revela qué tan seguro es el modelo y qué tan efectiva fue la evaluación.

Como el código fuente de Inspect es de acceso abierto, la comunidad mundial de pruebas de IA, incluidas empresas, centros de investigación y gobiernos, puede integrarlo con sus modelos y obtener información de seguridad esencial de forma más rápida y sencilla.

VER: Las 5 principales tendencias de IA a tener en cuenta en 2024

El presidente del AI Safety Institute, Ian Hogarth, dijo que el equipo de Inspect se inspiró en los principales desarrolladores de inteligencia artificial de código abierto para crear un componente básico hacia un “enfoque compartido y accesible para las evaluaciones”.

Dijo en el comunicado de prensa: “Esperamos ver a la comunidad global de IA utilizando Inspect no solo para llevar a cabo sus propias pruebas de seguridad de modelos, sino también para ayudar a adaptar y desarrollar la plataforma de código abierto para que podamos producir evaluaciones de alta calidad en todo el mundo”. junta.”

La Secretaria de Estado de Ciencia, Innovación y Tecnología, Michelle Donelan, añadió que la IA segura mejorará varios sectores en el Reino Unido, desde “nuestro NHS hasta nuestra red de transporte”.

El AISI, junto con el grupo de expertos Incubadora de Inteligencia Artificial y la oficina del Primer Ministro Rishi Sunak, también está reclutando talentos en IA para probar y desarrollar nuevas herramientas de seguridad de IA de código abierto.

Inspeccionar: lo que los desarrolladores necesitan saber

Puede encontrar una guía sobre cómo utilizar el kit de herramientas Inspect en su formato básico en GitHub del gobierno del Reino Unido. Sin embargo, el software viene con una licencia MIT que permite copiarlo, modificarlo, fusionarlo, publicarlo, distribuirlo, venderlo y otorgarle sublicencias; esto significa que cualquiera puede modificar o agregar nuevos métodos de prueba al script a través de paquetes Python de terceros para mejorar sus capacidades.

Los desarrolladores que deseen utilizar Inspect primero deben instalarlo y asegurarse de tener acceso a un modelo de IA. Luego pueden crear un script de evaluación utilizando el marco Inspect y ejecutarlo en el modelo que elijan.

Inspect evalúa la seguridad de los modelos de IA utilizando tres componentes principales:

  1. Conjuntos de datos de escenarios de prueba de muestra para la evaluación, incluidas indicaciones y resultados objetivo.
  2. Solucionadores que ejecutan los escenarios de prueba utilizando el indicador.
  3. Goleadores que analizan el resultado de los solucionadores y generan una puntuación.

Se puede acceder al código fuente a través del repositorio GitHub del gobierno del Reino Unido.

Lo que dicen los expertos sobre Inspect

La respuesta general al anuncio de Inspect por parte del Reino Unido ha sido positiva. El director ejecutivo de la plataforma comunitaria de IA Abrazando la cara Clément Delangue publicado en X que está interesado en crear una “tabla de clasificación pública con resultados de las evaluaciones” de diferentes modelos. Una tabla de clasificación de este tipo podría mostrar las IA más seguras y alentar a los desarrolladores a utilizar Inspect para que sus modelos puedan clasificarse.

Fundación Linux Europa también al corriente que el código abierto de Inspect “se alinea perfectamente con nuestro llamado a una mayor innovación de código abierto por parte del sector público”. Deborah Raji, investigadora de Mozilla y especialista en ética de la IA, lo llamó un “testimonio del poder de la inversión pública en herramientas de código abierto para la responsabilidad de la IA”. en X.

Los pasos del Reino Unido hacia una IA más segura

El AISI del Reino Unido se lanzó en la Cumbre de Seguridad de la IA en noviembre de 2023 con los tres objetivos principales: evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Poco después de la cumbre, el Centro Nacional de Seguridad Cibernética del Reino Unido publicó directrices sobre la seguridad de los sistemas de IA junto con otras 17 agencias internacionales.

Con la explosión de las tecnologías de IA en los últimos dos años, existe una necesidad imperiosa de establecer y hacer cumplir estándares sólidos de seguridad de IA para prevenir problemas como prejuicios, alucinaciones, violaciones de la privacidad, violaciones de la propiedad intelectual y uso indebido intencional, que podrían tener consecuencias sociales y económicas más amplias. .

VER: Definición de IA generativa: cómo funciona, beneficios y peligros

En octubre de 2023, los países del G7, incluido el Reino Unido, publicaron el código de conducta de IA ‘Hiroshima’, que es un enfoque basado en riesgos que pretende “promover una IA segura y confiable en todo el mundo y proporcionará orientación voluntaria para las acciones de las organizaciones”. desarrollando los sistemas de IA más avanzados”.

En marzo de este año, las naciones del G7 firmaron un acuerdo comprometiéndose a explorar cómo la inteligencia artificial puede mejorar los servicios públicos e impulsar el crecimiento económico. También cubrió el desarrollo conjunto de un conjunto de herramientas de IA para informar la formulación de políticas y garantizar que la IA utilizada por los servicios del sector público sea segura y confiable.

El mes siguiente, el gobierno del Reino Unido acordó formalmente trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de inteligencia artificial. Ambos países acordaron “alinear sus enfoques científicos” y trabajar juntos para “acelerar e iterar rápidamente conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA”.

Esta acción se tomó para mantener los compromisos establecidos en la primera Cumbre mundial de seguridad de IA, donde gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *