OpenAI y Anthropic han firmado acuerdos con el gobierno de EE. UU. para ofrecer sus modelos de IA de vanguardia para pruebas e investigaciones de seguridad. Un anuncio del NIST el jueves reveló que el Instituto de Seguridad de IA de EE. UU. obtendrá acceso a las tecnologías “antes y después de su lanzamiento público”.
Gracias a los respectivos Memorándum de Entendimiento (acuerdos no jurídicamente vinculantes) firmados por los dos gigantes de la IA, el AISI puede evaluar las capacidades de sus modelos e identificar y mitigar cualquier riesgo de seguridad.
El AISI, establecido formalmente por el NIST en febrero de 2024, se centra en las acciones prioritarias descritas en la Orden ejecutiva de IA sobre el desarrollo y uso seguro y confiable de la inteligencia artificial emitida en octubre de 2023. Estas acciones incluyen el desarrollo de estándares para la seguridad y Seguridad de los sistemas de IA. El grupo cuenta con el apoyo del AI Safety Institute Consortium, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft.
Elizabeth Kelly, directora de AISI, dijo en el comunicado de prensa: “La seguridad es esencial para impulsar la innovación tecnológica revolucionaria. Con estos acuerdos vigentes, esperamos comenzar nuestras colaboraciones técnicas con Anthropic y OpenAI para avanzar en la ciencia de la seguridad de la IA.
“Estos acuerdos son sólo el comienzo, pero son un hito importante mientras trabajamos para ayudar a administrar responsablemente el futuro de la IA”.
VER: Definición de IA generativa: cómo funciona, beneficios y peligros
Jack Clark, cofundador y director de Políticas de Anthropic, dijo a TechRepublic por correo electrónico: “La IA segura y confiable es crucial para el impacto positivo de la tecnología. Nuestra colaboración con el Instituto de Seguridad de IA de EE. UU. aprovecha su amplia experiencia para probar rigurosamente nuestros modelos antes de su implementación generalizada.
“Esto fortalece nuestra capacidad para identificar y mitigar riesgos, impulsando el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y confiable”.
Jason Kwon, director de estrategia de OpenAI, dijo a TechRepublic por correo electrónico: “Apoyamos firmemente la misión del Instituto de Seguridad de IA de EE. UU. y esperamos trabajar juntos para informar las mejores prácticas y estándares de seguridad para los modelos de IA.
“Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo estadounidense en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco sobre el que el resto del mundo pueda construir”.
AISI trabajará con el Instituto de Seguridad de IA del Reino Unido
El AISI también planea colaborar con el Instituto de Seguridad de IA del Reino Unido al brindar comentarios relacionados con la seguridad a OpenAI y Anthropic. En abril, los dos países acordaron formalmente trabajar juntos en el desarrollo de pruebas de seguridad para modelos de IA.
Este acuerdo se tomó para mantener los compromisos establecidos en la primera Cumbre mundial sobre seguridad de la IA en noviembre pasado, donde los gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA.
Después del anuncio del jueves, Jack Clark, cofundador y jefe de políticas de Anthropic, publicó en X: “Las pruebas de terceros son una parte realmente importante del ecosistema de IA y ha sido sorprendente ver a los gobiernos crear institutos de seguridad para facilitar esto.
“Este trabajo con el AISI de EE. UU. se basará en trabajos anteriores que hicimos este año, donde trabajamos con el AISI del Reino Unido para realizar una prueba previa al despliegue de Sonnet 3.5”.
Claude 3.5 Sonnet es el último modelo de IA de Anthropic, lanzado en junio.
Desde el lanzamiento de ChatGPT, las empresas de IA y los reguladores se han enfrentado por la necesidad de regulaciones estrictas sobre la IA: las primeras presionan por salvaguardias contra riesgos como la desinformación, mientras que los segundos argumentan que reglas demasiado estrictas podrían sofocar la innovación. Los principales actores de Silicon Valley han abogado por un marco voluntario que permita la supervisión gubernamental de sus tecnologías de inteligencia artificial en lugar de mandatos regulatorios estrictos.
El enfoque de Estados Unidos a nivel nacional ha sido más favorable a la industria, centrándose en directrices voluntarias y la colaboración con empresas de tecnología, como se ve en iniciativas ligeras como la Declaración de Derechos de la IA y la Orden Ejecutiva de la IA. Por el contrario, la UE ha adoptado una vía regulatoria más estricta con la Ley de IA, que establece requisitos legales sobre transparencia y gestión de riesgos.
En cierto modo en desacuerdo con la perspectiva nacional sobre la regulación de la IA, el miércoles la Asamblea del Estado de California aprobó la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, también conocida como SB-1047 o Ley de IA de California. Al día siguiente, fue aprobado por el Senado estatal y ahora solo tiene que ser aprobado por el gobernador Gavin Newsom antes de que se convierta en ley.
Los incondicionales de Silicon Valley, OpenAI, Meta y Google, han escrito cartas a los legisladores de California expresando sus preocupaciones sobre la SB-1047, enfatizando la necesidad de un enfoque más cauteloso para evitar obstaculizar el crecimiento de las tecnologías de inteligencia artificial.
VER: OpenAI, Microsoft y Adobe respaldan el proyecto de ley de marcas de agua de IA de California
Tras el anuncio del jueves sobre el acuerdo de su compañía con el AISI de EE. UU., Sam Altman, director ejecutivo de OpenAI, publicó en X que sentía que era “importante que esto suceda a nivel nacional”, haciendo una astuta excavación en el SB-1047 de California. La violación de la legislación a nivel estatal daría lugar a sanciones, a diferencia de un Memorando de Entendimiento voluntario.
Mientras tanto, el Instituto de Seguridad de IA del Reino Unido enfrenta desafíos financieros
Desde la transición del liderazgo conservador al laborismo a principios de julio, el gobierno del Reino Unido ha realizado una serie de cambios notables con respecto a su enfoque hacia la IA.
Según fuentes de Reuters, ha desechado la oficina que debía establecer en San Francisco este verano, que se promocionaba para cimentar las relaciones entre el Reino Unido y los titanes de la IA del Área de la Bahía. Según se informa, el ministro de Tecnología, Peter Kyle, también despidió al asesor político senior y cofundador del AISI del Reino Unido, Nitarshan Rajkumar.
VER: El gobierno del Reino Unido anuncia 32 millones de libras esterlinas para proyectos de inteligencia artificial después de eliminar la financiación para supercomputadoras
Las fuentes de Reuters agregaron que Kyle planea recortar las inversiones directas del gobierno en la industria. De hecho, a principios de este mes, el gobierno archivó £1.300 millones de fondos que habían sido destinados a la IA y la innovación tecnológica.
En julio, la canciller Rachel Reeves dijo que el gasto público iba camino de exceder el presupuesto en £22 mil millones e inmediatamente anunció £5,5 mil millones de recortes, incluido el Fondo de Oportunidades de Inversión, que apoyaba proyectos en los sectores digital y tecnológico.
Unos días antes del discurso del Canciller, el Partido Laborista nombró al empresario tecnológico Matt Clifford para desarrollar el “Plan de Acción de Oportunidades de IA”, que identificará cómo se puede aprovechar mejor la IA a nivel nacional para impulsar la eficiencia y reducir costos. Sus recomendaciones se publicarán en septiembre.
Según fuentes de Reuters, la semana pasada, Clifford se reunió con diez representantes de firmas de capital de riesgo establecidas para discutir este plan, incluido cómo el gobierno puede adoptar la IA para mejorar los servicios públicos, apoyar a las empresas universitarias derivadas y facilitar la creación de nuevas empresas. contratar a nivel internacional.
Pero entre bastidores no hay calma en absoluto, ya que un asistente dijo a Reuters que estaban “enfatizando que sólo tenían un mes para cambiar la revisión”.