El Comité de Asignaciones de California aprobó el jueves la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial (también conocida como SB-1047), el último paso en la saga de regular Silicon Valley.
La Asamblea y el Senado estatales aún deben aprobar el proyecto de ley antes de que se convierta en ley.
¿Qué es la SB-1047?
Conocida coloquialmente como la Ley de IA de California, y monitoreada de cerca en todo el país para posiblemente sentar un precedente para las reglas estatales en torno a la IA generativa, la SB-1047 establece varias reglas para los desarrolladores de IA:
- Cree protocolos de seguridad para los modelos de IA cubiertos.
- Asegúrese de que dichos modelos puedan apagarse por completo.
- Impedir la distribución de modelos capaces de provocar lo que la ley define como “daño crítico”.
- Contratar a un auditor para garantizar el cumplimiento de la ley.
En resumen, el proyecto de ley proporciona un marco que evita que los modelos generativos de IA causen daños a gran escala a la humanidad, como a través de una guerra nuclear o armas biológicas, o que causen más de 500 millones de dólares en pérdidas a través de un evento de ciberseguridad.
La ley define los “modelos cubiertos” como aquellos que utilizan una potencia informática superior a 10 ^ 26 operaciones enteras o de punto flotante, cuyo costo supera los 100 millones de dólares durante el entrenamiento.
La versión reciente de la ley incluye aportes de Anthropic
La versión del proyecto de ley aprobada el jueves incluía algunos cambios sugeridos por el fabricante de inteligencia artificial Anthropic y aceptados por el autor principal del proyecto de ley, el senador Scott Wiener, demócrata por California.
Anthropic solicitó con éxito al estado que eliminara el texto del proyecto de ley, diciendo que las empresas que infrinjan la ley podrían enfrentar acciones legales por parte del fiscal general del estado. La versión más reciente elimina la necesidad de que las empresas divulguen los resultados de las pruebas de seguridad bajo amenaza de perjurio. En cambio, los desarrolladores deberán presentar declaraciones que no tienen el mismo peso legal.
Otros cambios incluyen:
- El cambio en la redacción de las empresas de IA que tienen que brindar “garantías razonables” de seguridad a “cuidados razonables”.
- Una excepción en la que los investigadores de IA que gastan menos de 10 millones de dólares en ajustar un modelo cubierto de código abierto no se consideran desarrolladores de ese modelo.
VER: Anthropic y OpenAI han investigado por su cuenta cómo la IA generativa crea contenido, incluido el contenido sesgado.
El proyecto de ley ya no exige la creación de una División de Modelos Fronterizos, una agencia para supervisar la industria de la IA. En cambio, dentro de la actual Agencia de Operaciones Gubernamentales se integrará una Junta de Modelos de Frontera centrada en auditorías y orientación de seguridad con visión de futuro.
Si bien Anthropic contribuyó al proyecto de ley, otras grandes organizaciones como Google y Meta han expresado su desaprobación. Andreessen Horowitz, una firma de capital de riesgo conocida como a16z que está detrás de muchas nuevas empresas de inteligencia artificial, se ha opuesto enérgicamente a la SB-1047.
¿Por qué es controvertido el SB-1047?
Algunos representantes de la industria y del Congreso dicen que la ley restringirá la innovación y hará que sea particularmente difícil trabajar con modelos de IA de código abierto. Entre los críticos del proyecto de ley se encontraba el cofundador y director ejecutivo de Hugging Face, Clement Delangue, como señaló Fast Company.
Un estudio de abril realizado por el grupo de expertos a favor de la regulación Artificial Intelligence Policy Institute encontró que la mayoría de los californianos votaron a favor del proyecto de ley tal como estaba en ese momento, y el 70% estuvo de acuerdo en que “futuros modelos poderosos de IA podrían usarse con fines peligrosos”.
Los investigadores Geoffrey Hinton y Yoshua Bengio, conocidos como los “padrinos de la IA” por su trabajo pionero en aprendizaje profundo, también apoyan públicamente el proyecto de ley. La ley “protegerá al público”, escribió Bengio en un artículo de opinión en Fortune el 15 de agosto.
Ocho de los 52 miembros del Congreso de California firmaron una carta el jueves diciendo que la ley “crearía riesgos innecesarios para la economía de California con muy pocos beneficios para la seguridad pública”. Argumentan que es demasiado pronto para crear evaluaciones estandarizadas para la IA, ya que agencias gubernamentales como el NIST todavía están trabajando en la creación de esos estándares.
Sugieren que la definición de daño crítico podría ser engañosa, diciendo que el proyecto de ley se ha desviado al centrarse en desastres a gran escala, como las armas nucleares, mientras que “ignora en gran medida los riesgos demostrables de la IA, como la desinformación, la discriminación, las falsificaciones profundas no consensuadas, los impactos ambientales y la fuerza laboral”. desplazamiento.”
La SB-1047 incluye protección específica para los denunciantes de empresas de inteligencia artificial en virtud de la Ley de Protección de Denunciantes de California.
La ley plantea los desafíos de equilibrar la regulación y la innovación.
“Podemos avanzar tanto en innovación como en seguridad; Los dos no son mutuamente excluyentes”, escribió Wiener en una declaración pública el 15 de agosto. “Si bien las enmiendas no reflejan el 100% de los cambios solicitados por Anthropic, líder mundial tanto en innovación como en seguridad, aceptamos una serie de cambios muy Se propusieron enmiendas razonables y creo que hemos abordado las preocupaciones centrales expresadas por Anthropic y muchos otros en la industria”.
Señaló que el Congreso está “paralizado” en cuanto a la regulación de la IA, por lo que “California debe actuar para adelantarse a los riesgos previsibles que presenta el rápido avance de la IA y al mismo tiempo fomentar la innovación”.
A continuación, el proyecto de ley deberá ser aprobado por la Asamblea y el Senado. Si se aprueba, el proyecto de ley será considerado por el gobernador Gavin Newsom, probablemente a finales de agosto.