La Comisión Europea ha revelado detalles sobre su nueva Oficina de IA, que se está formando para regular el despliegue de los modelos de propósito general y la Ley de IA en la UE. La oficina estará compuesta por cinco unidades que cubrirán diferentes áreas, incluidas la regulación, la innovación y la IA. para el bien social.
Los modelos de propósito general se refieren a modelos de IA fundamentales que se pueden utilizar para una amplia gama de propósitos, algunos de los cuales pueden ser desconocidos para el desarrollador, como GPT-4 de OpenAI.
La oficina, que entrará en vigor el 16 de junio, se hará cargo de tareas como la elaboración de códigos de práctica y el asesoramiento sobre los modelos de IA desarrollados antes de que la Ley de IA entre en vigor en su totalidad. También proporcionará acceso a recursos de prueba de IA y garantizará que los modelos de última generación se integren en aplicaciones de la vida real.
La Comisión Europea decidió establecer la Oficina de IA en enero de 2024 para apoyar a las empresas emergentes y a las pymes europeas en el desarrollo de una IA confiable. Pertenece a la Dirección General Connect, el departamento encargado de las tecnologías digitales.
La oficina empleará a más de 140 personas, incluidos especialistas en tecnología, asistentes administrativos, abogados, especialistas en políticas y economistas. Estará dirigido por el Jefe de la Oficina de IA, quien actuará siguiendo la orientación de un Asesor Científico Principal y un Asesor de Asuntos Internacionales.
Margrethe Vestager, vicepresidenta ejecutiva para una Europa adaptada a la era digital, dijo en un comunicado de prensa: “La oficina de IA inaugurada hoy nos ayudará a garantizar una implementación coherente de la Ley de IA. Junto con los desarrolladores y la comunidad científica, la oficina evaluará y probará la IA de uso general para garantizar que nos sirva como seres humanos y defienda nuestros valores europeos”.
Tareas de las que será responsable la Oficina de AI
- Garantizar la implementación coherente de la Ley de IA en todos los Estados miembros.
- Hacer cumplir las normas de la Ley de IA y aplicar sanciones.
- Desarrollar códigos de práctica y realizar pruebas y evaluaciones de modelos de IA.
- Utilizar la experiencia del Consejo Europeo de Inteligencia Artificial, un panel científico independiente, las grandes empresas tecnológicas, las pymes y las nuevas empresas, el mundo académico, los think tanks y la sociedad civil en la toma de decisiones.
- Proporcionar asesoramiento sobre las mejores prácticas de IA y acceso a recursos de prueba, como fábricas de IA y centros europeos de innovación digital.
- Financiar y apoyar la investigación innovadora en inteligencia artificial y robótica.
- Apoyar iniciativas que garanticen que los modelos de IA fabricados y entrenados en Europa se integren en aplicaciones novedosas que impulsen la economía.
- Construir un enfoque europeo estratégico, coherente y eficaz hacia la IA que actúe como punto de referencia para otras naciones.
Las cinco unidades de la Oficina de IA
1. Unidad de Regulación y Cumplimiento
La Unidad de Regulación y Cumplimiento será responsable de garantizar la aplicación y el cumplimiento uniformes de la Ley de IA en todos los Estados miembros de la Unión. El personal realizará investigaciones y administrará sanciones en caso de infracciones.
2. Unidad sobre seguridad de la IA
La Unidad de Seguridad de la IA desarrollará marcos de prueba que identifiquen los riesgos sistémicos presentes en los modelos de IA de uso general y las mitigaciones correspondientes. Un modelo presenta un riesgo sistémico cuando la cantidad acumulada de computación utilizada para su entrenamiento es mayor que un cierto umbral, según la Ley de IA de la UE.
Esta unidad podría ser una respuesta a la formación de Institutos de Seguridad de IA por parte del Reino Unido, EE. UU. y otras naciones del mundo. En la Cumbre de AI de Seúl de mayo, la UE acordó con 10 países formar una red colaborativa de Institutos de Seguridad de AI.
VER: Reino Unido y EE. UU. acuerdan colaborar en el desarrollo de pruebas de seguridad para modelos de IA
3. Unidad de Excelencia en IA y Robótica
El equipo de Excelencia en IA y Robótica apoyará y financiará el desarrollo de modelos y su integración en aplicaciones útiles. También coordina la iniciativa GenAI4EU, cuyo objetivo es apoyar la integración de la IA generativa en 14 industrias, incluidas la salud, el clima y la manufactura, y el sector público.
4. Unidad de IA para el bien social
La Unidad de IA para el Bien Social colaborará con organismos internacionales para trabajar en aplicaciones de IA que beneficien a la sociedad en su conjunto, como la modelización meteorológica, el diagnóstico de cáncer y los gemelos digitales para reconstrucciones artísticas. La unidad es consecuencia de la decisión adoptada en abril de que la UE colabore con Estados Unidos en investigaciones que aborden “desafíos globales para el bien público”.
VER: Reino Unido y los países del G7 utilizarán la IA para impulsar los servicios públicos
5. Unidad de Coordinación de Políticas e Innovación de IA
La Unidad de Coordinación de Políticas e Innovación en IA será responsable de la ejecución general de la estrategia de IA de la UE. Supervisará las tendencias y las inversiones, apoyará las pruebas de IA en el mundo real, establecerá fábricas de IA que proporcionen infraestructura de servicios de supercomputación de IA y colaborará con los centros europeos de innovación digital.
La Ley de IA de la UE en resumen
Una de las principales responsabilidades de la Oficina de IA es hacer cumplir la Ley de IA, la primera ley integral del mundo sobre IA, en todos los Estados miembros. La Ley es un conjunto de legislación a nivel de la UE que busca establecer salvaguardias sobre el uso de la IA en Europa, al mismo tiempo que garantiza que las empresas europeas puedan beneficiarse de la tecnología en rápida evolución.
VER: Cómo preparar su empresa para la Ley de IA de la UE con el Centro de IA de la UE de KPMG
Si bien la Ley de IA se aprobó en marzo, todavía quedan algunos pasos por tomar antes de que las empresas deban cumplir con sus regulaciones. La Ley de IA de la UE debe publicarse primero en el Diario Oficial de la UE, lo que se espera que suceda en julio de este año. Entrará en vigor 20 días después de su publicación, pero los requisitos se aplicarán por etapas a lo largo de los siguientes 24 meses.
La Oficina de IA debe publicar directrices sobre la definición de sistemas de IA y las prohibiciones dentro de los seis meses posteriores a la entrada en vigor de la ley de IA, y códigos de práctica dentro de nueve meses.
Las empresas que no cumplan con la Ley de IA de la UE se enfrentan a multas que van desde 35 millones de euros (38 millones de dólares) o el 7% de la facturación global, hasta 7,5 millones de euros (8,1 millones de dólares) o el 1,5% de la facturación, dependiendo de la infracción y el tamaño. de la compañia.
La reputación de la UE en materia de regulación de la IA
El hecho de que tres de las unidades de la oficina (Excelencia en IA y Robótica, IA para el bien social y Coordinación de políticas e innovación de IA) se centren en fomentar la innovación en IA y aumentar los casos de uso sugiere que la UE no está empeñada en sofocar el progreso con sus restricciones, como dicen los críticos. de la Ley de IA han sugerido. El año pasado, Sam Altman de OpenAI dijo que desconfiaba específicamente del exceso de regulación en la UE.
Además de la Ley de IA, la UE está tomando una serie de medidas para garantizar que los modelos de IA cumplan con el RGPD. El 24 de mayo, el grupo de trabajo ChatGPT de la Junta Europea de Protección de Datos dictaminó que OpenAI no ha hecho lo suficiente para garantizar que su chatbot brinde respuestas precisas. La precisión de los datos y la privacidad son dos pilares importantes del RGPD y, en marzo de 2023, Italia bloqueó temporalmente ChatGPT por recopilar datos personales ilegalmente.
En un informe que resume los hallazgos del grupo de trabajo, los investigadores escribieron: “Aunque las medidas tomadas para cumplir con el principio de transparencia son beneficiosas para evitar malas interpretaciones de los resultados de ChatGPT, no son suficientes para cumplir con el principio de precisión de los datos”.