Tue. Aug 27th, 2024

WASHINGTON.- Las agencias federales deben demostrar que sus herramientas de inteligencia artificial no dañan a las personas, o dejar de usarlas, según las nuevas reglas reveladas por la Casa Blanca el jueves.

“Cuando las agencias gubernamentales utilicen herramientas de inteligencia artificial, les exigiremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense”, dijo a los periodistas la vicepresidenta Kamala Harris antes del anuncio.

Para diciembre, cada entidad debe tener un conjunto de salvaguardas concretas que guíen todo, desde pantallas de reconocimiento facial en los aeropuertos hasta herramientas de inteligencia artificial que ayuden a monitorear la red eléctrica o determinar hipotecas y seguros de viviendas.

La nueva directiva emitida el jueves a los jefes de agencias por la Oficina de Gestión y Presupuesto de la Casa Blanca es parte de la amplia orden ejecutiva sobre IA firmada por el presidente Joe Biden en octubre.

Si bien el amplio decreto busca salvaguardar los sistemas comerciales de inteligencia artificial fabricados por empresas de tecnología líderes, como las que impulsan los chatbots de inteligencia artificial generativa, la directiva del jueves apunta a las herramientas que las agencias han utilizado durante años para tomar decisiones sobre inmigración, vivienda, bienestar infantil y una variedad de servicios. .

Como ejemplo, Harris dijo que “si la Administración de Veteranos quiere utilizar la IA en sus hospitales para ayudar a los médicos a diagnosticar a los pacientes, tendrán que demostrar ante todo que la IA no produce diagnósticos con prejuicios raciales”.

Las agencias que no pueden aplicar las salvaguardas “deberían dejar de usar el sistema de inteligencia artificial a menos que la gerencia pueda explicar por qué hacerlo aumentaría los riesgos o derechos generales o crearía un obstáculo insuperable para sus operaciones cruciales”, según un anuncio de la agencia. Casa Blanca.

Hay otros dos “requisitos vinculantes”, dijo Harris. Una es que las entidades federales deben contratar a un jefe de IA con “experiencia, conocimientos y autoridad” para supervisar todas las tecnologías de IA empleadas por la agencia, dijo Harris. La otra es que cada año las agencias deben publicar un inventario de sus sistemas de IA que incluya una evaluación de sus riesgos potenciales.

Hay algunas excepciones para las agencias de inteligencia y el Departamento de Defensa, que mantiene un debate particular sobre el uso de armas autónomas.

FUENTE: Con información de AP

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *