A medida que la IA generativa se vuelve más popular, las organizaciones deben considerar cómo implementarla de manera ética. Pero, ¿cómo es el despliegue ético de la IA? ¿Implica controlar la inteligencia a nivel humano? ¿Prevenir el sesgo? ¿O ambos?
Para evaluar cómo las empresas abordan este tema, Deloitte encuestó recientemente a 100 ejecutivos de nivel C de empresas estadounidenses con ingresos anuales de entre 100 millones y 10 mil millones de dólares. Los resultados indicaron cómo los líderes empresariales incorporan la ética en sus políticas de IA generativa.
Principales prioridades para la ética de la IA
¿Qué cuestiones éticas consideran estas organizaciones más importantes? Las organizaciones priorizaron las siguientes cuestiones éticas en el desarrollo y la implementación de la IA:
- Equilibrar la innovación con la regulación (62%).
- Garantizar la transparencia en la forma en que se recopilan y utilizan los datos (59%).
- Abordar las preocupaciones sobre la privacidad de los datos y de los usuarios (56%).
- Garantizar la transparencia en el funcionamiento de los sistemas empresariales (55%).
- Mitigar el sesgo en algoritmos, modelos y datos (52%).
- Garantizar que los sistemas funcionen de manera confiable y según lo previsto (47%).
Las organizaciones con mayores ingresos (mil millones de dólares o más por año) tenían más probabilidades que las empresas más pequeñas de afirmar que sus marcos éticos y estructuras de gobernanza fomentan la innovación tecnológica.
Los usos poco éticos de la IA pueden incluir información errónea, especialmente crítica durante las temporadas electorales, y reforzar el sesgo y la discriminación. La IA generativa puede replicar accidentalmente los prejuicios humanos al copiar lo que ve, o los malos actores pueden usar la IA generativa para crear intencionalmente contenido sesgado más rápidamente.
Los actores de amenazas que utilizan correos electrónicos de phishing pueden aprovechar la rápida escritura de la IA generativa. Otros casos de uso potencialmente poco éticos pueden incluir que la IA tome decisiones importantes en la guerra o en la aplicación de la ley.
El gobierno de EE. UU. y las principales empresas de tecnología acordaron un compromiso voluntario en septiembre de 2023 que establece estándares para divulgar el uso de IA generativa y el contenido creado con ella. La Oficina de Política Científica y Tecnológica de la Casa Blanca emitió un anteproyecto para una Declaración de Derechos de la IA, que incluye esfuerzos contra la discriminación.
Las empresas estadounidenses que utilizan IA en determinadas escalas y para tareas de alto riesgo deberán reportar información al Departamento de Comercio a partir de enero de 2024.
VER: Comience con una plantilla para una política de ética de IA.
“Para cualquier organización que adopte la IA, la tecnología presenta tanto el potencial de obtener resultados positivos como el riesgo de resultados no deseados”, dijo Beena Ammanath, directora ejecutiva del Global Deloitte AI Institute y líder confiable de IA en Deloitte, en un correo electrónico a TechRepublic.
¿Quién toma decisiones éticas en la IA?
En el 34% de los casos, las decisiones éticas de la IA provienen de directores o títulos superiores. En el 24% de los casos, todos los profesionales toman decisiones sobre IA de forma independiente. En casos más raros, los líderes empresariales o departamentales (17%), los gerentes (12%), los profesionales con capacitación o certificaciones obligatorias (7%) o una junta de revisión de IA (7%) toman decisiones éticas relacionadas con la IA.
Las grandes empresas (mil millones de dólares o más de ingresos anuales) tenían más probabilidades de permitir que los trabajadores tomaran decisiones independientes sobre el uso de la IA que las empresas con menos de mil millones de dólares de ingresos anuales.
La mayoría de los ejecutivos encuestados (76%) dijeron que su organización realiza capacitación ética en IA para su fuerza laboral, y el 63% dice que la realizan para la junta directiva. Los trabajadores en las fases de construcción (69%) y en las fases previas al desarrollo (49%) reciben formación ética en IA con menos frecuencia.
“A medida que las organizaciones continúan explorando oportunidades con la IA, es alentador observar cómo han surgido marcos de gobernanza en conjunto para empoderar a las fuerzas laborales para promover resultados éticos e impulsar un impacto positivo”, dijo Kwasi Mitchell, director de propósitos y DEI de EE. UU. en Deloitte. “Al adoptar procedimientos diseñados para promover la responsabilidad y salvaguardar la confianza, los líderes pueden establecer una cultura de integridad e innovación que les permita aprovechar de manera efectiva el poder de la IA, al mismo tiempo que promueven la equidad y generan impacto”.
¿Las organizaciones están contratando y mejorando sus habilidades para roles éticos en IA?
Los siguientes roles fueron contratados o forman parte de planes de contratación para las organizaciones encuestadas:
- Investigador de IA (59%).
- Analista de políticas (53%).
- Gerente de cumplimiento de IA (50%).
- Científico de datos (47%).
- Especialista en gobernanza de IA (40%).
- Ético de datos (34%).
- Ético de la IA (27%).
Muchos de esos profesionales (68%) procedían de programas internos de formación/mejora de habilidades. Menos han utilizado fuentes externas, como programas tradicionales de contratación o certificación, y menos aún buscan contrataciones en campus y colaboración con instituciones académicas.
“En última instancia, las empresas deben tener confianza en que se puede confiar en que su tecnología protegerá la privacidad, la seguridad y el trato equitativo de sus usuarios, y que está alineada con sus valores y expectativas”, afirmó Ammanath. “Un enfoque eficaz de la ética de la IA debe basarse en las necesidades y valores específicos de cada organización, y las empresas que implementan marcos éticos estratégicos a menudo encontrarán que estos sistemas apoyan e impulsan la innovación, en lugar de obstaculizarla”.