Las preocupaciones sobre la privacidad de los datos en relación con la IA generativa han aumentado, según un nuevo informe de Deloitte. Mientras que el año pasado sólo el 22% de los profesionales la situaban entre sus tres principales preocupaciones, este año la cifra ha ascendido al 72%.
Las siguientes preocupaciones éticas más importantes de GenAI fueron la transparencia y la procedencia de los datos, y el 47% y el 40% de los profesionales las clasificaron entre las tres principales este año. Mientras tanto, sólo el 16% expresó preocupación por el desplazamiento de puestos de trabajo.
El personal siente cada vez más curiosidad por saber cómo funciona la tecnología de inteligencia artificial, especialmente en lo que respecta a los datos confidenciales. Un estudio de septiembre realizado por HackerOne encontró que casi la mitad de los profesionales de seguridad creen que la IA es riesgosa, y muchos ven los datos de entrenamiento filtrados como una amenaza.
De manera similar, el 78 % de los líderes empresariales clasificaron “seguro y protegido” como uno de sus tres principios tecnológicos éticos principales, lo que representa un aumento del 37 % con respecto a 2023, lo que demuestra aún más cómo la cuestión de la seguridad es una prioridad.
Los resultados de la encuesta provienen del informe “Estado de la ética y la confianza en la tecnología” de 2024 de Deloitte, que encuestó a más de 1.800 profesionales técnicos y empresariales de todo el mundo sobre los principios éticos que aplican a las tecnologías, específicamente a GenAI.
Es probable que los incidentes de seguridad de IA de alto perfil atraigan más atención
Poco más de la mitad de los encuestados en los informes de este año y del año pasado dijeron que las tecnologías cognitivas como la IA y la GenAI plantean los mayores riesgos éticos en comparación con otras tecnologías emergentes, como la realidad virtual, la computación cuántica, los vehículos autónomos y la robótica.
Este nuevo enfoque puede estar relacionado con una mayor conciencia de la importancia de la seguridad de los datos debido a incidentes muy publicitados, como cuando un error en ChatGPT de OpenAI expuso datos personales de alrededor del 1,2% de los suscriptores de ChatGPT Plus, incluidos nombres, correos electrónicos y datos parciales. detalles de pago.
La confianza en el chatbot seguramente también se vio erosionada por la noticia de que los piratas informáticos habían irrumpido en un foro en línea utilizado por los empleados de OpenAI y habían robado información confidencial sobre los sistemas de inteligencia artificial de la empresa.
VER: Política de Ética de la Inteligencia Artificial
“La disponibilidad y adopción generalizada de GenAI puede haber aumentado la familiaridad y la confianza de los encuestados en la tecnología, generando optimismo sobre su potencial para el bien”, dijo Beena Ammanath, Global Deloitte AI Institute y líder de Trustworthy AI, en un comunicado de prensa.
“Los continuos sentimientos de cautela sobre sus riesgos aparentes subrayan la necesidad de marcos éticos específicos y evolucionados que permitan un impacto positivo”.
La legislación sobre IA está afectando la forma en que operan las organizaciones en todo el mundo
Naturalmente, más personal está utilizando GenAI en el trabajo que el año pasado, y el porcentaje de profesionales que informan que lo utilizan internamente aumentó un 20% en los informes año tras año de Deloitte.
Un enorme 94% dijo que sus empresas lo han inculcado en los procesos de alguna manera. Sin embargo, la mayoría indicó que todavía se encuentra en la fase piloto o que su uso es limitado, y sólo el 12% dijo que su uso está generalizado. Esto se alinea con una investigación reciente de Gartner que encontró que la mayoría de los proyectos GenAI no pasan de la etapa de prueba de concepto.
VER: IBM: mientras aumenta la adopción empresarial de la inteligencia artificial, las barreras limitan su uso
Independientemente de su omnipresencia, los tomadores de decisiones quieren asegurarse de que su uso de la IA no les cause problemas, particularmente cuando se trata de legislación. La razón mejor calificada para contar con políticas y directrices tecnológicas éticas fue el cumplimiento, citada por el 34% de los encuestados, mientras que las sanciones regulatorias estuvieron entre las tres principales preocupaciones reportadas si no se siguen dichos estándares.
La Ley de IA de la UE entró en vigor el 1 de agosto e impone requisitos estrictos a los sistemas de IA de alto riesgo para garantizar la seguridad, la transparencia y el uso ético. El incumplimiento podría dar lugar a multas que van desde 35 millones de euros (38 millones de dólares) o el 7% de la facturación global hasta 7,5 millones de euros (8,1 millones de dólares) o el 1,5% de la facturación.
Más de cien empresas, incluidas Amazon, Google, Microsoft y OpenAI, ya firmaron el Pacto de IA de la UE y se ofrecieron como voluntarios para comenzar a implementar los requisitos de la ley antes de los plazos legales. Esto demuestra su compromiso con el despliegue responsable de la IA al público y les ayuda a evitar futuros desafíos legales.
De manera similar, en octubre de 2023, Estados Unidos dio a conocer una Orden Ejecutiva sobre IA que presenta una amplia orientación sobre el mantenimiento de la seguridad, los derechos civiles y la privacidad dentro de las agencias gubernamentales, al tiempo que promueve la innovación y la competencia en IA en todo el país. Si bien no es una ley, muchas empresas operativas en EE. UU. pueden realizar cambios de política en respuesta para garantizar el cumplimiento de la evolución de la supervisión federal y las expectativas públicas sobre la seguridad de la IA.
VER: Los países del G7 establecen un código de conducta voluntario en IA
La Ley de IA de la UE ha tenido influencia en Europa: el 34% de los encuestados europeos dijeron que sus organizaciones habían realizado cambios en el uso de la IA durante el año pasado en respuesta. Sin embargo, el impacto es más generalizado, ya que el 26% de los encuestados del sur de Asia y el 16% de los encuestados de América del Norte y del Sur también hicieron cambios debido a la promulgación de la ley.
Además, el 20% de los encuestados con sede en EE. UU. dijeron que habían realizado cambios en sus organizaciones en respuesta a la orden ejecutiva. Una cuarta parte de los encuestados del sur de Asia, el 21% de América del Sur y el 12% de Europa dijeron lo mismo.
“Se reconoce que las tecnologías cognitivas como la IA tienen el mayor potencial para beneficiar a la sociedad y el mayor riesgo de uso indebido”, escribieron los autores del informe.
“La adopción acelerada de GenAI puede estar superando la capacidad de las organizaciones para gestionar la tecnología. Las empresas deben priorizar tanto la implementación de estándares éticos para GenAI como una selección significativa de casos de uso a los que se aplican las herramientas GenAI”.