Wed. Sep 18th, 2024

Uno de los beneficios más promocionados de la proliferación de la inteligencia artificial es cómo puede ayudar a los desarrolladores con tareas menores. Sin embargo, una nueva investigación muestra que los líderes de seguridad no están del todo de acuerdo: el 63% contempla prohibir el uso de IA en la codificación debido a los riesgos que impone.

Una proporción aún mayor, el 92%, de los tomadores de decisiones encuestados están preocupados por el uso de código generado por IA en su organización. Todas sus principales preocupaciones se relacionan con la reducción de la calidad de la producción.

Es posible que los modelos de IA hayan sido entrenados en bibliotecas obsoletas de código abierto, y los desarrolladores rápidamente podrían volverse demasiado dependientes del uso de herramientas que les hacen la vida más fácil, lo que significa que prolifera el código deficiente en los productos de la empresa.

VER: Principales herramientas de seguridad para desarrolladores

Además, los líderes de seguridad creen que es poco probable que el código generado por IA sea controlado con tanto rigor como las líneas escritas a mano. Es posible que los desarrolladores no se sientan tan responsables del resultado de un modelo de IA y, en consecuencia, tampoco sentirán tanta presión para garantizar que sea perfecto.

TechRepublic habló con Tariq Shaukat, director ejecutivo de la empresa de seguridad de códigos Sonar, la semana pasada sobre cómo “escucha cada vez más” acerca de empresas que han utilizado IA para escribir su código y que experimentan interrupciones y problemas de seguridad.

“En general, esto se debe a revisiones insuficientes, ya sea porque la compañía no ha implementado prácticas sólidas de calidad y revisión de código, o porque los desarrolladores están examinando el código escrito por IA menos de lo que examinarían su propio código”, dijo.

“Cuando se les pregunta acerca de la IA con errores, un estribillo común es ‘no es mi código’, lo que significa que se sienten menos responsables porque no lo escribieron”.

El nuevo informe, “Las organizaciones luchan por proteger el código abierto y generado por IA” del proveedor de gestión de identidades de máquinas Venafi, se basa en una encuesta realizada a 800 tomadores de decisiones de seguridad en EE. UU., Reino Unido, Alemania y Francia. Encontró que el 83% de las organizaciones utilizan actualmente IA para desarrollar código y es una práctica común en más de la mitad, a pesar de las preocupaciones de los profesionales de seguridad.

“Han comenzado a surgir nuevas amenazas, como el envenenamiento de la IA y el escape de modelos, mientras los desarrolladores y los novatos utilizan oleadas masivas de código generativo de IA de maneras que aún no se comprenden”, dijo Kevin Bocek, director de innovación de Venafi, en el informe.

Si bien muchos han considerado prohibir la codificación asistida por IA, el 72% consideró que no tienen más remedio que permitir que la práctica continúe para que la empresa pueda seguir siendo competitiva. Según Gartner, el 90% de los ingenieros de software empresarial utilizarán asistentes de código de IA para 2028 y obtendrán ganancias de productividad en el proceso.

VER: El 31% de las organizaciones que utilizan IA generativa le piden que escriba código (2023)

Los profesionales de la seguridad pierden el sueño por este tema

Dos tercios de los encuestados en el informe de Venafi dicen que les resulta imposible mantenerse al día con los desarrolladores súper productivos a la hora de garantizar la seguridad de sus productos, y el 66% dice que no pueden controlar el uso seguro de la IA dentro de la organización porque no tener visibilidad sobre dónde se está utilizando.

Como resultado, los líderes de seguridad están preocupados por las consecuencias de dejar pasar vulnerabilidades potenciales, y el 59% pierde el sueño por el asunto. Casi el 80% cree que la proliferación de código desarrollado por IA conducirá a un ajuste de cuentas en materia de seguridad, ya que un incidente importante impulsa una reforma en la forma en que se maneja.

Bocek añadió en un comunicado de prensa: “Los equipos de seguridad están atrapados entre la espada y la pared en un mundo nuevo donde la IA escribe código. Los desarrolladores ya están potenciados por la IA y no renunciarán a sus superpoderes. Y los atacantes se están infiltrando en nuestras filas; ejemplos recientes de intromisión a largo plazo en proyectos de código abierto y la infiltración de TI por parte de Corea del Norte son sólo la punta del iceberg”.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *