El auge de la IA está amplificando los riesgos en los conjuntos de datos empresariales y los entornos de nube, según el experto en ciberseguridad Liat Hayun.
En una entrevista con TechRepublic, Hayun, vicepresidente de gestión de productos e investigación de seguridad en la nube de Tenable, aconsejó a las organizaciones que prioricen la comprensión de su exposición y tolerancia al riesgo, al tiempo que priorizan abordar problemas clave como las configuraciones incorrectas de la nube y la protección de datos confidenciales.
Señaló que si bien las empresas se mantienen cautelosas, la accesibilidad de la IA está acentuando ciertos riesgos. Sin embargo, explicó que hoy en día los CISO están evolucionando hasta convertirse en facilitadores de negocios y, en última instancia, la IA podría servir como una herramienta poderosa para reforzar la seguridad.
Cómo la IA está afectando la ciberseguridad y el almacenamiento de datos
TechRepublic: ¿Qué está cambiando en el entorno de la ciberseguridad debido a la IA?
Liat: En primer lugar, la IA se ha vuelto mucho más accesible para las organizaciones. Si miramos hacia atrás hace 10 años, las únicas organizaciones que creaban IA tenían que tener este equipo especializado en ciencia de datos con doctorados en ciencia de datos y estadística para poder crear algoritmos de aprendizaje automático e IA. La IA se ha vuelto mucho más fácil de crear para las organizaciones; es casi como introducir un nuevo lenguaje de programación o una nueva biblioteca en su entorno. Muchas más organizaciones, no solo grandes como Tenable y otras, sino también cualquier nueva empresa ahora pueden aprovechar la IA e introducirla en sus productos.
VER: Gartner les dice a los líderes de TI australianos que adopten la IA a su propio ritmo
Lo segundo: la IA requiere muchos datos. Muchas más organizaciones necesitan recopilar y almacenar mayores volúmenes de datos, que a veces también tienen niveles más altos de sensibilidad. Antes, mi servicio de streaming solo habría guardado muy pocos detalles sobre mí. Ahora, tal vez mi geografía importe, porque pueden crear recomendaciones más específicas basadas en eso, o en mi edad y mi sexo, etc. Como ahora pueden utilizar estos datos para sus fines comerciales (generar más negocios), ahora están mucho más motivados para almacenar esos datos en mayores volúmenes y con niveles crecientes de sensibilidad.
TechRepublic: ¿Eso está contribuyendo al creciente uso de la nube?
Liat: Si desea almacenar una gran cantidad de datos, es mucho más fácil hacerlo en la nube. Cada vez que decides almacenar un nuevo tipo de datos, aumenta el volumen de datos que estás almacenando. No es necesario que ingrese a su centro de datos y solicite nuevos volúmenes de datos para instalar. Simplemente haces clic y bam, tienes una nueva ubicación para el almacén de datos. Por eso, la nube ha hecho que sea mucho más fácil almacenar datos.
Estos tres componentes forman una especie de círculo que se retroalimenta. Porque si es más fácil almacenar datos, puedes actualizar más capacidades de IA y entonces estarás motivado para almacenar aún más datos, y así sucesivamente. Eso es lo que sucedió en el mundo en los últimos años, desde que los LLM se han convertido en una capacidad común mucho más accesible para las organizaciones, introduciendo desafíos en estas tres verticales.
Comprender los riesgos de seguridad de la IA
TechRepublic: ¿Ve que aumentan los riesgos específicos de ciberseguridad con la IA?
Liat: El uso de la IA en las organizaciones, a diferencia del uso de la IA por parte de personas individuales en todo el mundo, aún se encuentra en sus primeras fases. Las organizaciones quieren asegurarse de introducirlo de una manera que, yo diría, no cree ningún riesgo innecesario o extremo. Entonces, en términos de estadísticas, todavía tenemos sólo unos pocos ejemplos, y no son necesariamente una buena representación porque son más experimentales.
Un ejemplo de riesgo es el entrenamiento de la IA con datos confidenciales. Eso es algo que estamos viendo. No es porque las organizaciones no estén siendo cuidadosas; se debe a que es muy difícil separar los datos confidenciales de los no confidenciales y aun así tener un mecanismo de IA eficaz que esté entrenado en el conjunto de datos correcto.
Lo segundo que estamos viendo es lo que llamamos envenenamiento de datos. Entonces, incluso si tienes un agente de IA que está siendo entrenado con datos no confidenciales, si esos datos no confidenciales están expuestos públicamente, como adversario, como atacante, puedo insertar mis propios datos en esos datos expuestos públicamente y accesibles públicamente. almacenamiento de datos y haga que su IA diga cosas que usted no pretendía que dijera. No es esta entidad que todo lo sabe. Sabe lo que ve.
TechRepublic: ¿Cómo deberían las organizaciones sopesar los riesgos de seguridad de la IA?
Liat: En primer lugar, me gustaría preguntar cómo las organizaciones pueden comprender el nivel de exposición que tienen, que incluye la nube, la inteligencia artificial y los datos… y todo lo relacionado con cómo utilizan proveedores externos y cómo aprovechan el software diferente en su organización, etc. en.
VER: Australia propone barreras obligatorias para la IA
La segunda parte es, ¿cómo se identifican las exposiciones críticas? Entonces, si sabemos que es un activo de acceso público con una vulnerabilidad de alta gravedad, eso es algo que probablemente desee abordar primero. Pero también es una combinación del impacto, ¿verdad? Si tiene dos problemas que son muy similares y uno puede comprometer datos confidenciales y el otro no, debe abordar eso primero. [issue] primero.
También es necesario saber qué pasos tomar para abordar esas exposiciones con un impacto comercial mínimo.
TechRepublic: ¿Cuáles son algunos de los grandes riesgos de seguridad en la nube contra los que advierte?
Liat: Hay tres cosas que habitualmente aconsejamos a nuestros clientes.
El primero es sobre configuraciones erróneas. Simplemente debido a la complejidad de la infraestructura, la complejidad de la nube y todas las tecnologías que proporciona, incluso si se encuentra en un único entorno de nube, pero especialmente si se va a utilizar múltiples nubes, las posibilidades de que algo se convierta en un problema sólo porque no se configuró correctamente sigue siendo muy alto. Definitivamente, eso es algo en lo que me centraría, especialmente al introducir nuevas tecnologías como la IA.
El segundo es el acceso con privilegios excesivos. Mucha gente piensa que su organización es súper segura. Pero si tu casa es un fuerte y le das las llaves a todos los que te rodean, eso sigue siendo un problema. Por lo tanto, el acceso excesivo a datos confidenciales, a infraestructuras críticas, es otra área de atención. Incluso si todo está configurado perfectamente y no hay piratas informáticos en su entorno, esto introduce un riesgo adicional.
El aspecto en el que más piensa la gente es en identificar actividades maliciosas o sospechosas tan pronto como ocurren. Aquí es donde se puede aprovechar la IA; porque si aprovechamos las herramientas de inteligencia artificial dentro de nuestras herramientas de seguridad dentro de nuestra infraestructura, podemos aprovechar el hecho de que pueden analizar una gran cantidad de datos, y pueden hacerlo muy rápido, para poder identificar también comportamientos sospechosos o maliciosos en un entorno. . De modo que podamos abordar esos comportamientos, esas actividades, lo antes posible, antes de que algo crítico se vea comprometido.
La implementación de la IA es “una oportunidad demasiado buena para perderla”
TechRepublic: ¿Cómo abordan los CISO los riesgos que observan con la IA?
Liat: Llevo 15 años en la industria de la ciberseguridad. Lo que me encanta ver es que la mayoría de los expertos en seguridad, la mayoría de los CISO, no son como eran hace una década. En lugar de ser un guardián, en lugar de decir: “No, no podemos usar esto porque es riesgoso”, se preguntan: “¿Cómo podemos usar esto y hacerlo menos riesgoso?”. Lo cual es una tendencia increíble de ver. Se están convirtiendo más en un facilitador.
TechRepublic: ¿Ves el lado bueno de la IA, además de sus riesgos?
Liat: Las organizaciones deben pensar más en cómo introducirán la IA, en lugar de pensar que “la IA es demasiado arriesgada en este momento”. No puedes hacer eso.
Las organizaciones que no introduzcan la IA en los próximos años simplemente se quedarán atrás. Es una herramienta increíble que puede beneficiar a muchos casos de uso empresarial, internamente para la colaboración, el análisis y la información, y externamente, para las herramientas que podemos ofrecer a nuestros clientes. Hay una oportunidad demasiado buena como para perderla. Si puedo ayudar a las organizaciones a lograr esa mentalidad que dice: “Está bien, podemos usar la IA, pero sólo debemos tener en cuenta estos riesgos”, habré hecho mi trabajo”.