El foro en línea que utilizan los empleados de OpenAI para comunicaciones internas confidenciales fue violado el año pasado, dijeron fuentes anónimas a The New York Times. Los piratas informáticos obtuvieron detalles sobre el diseño de las tecnologías de inteligencia artificial de la compañía de publicaciones en foros, pero no se infiltraron en los sistemas donde OpenAI realmente alberga y construye su inteligencia artificial.
Los ejecutivos de OpenAI anunciaron el incidente a toda la empresa durante una reunión general en abril de 2023 y también informaron a la junta directiva. Sin embargo, no se hizo público porque no se había robado ninguna información sobre clientes o socios.
Según las fuentes, los ejecutivos no informaron a las autoridades porque no creían que el hacker estuviera vinculado a un gobierno extranjero y, por lo tanto, el incidente no representaba una amenaza para la seguridad nacional.
Un portavoz de OpenAI dijo a TechRepublic en un correo electrónico: “Como compartimos con nuestra Junta y empleados el año pasado, identificamos y solucionamos el problema subyacente y continuamos invirtiendo en seguridad”.
¿Cómo reaccionaron algunos empleados de OpenAI ante este hack?
La noticia de la violación del foro fue motivo de preocupación para otros empleados de OpenAI, informó el NYT; pensaron que indicaba una vulnerabilidad en la empresa que podría ser explotada por piratas informáticos patrocinados por el estado en el futuro. Si la tecnología de punta de OpenAI cayera en las manos equivocadas, podría usarse para propósitos nefastos que podrían poner en peligro la seguridad nacional.
VER: GPT-4 de OpenAI puede explotar de forma autónoma el 87% de las vulnerabilidades de un día, según un estudio
Además, el tratamiento que los ejecutivos dieron al incidente llevó a algunos empleados a preguntarse si OpenAI estaba haciendo lo suficiente para proteger su tecnología patentada de adversarios extranjeros. Leopold Aschenbrenner, ex director técnico de la empresa, dijo que lo habían despedido después de plantear estas preocupaciones a la junta directiva en un podcast con Dwarkesh Patel.
OpenAI lo negó en una declaración al New York Times, y también dijo que no estaba de acuerdo con las “caracterizaciones de nuestra seguridad” de Aschenbrenner.
Más noticias de seguridad de OpenAI, incluso sobre la aplicación ChatGPT para macOS
La violación del foro no es el único indicio reciente de que la seguridad no es la máxima prioridad en OpenAI. La semana pasada, el ingeniero de datos Pedro José Pereira Vieito reveló que la nueva aplicación ChatGPT macOS almacenaba datos de chat en texto sin formato, lo que significa que los delincuentes podrían acceder fácilmente a esa información si conseguían la Mac. Después de que The Verge le informara sobre esta vulnerabilidad, OpenAI lanzó una actualización que cifra los chats, señaló la compañía.
Un portavoz de OpenAI dijo a TechRepublic en un correo electrónico: “Somos conscientes de este problema y hemos enviado una nueva versión de la aplicación que cifra estas conversaciones. Estamos comprometidos a brindar una experiencia de usuario útil y al mismo tiempo mantener nuestros altos estándares de seguridad a medida que nuestra tecnología evoluciona”.
VER: Millones de aplicaciones de Apple eran vulnerables al ataque a la cadena de suministro de CocoaPods
En mayo de 2024, OpenAI emitió un comunicado diciendo que había interrumpido cinco operaciones de influencia encubiertas originadas en Rusia, China, Irán e Israel que buscaban utilizar sus modelos para “actividades engañosas”. Las actividades que fueron detectadas y bloqueadas incluyen generar comentarios y artículos, inventar nombres y biografías para cuentas de redes sociales y traducir textos.
Ese mismo mes, la compañía anunció que había formado un Comité de Seguridad para desarrollar los procesos y salvaguardas que utilizará mientras desarrolla sus modelos de frontera.
¿El hackeo de los foros de OpenAI es indicativo de más incidentes de seguridad relacionados con la IA?
La Dra. Ilia Kolochenko, socia y líder de práctica de ciberseguridad de Platt Law LLP, dijo que cree que este incidente de seguridad en los foros OpenAI probablemente sea uno de muchos. Le dijo a TechRepublic en un correo electrónico: “La carrera mundial de la IA se ha convertido en una cuestión de seguridad nacional para muchos países, por lo tanto, los grupos de cibercrimen y mercenarios respaldados por el estado están atacando agresivamente a los proveedores de IA, desde nuevas empresas talentosas hasta gigantes tecnológicos como Google u OpenAI”.
Los piratas informáticos atacan la valiosa propiedad intelectual de la IA, como grandes modelos de lenguaje, fuentes de datos de entrenamiento, investigaciones técnicas e información comercial, añadió el Dr. Kolochenko. También pueden implementar puertas traseras para poder controlar o interrumpir las operaciones, similar a los recientes ataques a infraestructuras nacionales críticas en los países occidentales.
Le dijo a TechRepublic: “Todos los usuarios corporativos de proveedores de GenAI deberán ser particularmente cuidadosos y prudentes cuando compartan o den acceso a sus datos de propiedad para la capacitación o el ajuste de LLM, ya que sus datos, que abarcan desde información privilegiada entre abogados y clientes, Desde secretos de las principales empresas industriales o farmacéuticas hasta información militar clasificada, también está en el punto de mira de ciberdelincuentes hambrientos de IA que están preparados para intensificar sus ataques”.
¿Se pueden aliviar los riesgos de violaciones de seguridad al desarrollar IA?
No existe una respuesta sencilla para aliviar todos los riesgos de violación de la seguridad por parte de adversarios extranjeros al desarrollar nuevas tecnologías de IA. OpenAI no puede discriminar a los trabajadores por su nacionalidad y, de la misma manera, no quiere limitar su reserva de talento contratando únicamente en determinadas regiones.
También es difícil evitar que los sistemas de IA se utilicen con fines nefastos antes de que esos fines salgan a la luz. Un estudio de Anthropic encontró que los LLM eran sólo marginalmente más útiles para los malos actores a la hora de adquirir o diseñar armas biológicas que el acceso estándar a Internet. Otro de OpenAI llegó a una conclusión similar.
Por otro lado, algunos expertos coinciden en que, si bien no representan una amenaza hoy en día, los algoritmos de IA podrían volverse peligrosos cuando se vuelvan más avanzados. En noviembre de 2023, representantes de 28 países firmaron la Declaración de Bletchley, que pedía la cooperación global para abordar los desafíos que plantea la IA. “Existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sea deliberados o no, derivados de las capacidades más importantes de estos modelos de IA”, decía.