Los riesgos de seguridad de la IA generativa y sus usos potenciales son comunes ahora de una manera que no lo eran en noviembre de 2022.
Desde que OpenAI lanzó ChatGPT el 30 de noviembre de 2022, el chatbot de IA generativa ha ayudado a hacer de la inteligencia artificial una industria de 207 mil millones de dólares. Dos meses después de su lanzamiento, ChatGPT fue reconocida como la aplicación para consumidores de más rápido crecimiento en la historia.
Debido al rápido y masivo éxito de ChatGPT, la IA generativa se ha convertido en un término común y ha cambiado la forma en que muchos tomadores de decisiones empresariales consideran las decisiones de compra de software. Además, la IA generativa se ha convertido en una herramienta atractiva para la estrategia y las operaciones en el lugar de trabajo; Actualmente no está claro si cambiará la forma en que se realiza el trabajo o será una tendencia temporal en el lugar de trabajo.
Desde el lanzamiento de ChatGPT, las empresas de tecnología empresarial y los gobiernos han discutido los posibles problemas y riesgos de seguridad de la IA generativa. ChatGPT ha sido prohibido temporal o permanentemente en algunas empresas por exponer datos internos; Otras organizaciones han adoptado la incorporación de aplicaciones basadas en ChatGPT a sus productos de software. En este artículo recordaremos el año pasado para explorar la influencia de ChatGPT en el software empresarial.
Salta a:
La IA generativa se convirtió en un actor importante en el software empresarial
ChatGPT ha abierto una conversación masiva (y un gasto masivo) en software empresarial, mientras las empresas trabajan para implementar chatbots y otras herramientas habilitadas por grandes modelos de lenguaje. Los hiperescaladores y las plataformas de aprendizaje electrónico han lanzado una amplia gama de clases y becas para apoyar a los trabajadores calificados en el espacio de la IA generativa y promover roles impulsados por la IA generativa como trayectorias profesionales viables. Las empresas también han comenzado a crear políticas para el uso de la IA que son distintas de las reglas que rodean la utilización de otro software empresarial.
Sin embargo, la adopción de la IA aún no ha tenido tanta aceptación entre la población general. Un estudio de Pew Research publicado en agosto de 2023 señaló que en una encuesta realizada a 5.057 estadounidenses, solo el 24% de las personas que habían oído hablar de ChatGPT lo habían utilizado. Más personas que habían oído hablar de ChatGPT utilizaron el chatbot de IA generativa para entretenimiento (20%) que para trabajar (16%).
ChatGPT provocó una experimentación a gran escala con IA generativa
“No será exagerado decir que ChatGPT se ha convertido en una mascota no oficial de la IA durante el último año para millones de consumidores y usuarios comerciales”, dijo a TechRepublic por correo electrónico Arun Chandrasekaran, distinguido vicepresidente y analista de Gartner. “Ha hecho posible que los usuarios empresariales experimenten rápidamente con casos de uso con LLM y avancen con la automatización en una variedad de funciones empresariales”.
En el año transcurrido desde el lanzamiento de ChatGPT, OpenAI ha aprovechado la popularidad de su producto con versiones monetizables como ChatGPT Plus y ChatGPT Enterprise. Estos productos han hecho que sea fácil olvidar que OpenAI es técnicamente una organización sin fines de lucro destinada a evitar resultados peligrosos de la inteligencia artificial general teórica. Esto puede crear tensión entre el rápido crecimiento del producto y esta misión ética. De hecho, el futuro de OpenAI estuvo en duda poco antes del primer aniversario de ChatGPT cuando el CEO Sam Altman se unió brevemente a Microsoft (que se ha comprometido a proporcionar a OpenAI 10 mil millones de dólares en financiación). Regresó a OpenAI bajo “un acuerdo de principio” con la junta el 22 de noviembre.
Otras empresas con una mentalidad más comercial, como Google, Microsoft y Amazon, ahora tienen productos propios de chatbot de IA generativa más robustos, como Google Bard, Copilot de Microsoft y Amazon Q, respectivamente, que antes del lanzamiento de ChatGPT.
“La competencia ciertamente se está intensificando con los chatbots conversacionales disponibles de otros como Google y Anthropic”, dijo Chandrasekaran. “Además, ha habido una explosión en LLM tanto de código cerrado como de código abierto durante el año pasado, muchos de los cuales fueron una respuesta a la adopción viral de ChatGPT. Si bien la demanda de la versión para consumidores del modelo ha experimentado una demanda desigual, que a menudo varía a lo largo de los meses, la demanda de LLM en la empresa sigue siendo alta”.
Chandrasekaran predice que el alto costo de ejecutar la inferencia para los LLM, que es parte de la capacitación de un modelo de IA generativa, puede significar que más empresas tengan éxito con modelos medianos.
Se prevé que las soluciones de IA generativa como ChatGPT sumen hasta 4,4 billones de dólares a la economía mundial anualmente, según un informe de investigación de McKinsey publicado en junio de 2023. Su rápido crecimiento significa que la IA generativa está proliferando y especializándose para diferentes casos de uso. McKinsey predice que las aplicaciones de IA generativa especializadas crearán más valor que las aplicaciones de IA generativa más amplias.
La IA generativa planteó cuestiones éticas, de derechos de autor y de seguridad
Durante el año pasado, la misión de OpenAI de crear inteligencia artificial “segura y beneficiosa” ha generado mucha conversación. La tecnología de la que habla la carta de OpenAI (inteligencia artificial general que puede asumir tareas con la flexibilidad de un trabajador humano) todavía no existe. Pero OpenAI se ha enfrentado a cómo la IA perpetúa el sesgo y qué se puede hacer para mitigar los datos y resultados del entrenamiento sesgados.
Algunas empresas estadounidenses han firmado una lista voluntaria de garantías sobre la seguridad de la IA generativa y cómo evitarán que las personas creen información errónea con esta tecnología. La UE también está trabajando en directrices que probablemente influirán en cómo se desarrollarán los productos de IA generativa, incluido ChatGPT, durante el próximo año.
Uso de la IA generativa en ciberseguridad
Si bien algunas herramientas de IA generativa se han convertido en parte de los mecanismos de defensa de la ciberseguridad de diferentes organizaciones, los actores de amenazas a la ciberseguridad también han utilizado la misma tecnología. Por ejemplo, ChatGPT se puede utilizar para escribir correos electrónicos de phishing más rápidamente de lo que los actores de amenazas podrían completar dicha tarea, aunque los correos electrónicos de phishing generados por IA no son necesariamente tan efectivos como los escritos por humanos. En general, la IA generativa ha contribuido tanto positiva como negativamente al panorama de la ciberseguridad.
El problema de la caja negra
A pesar de sus muchas ventajas, un problema particular que enfrentan los usuarios con IA como ChatGPT son las “cajas negras”. Con este problema de transparencia, la gente no puede ver cómo los chatbots impulsados por IA toman sus decisiones.
“Los LLM (grandes modelos de lenguaje como GPT-4, en el que se basa ChatGPT) toman decisiones que afectan a los usuarios de una manera opaca, poco confiable y potencialmente injusta, y se descubre que el sistema, por ejemplo, perpetúa sesgos dañinos solo después de el hecho”, dijo Chandrasekaran.
“Las preguntas sobre la propiedad de los datos y cómo los LLM deben tratarlos siguen siendo una decisión muy subjetiva, que a menudo varía según las jurisdicciones”, añadió.
Derechos de autor y ChatGPT
Algunos autores han demandado a OpenAI, alegando que ChatGPT infringe los derechos de autor de sus obras porque el modelo fue entrenado en las obras de los autores que están disponibles en Internet. En otro ejemplo, The New York Times consideró demandar a OpenAI en agosto por un acuerdo de licencia; El periódico intentó negociar cómo OpenAI podría convertirse en un competidor debido a la capacidad de ChatGPT para resumir artículos de noticias.
VER: Por qué algunos artistas odian el arte generado por IA (TechRepublic)
¿Qué sigue para ChatGPT?
OpenAI ha estado ampliando las capacidades de ChatGPT, incluido el lanzamiento de la funcionalidad de voz en noviembre de 2023. Además, OpenAI lanzó GPT-4 Turbo, una versión del modelo básico con conocimiento más reciente, mayor contexto y otras mejoras, el 6 de noviembre.
“Deberíamos esperar que ChatGPT maneje más modalidades en el futuro más allá del texto y el código”, explicó Chandrasekaran. “La integración de imágenes ya ha sido una gran ventaja y podemos esperar capacidades de voz y video en 2024 y más allá. Además, deberíamos esperar más acciones autónomas de ChatGPT a mediano plazo, ya que OpenAI ha señalado sus intenciones de ofrecer funciones de agente más autónomas”.
Las regulaciones en torno a la IA generativa se han desarrollado durante el último año y se puede esperar que maduren. El 26 de noviembre, Estados Unidos, el Reino Unido y otros países del Grupo de los Siete (G7) publicaron directrices de seguridad por diseño para la ciberseguridad de la IA. Estas directrices constituyen el primer acuerdo internacional sobre la seguridad de la IA y pueden dar forma al desarrollo de ChatGPT y otros chatbots de IA generativa en el futuro.
Nota: TechRepublic contactó a OpenAI y Microsoft para solicitar comentarios.