La IA hace que los trabajadores sean más productivos, pero todavía nos faltan regulaciones, según una nueva investigación. El Informe del Índice de IA 2024, publicado por el instituto de Inteligencia Artificial Centrada en las Personas de la Universidad de Stanford, ha descubierto las ocho principales tendencias de IA para las empresas, incluido cómo la tecnología aún no supera al cerebro humano en todas las tareas.
TechRepublic profundiza en las implicaciones comerciales de estas conclusiones, con la información de los coautores del informe Robi Rahman y Anka Reuel.
VER: Las 5 principales tendencias de IA a tener en cuenta en 2024
1. Los humanos todavía superan a la IA en muchas tareas
Según la investigación, la IA todavía no es tan buena como los humanos en las tareas complejas de resolución de problemas matemáticos de nivel avanzado, razonamiento visual de sentido común y planificación (Figura A). Para llegar a esta conclusión, se compararon los modelos con puntos de referencia humanos en muchas funciones empresariales diferentes, incluida la codificación, el comportamiento basado en agentes, el razonamiento y el aprendizaje por refuerzo.
Figura A
Si bien la IA superó las capacidades humanas en clasificación de imágenes, razonamiento visual y comprensión del inglés, el resultado muestra que existe potencial para que las empresas utilicen la IA para tareas en las que el personal humano realmente se desempeñaría mejor. Muchas empresas ya están preocupadas por las consecuencias de una dependencia excesiva de los productos de IA.
2. Los modelos de IA de última generación son cada vez más caros
El Índice AI informa que entrenar GPT-4 de OpenAI y Gemini Ultra de Google costará aproximadamente 78 millones de dólares y 191 millones de dólares en 2023, respectivamente (Figura B). El científico de datos Rahman dijo a TechRepublic en un correo electrónico: “Con las tasas de crecimiento actuales, los modelos de IA de vanguardia costarán entre 5.000 y 10.000 millones de dólares en 2026, momento en el que muy pocas empresas podrán permitirse estos ciclos de formación”.
Figura B
En octubre de 2023, el Wall Street Journal publicó que Google, Microsoft y otros grandes actores tecnológicos estaban luchando por monetizar sus productos de IA generativa debido a los enormes costos asociados con su funcionamiento. Existe el riesgo de que, si las mejores tecnologías se vuelven tan caras que sólo son accesibles para las grandes corporaciones, su ventaja sobre las PYMES podría aumentar desproporcionadamente. Esto fue señalado por el Foro Económico Mundial en 2018.
Sin embargo, Rahman destacó que muchos de los mejores modelos de IA son de código abierto y, por lo tanto, están disponibles para empresas de todos los presupuestos, por lo que la tecnología no debería ampliar ninguna brecha. Le dijo a TechRepublic: “Los modelos de IA de código abierto y cerrado están creciendo al mismo ritmo. Una de las empresas de tecnología más grandes, Meta, está utilizando código abierto para todos sus modelos, por lo que las personas que no pueden darse el lujo de entrenar ellos mismos los modelos más grandes pueden simplemente descargar los suyos”.
3. La IA aumenta la productividad y la calidad del trabajo
Al evaluar una serie de estudios existentes, los investigadores de Stanford concluyeron que la IA permite a los trabajadores completar tareas más rápidamente y mejora la calidad de su producción. Las profesiones en las que se observó esto incluyen programadores informáticos, donde el 32,8% informó un aumento de productividad, consultores y agentes de soporte (Figura C) y reclutadores.
Figura C
En el caso de los consultores, el uso de GPT-4 cerró la brecha entre los profesionales poco calificados y los altamente calificados, y el grupo poco calificado experimentó un mayor aumento en el desempeño (Figura D). Otras investigaciones también han indicado cómo la IA generativa en particular podría actuar como un igualador, ya que los trabajadores menos experimentados y menos calificados obtienen más provecho de ella.
Figura D
Sin embargo, otros estudios sugirieron que “el uso de IA sin la supervisión adecuada puede conducir a una disminución del rendimiento”, escribieron los investigadores. Por ejemplo, existen informes generalizados de que las alucinaciones prevalecen en modelos de lenguaje grandes que realizan tareas legales. Otras investigaciones han descubierto que es posible que no alcancemos todo el potencial de las ganancias de productividad impulsadas por la IA hasta dentro de una década, ya que los resultados insatisfactorios, las directrices complicadas y la falta de competencia siguen frenando a los trabajadores.
4. Las regulaciones sobre IA en EE. UU. van en aumento
El Informe del Índice de IA encontró que, en 2023, había 25 regulaciones relacionadas con la IA activas en los EE. UU., mientras que en 2016 solo había una (Figura E). Sin embargo, esta no ha sido una inclinación constante, ya que el número total de regulaciones relacionadas con la IA creció un 56,3% solo entre 2022 y 2023. Con el tiempo, estas regulaciones también han pasado de ser expansivas con respecto al progreso de la IA a restrictivas, y el tema más frecuente que abordan es el comercio exterior y las finanzas internacionales.
Figura E
La legislación relacionada con la IA también está aumentando en la UE: en 2021, 2022 y 2023 se aprobaron 46, 22 y 32 nuevas regulaciones, respectivamente. En esta región, las regulaciones tienden a adoptar un enfoque más amplio y, en la mayoría de los casos, cubren la ciencia, la tecnología y las comunicaciones.
VER: NIST establece un consorcio de seguridad de IA
Es esencial que las empresas interesadas en la IA se mantengan actualizadas sobre las regulaciones que las afectan, o corren el riesgo de sufrir fuertes sanciones por incumplimiento y daños a su reputación. Una investigación publicada en marzo de 2024 encontró que solo el 2% de las grandes empresas del Reino Unido y la UE conocían la próxima Ley de IA de la UE.
5. La inversión en IA generativa está aumentando
La financiación para productos de IA generativa que generan contenido en respuesta a un mensaje casi se octuplicó de 2022 a 2023, alcanzando los 25.200 millones de dólares (Figura F). OpenAI, Anthropic, Hugging Face e Inflection, entre otros, recibieron importantes rondas de recaudación de fondos.
Figura F
Es probable que el desarrollo de capacidades de IA generativa satisfaga la demanda de las empresas que buscan adoptarla en sus procesos. En 2023, la IA generativa se citó en el 19,7 % de todas las llamadas sobre resultados de las empresas Fortune 500, y un informe de McKinsey reveló que el 55 % de las organizaciones utilizan ahora la IA, incluida la IA generativa, en al menos una unidad de negocio o función.
El conocimiento de la IA generativa se disparó después del lanzamiento de ChatGPT el 30 de noviembre de 2022 y, desde entonces, las organizaciones han estado compitiendo para incorporar sus capacidades en sus productos o servicios. Una encuesta reciente de 300 empresas globales realizada por MIT Technology Review Insights, en asociación con Telstra International, encontró que los encuestados esperan que su número de funciones que implementan IA generativa se duplique en 2024.
VER: Definición de IA generativa: cómo funciona, beneficios y peligros
Sin embargo, hay algunas pruebas de que el auge de la IA generativa “podría llegar a un final bastante rápido”, según Gary Marcus, destacado portavoz de la IA, y las empresas deberían tener cuidado. Esto se debe principalmente a las limitaciones de las tecnologías actuales, como la posibilidad de sesgos, problemas de derechos de autor e imprecisiones. Según el informe de Stanford, la cantidad finita de datos en línea disponibles para entrenar modelos podría exacerbar los problemas existentes, poniendo un límite a las mejoras y la escalabilidad. Afirma que las empresas de IA podrían quedarse sin datos lingüísticos de alta calidad para 2026, datos lingüísticos de baja calidad en dos décadas y datos de imágenes entre finales de la década de 2030 y mediados de la década de 2040.
6. Los puntos de referencia para la responsabilidad de un LLM varían ampliamente
Según el informe, existe una variación significativa en los puntos de referencia con los que las empresas de tecnología evalúan sus LLM en lo que respecta a confiabilidad o responsabilidad (Figura G). Los investigadores escribieron que esto “complica los esfuerzos para comparar sistemáticamente los riesgos y limitaciones de los mejores modelos de IA”. Estos riesgos incluyen resultados sesgados y la filtración de información privada de conjuntos de datos de entrenamiento e historiales de conversaciones.
Figura G
Reuel, estudiante de doctorado en el Laboratorio de Sistemas Inteligentes de Stanford, dijo a TechRepublic en un correo electrónico: “Actualmente no existen requisitos de informes, ni tenemos evaluaciones sólidas que nos permitan decir con confianza que un modelo es seguro si pasa esas evaluaciones en El primer lugar.”
Sin una estandarización en esta área, aumenta el riesgo de que algunos modelos de IA no confiables pasen desapercibidos y sean integrados por las empresas. “Los desarrolladores podrían informar selectivamente puntos de referencia que resalten positivamente el rendimiento de su modelo”, añade el informe.
Reuel dijo a TechRepublic: “Hay múltiples razones por las que un modelo dañino puede pasar desapercibido. En primer lugar, no hay evaluaciones estandarizadas o requeridas que dificulten la comparación de modelos y sus riesgos (relativos), y en segundo lugar, no hay evaluaciones sólidas, específicamente de los modelos básicos, que permitan una comprensión sólida y completa del riesgo absoluto de un modelo”.
7. Los empleados están nerviosos y preocupados por la IA.
El informe también rastrea cómo las actitudes hacia la IA están cambiando a medida que aumenta la conciencia. Una encuesta encontró que el 52% expresa nerviosismo hacia los productos y servicios de IA, y que esta cifra había aumentado un 13% en 18 meses. También encontró que solo el 54% de los adultos está de acuerdo en que los productos y servicios que utilizan IA tienen más beneficios que inconvenientes, mientras que el 36% teme que pueda quitarles el trabajo en los próximos cinco años (Figura H).
Figura H
Otras encuestas a las que se hace referencia en el Informe del Índice de IA encontraron que el 53% de los estadounidenses actualmente se sienten más preocupados que emocionados por la IA, y que la preocupación más común que tienen es su impacto en el empleo. Estas preocupaciones podrían tener un impacto particular en la salud mental de los empleados cuando las tecnologías de inteligencia artificial comiencen a integrarse en una organización, algo que los líderes empresariales deberían monitorear.
VER: Los 10 mejores cursos de IA en 2024
8. Estados Unidos y China están creando la mayoría de los LLM más populares de la actualidad.
Ben Abbott de TechRepublic cubrió esta tendencia del informe de Stanford en su artículo sobre la construcción de modelos básicos de IA en la región APAC. Escribió, en parte:
“El dominio de EE. UU. en IA continuó a lo largo de 2023. El informe del índice de IA de Stanford publicado en 2024 encontró que se habían lanzado 61 modelos notables en EE. UU. en 2023; esto está por delante de los 15 nuevos modelos de China y de Francia, el mayor contribuyente de Europa con ocho modelos (Figura I). El Reino Unido y la Unión Europea como región produjeron 25 modelos notables, superando a China por primera vez desde 2019, mientras que Singapur, con tres modelos, fue el único otro productor de modelos lingüísticos grandes notables en APAC”.
Figura I