Las herramientas y técnicas de inteligencia artificial se están expandiendo rápidamente en el software a medida que las organizaciones buscan optimizar grandes modelos de lenguaje para aplicaciones prácticas, según un informe reciente de la consultora tecnológica Thoughtworks. Sin embargo, el uso inadecuado de estas herramientas aún puede plantear desafíos para las empresas.
En el último radar tecnológico de la empresa, el 40% de las 105 herramientas, técnicas, plataformas, lenguajes y marcos identificados etiquetados como “interesantes” estaban relacionados con la IA.
Sarah Taraporewala dirige la práctica de modernización empresarial, plataformas y nube (EMPC) de Thoughtworks Australia en Australia. En una entrevista exclusiva con TechRepublic, explicó que las herramientas y técnicas de IA están demostrando su eficacia más allá del revuelo que existe en el mercado.
“Para entrar en el radar tecnológico, nuestros propios equipos tienen que utilizarlo, de modo que podamos tener una opinión sobre si va a ser eficaz o no”, explicó. “Lo que estamos viendo en todo el mundo en todos nuestros proyectos es que hemos podido generar alrededor del 40% de estos elementos de los que hablamos a partir de trabajos que realmente están sucediendo”.
Nuevas herramientas y técnicas de IA están entrando rápidamente en producción
El Technology Radar de Thoughtworks está diseñado para rastrear “cosas interesantes” que el Consejo Asesor de Tecnología global de la consultora ha descubierto que están surgiendo en el espacio global de la ingeniería de software. El informe también les asigna una calificación que indica a los compradores de tecnología si deben “adoptar”, “probar”, “evaluar” o “mantener” estas herramientas o técnicas.
Según el informe:
- Adoptar: “Blips” que las empresas deberían considerar seriamente.
- Ensayo: Herramientas o técnicas que Thoughtworks cree que están listas para su uso, pero no tan probadas como las de la categoría de adopción.
- Evaluar: Cosas que hay que examinar detenidamente, pero que aún no necesariamente se han de probar.
- Sostener: Proceda con precaución.
El informe otorgó a la generación de recuperación aumentada un estado de “adoptar”, como “el patrón preferido por nuestros equipos para mejorar la calidad de las respuestas generadas por un modelo de lenguaje grande”. Mientras tanto, técnicas como “usar un LLM como juez”, que aprovecha un LLM para evaluar las respuestas de otro LLM, lo que requiere una configuración y calibración cuidadosas, recibieron un estado de “prueba”.
Aunque los agentes de IA son nuevos, GCP Vertex AI Agent Builder, que permite a las organizaciones crear agentes de IA utilizando un enfoque de lenguaje natural o código primero, también recibió un estado de “prueba”.
Taraporewala dijo que las herramientas o técnicas ya deben haber pasado a producción para ser recomendadas para el estado de “prueba”. Por lo tanto, representarían el éxito en casos de uso prácticos reales.
“Entonces, cuando hablamos de esta explosión cámbrica en herramientas y técnicas de IA, en realidad las estamos viendo dentro de nuestros propios equipos”, dijo. “En APAC, eso es representativo de lo que estamos viendo de los clientes, en términos de sus expectativas y cuán preparados están para dejar atrás las exageraciones y mirar la realidad de estas herramientas y técnicas”.
VER: ¿La disponibilidad de energía descarrilará la revolución de la IA? (Premium de TechRepublic)
La rápida adopción de herramientas de inteligencia artificial genera antipatrones preocupantes
Según el informe, la rápida adopción de herramientas de inteligencia artificial está comenzando a crear antipatrones, o malos patrones en toda la industria que están generando malos resultados para las organizaciones. En el caso de las herramientas de asistencia a la codificación, ha surgido un antipatrón clave es la dependencia de las sugerencias de asistencia a la codificación por parte de las herramientas de inteligencia artificial.
“Un antipatrón que estamos viendo es confiar en la respuesta que se está escupiendo”, dijo Taraporewala. “Entonces, si bien un copiloto nos ayudará a generar el código, si no tienes esa habilidad experta y el ser humano en el circuito para evaluar la respuesta que surge, corremos un riesgo mayor de sobrecargar nuestros sistemas”.
Technology Radar señaló preocupaciones sobre la calidad del código generado y las rápidas tasas de crecimiento de las bases de código. “Los problemas de calidad del código en particular resaltan un área de diligencia continua por parte de desarrolladores y arquitectos para asegurarse de que no se ahoguen en un código ‘funcional pero terrible'”, se lee en el informe.
El informe emitió una “suspensión” sobre el reemplazo de las prácticas de programación de pares con IA, y Thoughtworks señaló que este enfoque tiene como objetivo garantizar que la IA ayude en lugar de cifrar bases de código con complejidad.
“Algo por lo que hemos sido firmes defensores es el código limpio, el diseño limpio y las pruebas que ayudan a disminuir el costo total de propiedad de la base del código; donde confiamos excesivamente en las respuestas que las herramientas están generando… no ayudará a respaldar la vida útil del código base”, advirtió Taraporewala.
Y añadió: “Los equipos sólo necesitan redoblar esas buenas prácticas de ingeniería de las que siempre hemos hablado (cosas como pruebas unitarias, funciones de aptitud desde una perspectiva arquitectónica y técnicas de validación) solo para asegurarse de que sea el código correcto el que se utilice. está saliendo”.
¿Cómo pueden las organizaciones afrontar los cambios en el panorama de herramientas de la IA?
Centrarse primero en el problema, en lugar de en la solución tecnológica, es clave para que las organizaciones adopten las herramientas y técnicas adecuadas sin dejarse llevar por las exageraciones.
“El consejo que damos a menudo es determinar qué problema estás tratando de resolver y luego descubrir qué podría haber alrededor desde una perspectiva de soluciones o herramientas para ayudarte a resolver ese problema”, dijo Taraporewala.
La gobernanza de la IA también deberá ser un proceso continuo y continuo. Las organizaciones pueden beneficiarse al establecer un equipo que pueda ayudar a definir sus estándares de gobernanza de IA, ayudar a educar a los empleados y monitorear continuamente esos cambios en el ecosistema de IA y el entorno regulatorio.
“Tener un grupo y un equipo dedicados a hacer precisamente eso es una excelente manera de escalarlo en toda la organización”, dijo Taraporewalla. “Así que se colocan ambas barandillas de la manera correcta, pero también se permite a los equipos experimentar y ver cómo pueden usar estas herramientas”.
Las empresas también pueden crear plataformas de inteligencia artificial con funciones de gobernanza integradas.
“Podría codificar sus políticas en una plataforma MLOps y tenerla como base para que los equipos se desarrollen”, agregó Taraporewalla. “De esa manera, habrás limitado la experimentación y sabrás qué partes de esa plataforma deben evolucionar y cambiar con el tiempo”.
Experimentar con herramientas y técnicas de IA podría dar sus frutos
Según Thoughtworks, las organizaciones que están experimentando con herramientas y técnicas de IA tendrán que cambiar lo que usan, pero también construirán su plataforma y capacidades con el tiempo.
“Creo que en lo que respecta al retorno de la inversión… si tenemos la mentalidad de realizar pruebas, no solo usaremos estas herramientas para hacer un trabajo, sino que también veremos cuáles son los elementos que continuaremos construyendo en nuestra plataforma. a medida que avanzamos, como nuestra base”, dijo Taraporewala.
Señaló que este enfoque podría permitir a las organizaciones generar un mayor valor a partir de los experimentos de IA con el tiempo.
“Creo que el retorno de la inversión dará sus frutos a largo plazo: si pueden seguir analizándolo desde la perspectiva de qué partes vamos a incorporar a una plataforma más común y qué estamos aprendiendo desde la perspectiva de una fundación. ¿Que podemos convertir eso en un volante positivo?