Fri. Aug 30th, 2024

Wirth Research, una empresa de ingeniería que se especializa en dinámica de fluidos computacional, se ha preocupado cada vez más por la sostenibilidad ambiental.

Inicialmente se centró en el diseño de coches de carreras, lo que permitía a los clientes sustituir el costoso trabajo del túnel de viento por modelos informáticos, pero en los últimos años ha diseñado equipos que reducen la resistencia aerodinámica de los camiones y un dispositivo que reduce el aire frío que se escapa de los vehículos abiertos. frigoríficos de los supermercados, reduciendo el uso de energía en una cuarta parte.

La compañía con sede en Bicester también quería reducir la energía utilizada por su modelado computarizado detallado, que para la aerodinámica del automóvil simula alrededor de 500 millones de diminutas células de aire. Ya había ajustado la resolución de las celdas dentro de cada modelo, con una malla submilimétrica más fina utilizada cerca de los bordes afilados.

Luego, durante la pandemia, cuando se dio cuenta de que el personal podía trabajar de manera efectiva desde casa, Wirth trasladó su computación de su propio sitio a un centro de datos alimentado por energía renovable en Islandia administrado por Verne Global. El nuevo hardware ha reducido los requisitos de energía en tres cuartas partes y la energía utilizada es neutra en carbono.

El gerente de ingeniería, Rob Rowsell, dice que el costo total del nuevo equipo repartido en varios años, más el uso de las instalaciones y la conectividad islandesas, asciende a menos que la antigua factura de energía del Reino Unido. Además de eso, dado que planea continuar con el trabajo híbrido, la empresa se mudó a oficinas más pequeñas en un edificio ecológico.

Wirth quiere que sus procesos informáticos sean aún más eficientes. Ya puede detener las iteraciones de modelos virtuales cuando se estabilizan en lugar de ejecutarlos una cantidad fija de veces, pero está analizando cómo puede usar la inteligencia artificial (IA) entrenada en trabajos anteriores para usar un puñado de iteraciones para predecir una versión estable. de un modelo que normalmente tardaría mucho más en llegar.

No sería necesario que la predicción fuera del todo precisa, ya que la empresa llevaría a cabo algunas iteraciones más para verificar que el modelo fuera estable. “Terminarías siendo capaz de hacer 15 o 20 iteraciones en lugar de 100”, dice Rowsell.

Hay mucho potencial para usar la IA para abordar el cambio climático, dice Peter van der Putten, director de decisiones y soluciones de IA en el proveedor de software con sede en Massachusetts Pegasystems y profesor asistente en la Universidad de Leiden en los Países Bajos.

Pero en los últimos años, la IA ha significado cada vez más el uso de modelos de aprendizaje profundo que requieren grandes cantidades de computación y electricidad para ejecutarse, como el modelo de lenguaje GPT3 de OpenAI, entrenado en casi 500 mil millones de palabras y usando 175 mil millones de parámetros.

“Hasta hace poco, estaba de moda crear otro modelo más grande”, dice van der Putten. Pero las consideraciones ambientales destacan los beneficios de hacer que la IA sea más eficiente, con el aumento de los costos de electricidad aumentando las justificaciones económicas. “Tanto desde el punto de vista financiero como desde el punto de vista climático, lo pequeño es hermoso”.

Otra razón es que los modelos más simples y eficientes pueden producir mejores resultados. En 2000, van der Putten codirigió un desafío en el que los participantes intentaban predecir qué clientes de una compañía de seguros estarían interesados ​​en comprar cobertura para caravanas, basándose en docenas de variables de miles de personas.

Esto presentaba datos ruidosos de la vida real, que pueden desviar modelos complejos. “Puedes empezar a ver patrones donde no los hay. Empiezas a sobreajustar los datos”, dice van der Putten. Este problema ocurre cuando los datos de entrenamiento no son exactamente los mismos que los datos para los que se requieren predicciones, como cuando cubren dos conjuntos diferentes de personas. Los modelos más simples también funcionan bien cuando hay relaciones claras o cuando solo hay unos pocos puntos de datos.

También puede ser difícil y costoso revisar grandes modelos entrenados en grandes cantidades de datos. Para situaciones cambiantes, como la asignación de trabajo a un grupo de empleados con muchas altas y bajas, los modelos más ligeros de “aprendizaje en línea” diseñados para adaptarse rápidamente en función de la nueva información pueden ser la mejor opción.

Van der Putten dice que además de ser más baratos y tener un menor impacto ambiental, estos modelos también son más fáciles de interpretar. También existe la opción de utilizar algoritmos clásicos de aprendizaje automático, como las máquinas de vectores de soporte, que se utilizan para clasificar los elementos, que tienden a ser más ligeros, ya que se desarrollaron en tiempos de potencia informática mucho más limitada.

Van der Putten dice que los especialistas en IA se dividieron en tribus que favorecían técnicas específicas desde finales de los 80 y principios de los 90, pero luego los profesionales aprendieron a usar diferentes enfoques en diferentes situaciones o combinarlos. “Volver a un enfoque más multidisciplinario sería saludable”, dice sobre las cosas ahora, dadas las alternativas al aprendizaje profundo basado en big data generalmente usan mucho menos poder de cómputo.

Tengo que empezar en alguna parte

Una opción es dar a los modelos de IA un punto de partida o una estructura, según Jon Crowcroft, profesor de sistemas de comunicación en la Universidad de Cambridge y fundador de la firma de descubrimiento de datos iKVA, con sede en Cambridge.

Los modelos de lenguaje solían incluir reglas estructurales en lugar de basarse en el análisis de miles de millones de palabras, y de manera similar, los modelos centrados en la ciencia pueden beneficiarse de tener principios relevantes programados. Esto se aplica particularmente al analizar lenguaje, videos o imágenes, donde los volúmenes de datos tienden a ser muy alto.

Por ejemplo, un sistema de IA podría aprender a identificar proteínas de pico de coronavirus de manera más eficiente si se le diera una forma de pico de muestra. “En lugar de tener miles de millones de imágenes y que alguien las etiquete, tienes un modelo de verdad”, dice Crowcroft.

Agrega que este enfoque es apropiado cuando cada resultado puede tener consecuencias significativas, como con las imágenes médicas. Puede necesitar especialistas para proporcionar material inicial, aunque esto puede no ser un inconveniente importante si los que configuran el modelo son expertos de todos modos, como es probable que sea el caso para el uso académico. Tal aporte humano inicial puede reducir significativamente la potencia informática requerida para desarrollar un modelo de IA y facilita la explicación del modelo.

Llevar a cabo la IA localmente significaría que se enviarían muchos menos datos a través de las redes, lo que ahorraría energía y dinero.

También podría ayudar a cambiar dónde funciona la IA y cómo. Un modelo de aprendizaje automático federado podría involucrar medidores genuinamente inteligentes que analicen el uso de electricidad de un cliente y envíen una actualización ocasional de un modelo resultante al proveedor, a diferencia de los medidores actuales que envían datos de uso cada pocos minutos.

“A la compañía de electricidad le importa tener un modelo del uso de todos a lo largo del tiempo”, no lo que cada cliente está haciendo casi en tiempo real, dice Crowcroft.

Llevar a cabo la IA localmente significaría que se enviarían muchos menos datos a través de las redes, lo que ahorraría energía y dinero, y ofrecería una mayor privacidad ya que los datos de uso detallados no saldrían de la propiedad. “Puedes darle la vuelta a la cosa”, agrega Crowcroft. Tal “aprendizaje de vanguardia” podría funcionar bien para los monitores de atención médica personal, donde la privacidad es particularmente importante.

Reducción de la energía necesaria para la IA

Si se requiere un modelo de aprendizaje profundo centralizado, hay formas de hacerlo más eficiente. TurinTech, especialista en optimización de código con sede en Londres, cree que normalmente puede reducir la energía necesaria para ejecutar un modelo de IA en un 40 %. Si un ajuste un poco menos preciso es aceptable, entonces son posibles ahorros mucho mayores, según el director ejecutivo Leslie Kanthan.

De manera similar a la sobreadaptación de un modelo al grupo particular de personas que componen los datos de entrenamiento, un modelo entrenado con datos de transacciones financieras anteriores no puede predecir su comportamiento futuro. Un modelo más simple puede proporcionar buenas predicciones, ser mucho más barato de desarrollar y mucho más rápido de configurar y cambiar, una ventaja significativa en el comercio.

El optimizador de TurinTech utiliza un híbrido de aprendizaje profundo y algoritmos genéticos o evolutivos para adaptar un modelo basado en nueva información, en lugar de tener que regenerarlo desde cero. “Intentará adaptar el modelo de aprendizaje profundo para que encaje”, dice Kanthan.

Harvey Lewis, socio asociado de Ernst and Young UK y científico de datos jefe de su práctica fiscal, dice que los algoritmos evolutivos y los métodos estadísticos bayesianos son útiles para hacer que el aprendizaje profundo sea más eficiente. Sin embargo, es común adoptar un enfoque de fuerza bruta para ajustar los parámetros en los modelos, ejecutando una gran cantidad de combinaciones para ver qué funciona, lo que para miles de millones de parámetros “va a ser bastante costoso desde el punto de vista computacional”.

Los costos de dicho trabajo se pueden reducir mediante el uso de hardware especializado, dice Lewis. Las unidades de procesamiento de gráficos, que están diseñadas para realizar cálculos rápidamente para generar imágenes, son mejores que las computadoras personales de propósito general. Los arreglos de puertas programables en campo que pueden ser configurados por los usuarios y las unidades de procesamiento de tensor diseñadas por Google específicamente para IA son aún más eficientes, y la computación cuántica está lista para ir aún más lejos.

Pero Lewis dice que primero tiene sentido preguntarse si realmente se requiere una IA compleja. Los modelos de aprendizaje profundo son buenos para analizar grandes volúmenes de datos consistentes. “Son excelentes para realizar la estrecha tarea para la que han sido entrenados”, dice. Pero en muchos casos existen opciones más sencillas, económicas y con un menor impacto medioambiental.

A Lewis le gusta encontrar una línea de base, el modelo de IA más simple que pueda generar una respuesta razonable. “Una vez que tienes eso, ¿necesitas llevarlo más lejos o te proporciona lo que necesitas?” él dice. Además de ahorrar dinero, electricidad y emisiones, los modelos más simples, como los árboles de decisión, son más fáciles de entender y explicar, una característica útil en áreas como la fiscalidad que deben estar abiertas a verificación y auditoría.

Agrega que a menudo es beneficioso combinar la inteligencia humana con la artificial. Esto puede incluir verificaciones manuales de problemas básicos de calidad de datos, como si los campos marcados como fechas son reconocibles como estos, antes de que comience el trabajo automatizado.

Entonces, a menudo es más eficiente dividir los procesos entre máquinas y humanos, con un software que realiza una clasificación de gran volumen, como detectar imágenes con perros, y luego las personas hacen los juicios más desafiantes, como clasificar la raza. “Incluir a un ser humano en el circuito es una forma de ayudar al rendimiento y hacerlo mucho más sostenible”, dice Lewis.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *