Fri. Mar 22nd, 2024

¿Apple GPT en tu bolsillo? Podría ser una realidad antes de lo que piensas. Los investigadores de IA de Apple dicen que han logrado un avance clave en la implementación de modelos de lenguaje grandes (LLM) en iPhones y otros dispositivos Apple con memoria limitada al inventar una técnica innovadora de utilización de memoria flash.


LLM y limitaciones de memoria

Los chatbots basados ​​en LLM como ChatGPT y Claude consumen increíblemente datos y memoria y, por lo general, requieren grandes cantidades de memoria para funcionar, lo que es un desafío para dispositivos como los iPhones que tienen una capacidad de memoria limitada. Para abordar este problema, los investigadores de Apple han desarrollado una técnica novedosa que utiliza la memoria flash (la misma memoria donde residen tus aplicaciones y fotos) para almacenar los datos del modelo de IA.

Almacenamiento de IA en memoria flash

En un nuevo artículo de investigación titulado “LLM en un instante: Inferencia eficiente de modelos de lenguaje grande con memoria limitada”, los autores señalan que el almacenamiento flash es más abundante en los dispositivos móviles que la RAM utilizada tradicionalmente para ejecutar LLM. Su método evita inteligentemente la limitación utilizando dos técnicas clave que minimizan la transferencia de datos y maximizan la memoria flash. rendimiento:

  1. Ventanas: Piense en esto como un método de reciclaje. En lugar de cargar datos nuevos cada vez, el modelo de IA reutiliza algunos de los datos que ya procesó. Esto reduce la necesidad de buscar memoria constantemente, lo que hace que el proceso sea más rápido y fluido.
  2. Agrupación de filas y columnas: Esta técnica es como leer un libro en partes más grandes en lugar de leer una palabra a la vez. Al agrupar los datos de manera más eficiente, se pueden leer más rápido desde la memoria flash, lo que acelera la capacidad de la IA para comprender y generar lenguaje.

La combinación de estos métodos permite que los modelos de IA ejecuten hasta el doble del tamaño de la memoria disponible del iPhone, según el artículo. Esto se traduce en un aumento de 4 a 5 veces en la velocidad en procesadores estándar (CPU) y una impresionante velocidad de 20 a 25 veces más rápida en procesadores gráficos (GPU). “Este avance es particularmente crucial para implementar LLM avanzados en entornos con recursos limitados, ampliando así su aplicabilidad y accesibilidad”, escriben los autores.

IA más rápida en iPhone

El avance en la eficiencia de la IA abre nuevas posibilidades para los futuros iPhone, como capacidades Siri más avanzadas, traducción de idiomas en tiempo real y funciones sofisticadas impulsadas por la IA en fotografía y realidad aumentada. La tecnología también prepara el escenario para que los iPhone ejecuten asistentes de inteligencia artificial complejos y chatbots en el dispositivo, algo en lo que Apple ya está trabajando.

El trabajo de Apple en IA generativa podría eventualmente incorporarse a su asistente de voz ‌Siri‌. En febrero de 2023, Apple celebró una cumbre sobre inteligencia artificial e informó a sus empleados sobre el trabajo de su modelo de lenguaje masivo. De acuerdo a Bloomberg, Apple apunta a una versión más inteligente de Siri que esté profundamente integrada con la IA. Apple planea actualizar la forma en que ‌Siri‌ interactúa con la aplicación Mensajes, permitiendo a los usuarios responder preguntas complejas y completar oraciones automáticamente de manera más efectiva. Más allá de eso, se rumorea que Apple planea agregar IA a tantas aplicaciones de Apple como sea posible.

GPT de Apple

Según se informa, Apple está desarrollando su propio modelo de IA generativa llamado “Ajax”. Diseñado para rivalizar con GPT-3 y GPT-4 de OpenAI, Ajax opera con 200 mil millones de parámetros, lo que sugiere un alto nivel de complejidad y capacidad en la comprensión y generación de lenguajes. Conocido internamente como “Apple GPT”, Ajax tiene como objetivo unificar el desarrollo del aprendizaje automático en Apple, sugiriendo una estrategia más amplia para integrar la IA más profundamente en el ecosistema de Apple.

Según los últimos informes, Ajax se considera más capaz que la generación anterior ChatGPT 3.5. Sin embargo, también se sugiere que los modelos más nuevos de OpenAI pueden haber avanzado más allá de las capacidades de Ajax a partir de septiembre de 2023.

Ambos La información y el analista Jeff Pu afirman que Apple tendrá algún tipo de función de IA generativa disponible en el ‌iPhone‌ y el iPad a finales de 2024, que es cuando saldrá iOS 18. Pu dijo en octubre que Apple está construyendo unos cientos de servidores de IA en 2023, y que habrá más en 2024. Según se informa, Apple ofrecerá una combinación de IA basada en la nube e IA con procesamiento en el dispositivo.

Etiqueta: Apple GPT

Este artículo, "Apple desarrolla un método innovador para ejecutar LLM en iPhones" apareció por primera vez en MacRumors.com

Discute este artículo en nuestros foros.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *