Sat. Aug 31st, 2024

Amazon fue uno de los gigantes tecnológicos que aceptó un conjunto de recomendaciones de la Casa Blanca sobre el uso de IA generativa el año pasado. Las consideraciones de privacidad abordadas en esas recomendaciones continúan implementándose, y las últimas se incluyen en los anuncios de la Cumbre de AWS en Nueva York el 9 de julio. En particular, la base contextual de Guardrails para Amazon Bedrock proporciona filtros de contenido personalizables para las organizaciones que implementan sus propios programas generativos. AI.

Diya Wynn, líder de IA responsable de AWS, habló con TechRepublic en una sesión informativa previa virtual sobre los nuevos anuncios y cómo las empresas equilibran el amplio conocimiento de la IA generativa con la privacidad y la inclusión.

Anuncios de la Cumbre AWS NY: Cambios en Guardrails para Amazon Bedrock

Guardrails for Amazon Bedrock, el filtro de seguridad para aplicaciones de IA generativa alojadas en AWS, tiene nuevas mejoras:

  • Los usuarios de Claude 3 Haiku de Anthropic en vista previa ahora pueden ajustar el modelo con Bedrock a partir del 10 de julio.
  • Se agregaron comprobaciones de conexión a tierra contextual a Guardrails para Amazon Bedrock, que detectan alucinaciones en las respuestas del modelo para aplicaciones de resumen y generación de recuperación aumentada.

Además, Guardrails se está expandiendo a la API independiente ApplyGuardrail, con la que las empresas de Amazon y los clientes de AWS pueden aplicar salvaguardas a las aplicaciones de IA generativa incluso si esos modelos están alojados fuera de la infraestructura de AWS. Eso significa que los creadores de aplicaciones pueden usar filtros de toxicidad, filtros de contenido y marcar información confidencial que les gustaría excluir de la aplicación. Wynn dijo que hasta el 85% del contenido dañino se puede reducir con Guardrails personalizados.

La conexión a tierra contextual y la API ApplyGuardrail estarán disponibles el 10 de julio en regiones seleccionadas de AWS.

Guardrails para Amazon Bedrock permite a los clientes personalizar el contenido que un modelo de IA generativa adoptará o evitará. Imagen: AWS

La base contextual de Guardrails para Amazon Bedrock es parte de la estrategia más amplia de IA responsable de AWS

La base contextual se conecta con la estrategia general de IA responsable de AWS en términos del esfuerzo continuo de AWS para “avanzar en la ciencia, así como continuar innovando y brindando a nuestros clientes servicios que puedan aprovechar en el desarrollo de sus servicios y productos de IA”, Wynn dicho.

“Una de las áreas que a menudo escuchamos como preocupación o consideración para los clientes es la de las alucinaciones”, dijo.

La conexión a tierra contextual (y las barandillas en general) pueden ayudar a mitigar ese problema. Las barandillas con conexión a tierra contextual pueden reducir hasta un 75% de las alucinaciones observadas anteriormente en la IA generativa, dijo Wynn.

La forma en que los clientes ven la IA generativa ha cambiado a medida que la IA generativa se ha vuelto más común durante el último año.

“Cuando comenzamos parte de nuestro trabajo de cara al cliente, los clientes no necesariamente acudían a nosotros, ¿verdad?” dijo Wynn. “Estábamos, ya sabes, analizando casos de uso específicos y ayudando a respaldar desarrollos similares, pero el cambio en el último año ha sido, en última instancia, que hay una mayor conciencia [of generative AI] y por eso las empresas piden y quieren entender más sobre las formas en que estamos construyendo y las cosas que pueden hacer para garantizar que sus sistemas sean seguros”.

Eso significa “abordar cuestiones de parcialidad”, así como reducir los problemas de seguridad o las alucinaciones de la IA, dijo.

Adiciones al asistente empresarial Amazon Q y otros anuncios de la Cumbre AWS NY

AWS anunció una serie de nuevas capacidades y ajustes a los productos en la Cumbre AWS NY. Los aspectos más destacados incluyen:

  • Una capacidad de personalización del desarrollador en el asistente de inteligencia artificial empresarial de Amazon Q para proteger el acceso al código base de una organización.
  • La incorporación de Amazon Q a SageMaker Studio.
  • La disponibilidad general de Amazon Q Apps, una herramienta para implementar aplicaciones generativas impulsadas por IA basadas en los datos de su empresa.
  • Acceda a Scale AI en Amazon Bedrock para personalizar, configurar y ajustar los modelos de AI.
  • Vector Search para Amazon MemoryDB, que acelera la velocidad de búsqueda de vectores en bases de datos vectoriales en AWS.

VER: Amazon anunció recientemente instancias en la nube impulsadas por Graviton4, que pueden admitir los chips Trainium e Inferentia AI de AWS.

AWS alcanza su objetivo de capacitación en computación en la nube antes de lo previsto

En su Cumbre de Nueva York, AWS anunció que ha dado seguimiento a su iniciativa de capacitar a 29 millones de personas en todo el mundo en habilidades de computación en la nube para 2025, superando ya esa cifra. En 200 países y territorios, 31 millones de personas han realizado cursos de formación de AWS relacionados con la nube.

Entrenamiento y roles de IA

Las ofertas de capacitación de AWS son numerosas, por lo que no las enumeraremos todas aquí, pero se llevó a cabo capacitación gratuita en computación en la nube en todo el mundo, tanto en persona como en línea. Eso incluye capacitación sobre IA generativa a través de la iniciativa AI Ready. Wynn destacó dos roles que las personas pueden capacitar para las nuevas carreras de la era de la IA: ingeniero rápido e ingeniero de IA.

“Es posible que no necesariamente haya científicos de datos involucrados”, dijo Wynn. “No están entrenando modelos básicos. Quizás tengas algo así como un ingeniero de inteligencia artificial”. El ingeniero de inteligencia artificial ajustará el modelo básico y lo agregará a una aplicación.

“Creo que el rol del ingeniero de IA es algo cuya visibilidad o popularidad está aumentando”, dijo Wynn. “Creo que el otro es donde ahora hay personas responsables de la ingeniería rápida. Ésa es una nueva función o área de habilidad que es necesaria porque no es tan simple como la gente podría pensar, cierto, dar tu opinión o sugerencia, el tipo correcto de contexto y detalle para obtener algunos de los detalles que podrías desear de un gran debate. modelo de lenguaje”.

TechRepublic cubrió la Cumbre AWS NY de forma remota.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *