Thu. Aug 29th, 2024

Meta (ex Facebook) quiere competir con el popular traductor Google Translate con un modelo único de Inteligencia Artificial (IA) capaz de traducir a 200 idiomas diferentesentre los que se encuentran idiomas como el kambra, el somalí, el indonesio, el euskera o el catalán.

La tecnología, bajo el nombre Ningún idioma se queda atrás (NLLB-200)es parte de un proyecto desarrollado por la empresa de Mark Zuckerberg que tiene como objetivoe incentivar el uso de lenguas minoritarias y fomentar conversaciones en sus redes sociales.

Específico, NLLB-200 puede traducir a 200 idiomas que o no existían hasta ahora en las herramientas de traducción más utilizadas o no funcionaban correctamente, dijo la compañía en un comunicado difundido esta semana.

“Las técnicas de modelado de IA que hemos utilizado están ayudando a entregar traducciones de alta calidad. Lo hemos entrenado usando el Supercúmulo de investigaciónuno de los las supercomputadoras mas rapidas del mundo”, subraya el fundador y CEO de Meta, Mark Zuckerberg, en una publicación en su cuenta de Facebook.

AI Research SuperCluster, la supercomputadora de Meta.

En su intento por liderar la revolución del metaverso, Meta centró parte de sus esfuerzos (y capital financiero) en desarrollar sistemas de Inteligencia Artificial para construye tu propia comunidad virtual. En los últimos meses, la compañía lanzó varias iniciativas que apuntan en esa dirección.

Recientemente anunció la creación de un modelo de lenguaje que imita la forma en que el cerebro humano procesa las palabras. Ahora, la compañía de tecnología fue por más con un modelo único de IA capaz de traducir a 200 idiomas diferentes.

Código abierto: la clave de NLLB-200

Mark Zuckerberg asigna fondos para la investigación y el desarrollo de su Inteligencia Artificial NLLB-200. Foto: MANDEL NGAN / AFP.

El modelo en el que se basaron los ingenieros de Meta es prácticamente el mismo que el M2M-100, presentado en 2020 y que no requiere pasar primero por inglés. Además, esta vez, Código abierto del modelo NLLB-200 y otras herramientas para que otros investigadores puedan extender este trabajo a más lenguajes y diseñar tecnologías más inclusivas.

Los avances realizados en el modelo NLLB-200 podrán proporcionar más de 25 millones de traducciones al día en la sección de noticias de Facebook, Instagram y el resto de plataformas que forman parte del conglomerado tecnológico.

Con esta apuesta por el modelo NLLB-200, Meta espera ofrecer traducciones precisas que puedan ayudar detectar contenido dañino y desinformaciónasí como proteger la integridad de procesos políticos como elecciones o frenar casos de explotación sexual y trata de personas en Internet.

El problema es que hay muchas combinaciones para las cuales no hay oraciones paralelas que puedan servir como traducciónlo que provoca que algunas de estas traducciones incluyan errores gramaticales o inconsistencias.

Para mostrar la efectividad de NLLB-200, Meta publicó una demostración donde podemos ver un libro traducido a varios idiomas. Un texto en birmano, khmer, somalí o indonesio se puede traducir en cuestión de segundos al español, catalán, euskera, inglés, portugués, ruso, ligur, turco, coreano o chino simplificado, entre otros.

Para llegar a los 200 idiomas incluidos en el NLLB-200, la Inteligencia Artificial tuvo que centrarse en tres aspectos– Ampliación de los recursos de formación disponibles, ajuste del tamaño del modelo sin sacrificar el rendimiento y herramientas de mitigación y evaluación para 200 idiomas.

En primer lugar, la empresa señaló que, con el fin de recopilar textos paralelos para obtener traducciones más precisas en otros idiomas, mejoró su herramienta Transfer Language Agnostic Sentence Representations (LASER). tiro cero.

También, para crear formas gramaticales concretas y correctas, desarrolló listas de toxicidad para los 200 idiomas y las ha utilizado para evaluar y filtrar errores para reducir el riesgo de la llamada “toxicidad por alucinaciones”. Esto ocurre cuando el sistema ingresa erróneamente contenido problemático durante las traducciones.

Por otra parte, Meta reconoció que aún quedan “grandes retos por delante” para ampliar el modelo de 100 a 200 idiomas” y se centró especialmente en tres aspectos: la regularización y el aprendizaje curricular, el aprendizaje supervisado automático y la diversificación de la retrotraducción (es decir, , vuelva a traducir lo traducido con precisión al idioma de origen).

Con información de La Vanguardia.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *