Wed. Aug 28th, 2024

Alex Huth (izquierda), Shailee Jain (centro) y Jerry Tang (derecha) se preparan para recopilar datos de actividad cerebral en el Centro de Imágenes Biomédicas de la Universidad de Texas en Austin. Los investigadores entrenaron su decodificador semántico en docenas de horas de datos de actividad cerebral de los participantes, recopilados en un escáner fMRI.

Foto: Nolan Zunk/Universidad de Texas en Austin.

Los científicos han desarrollado un sistema de IA no invasivo centrado en traducir la actividad cerebral de una persona en un flujo de texto, según un estudio revisado por pares publicado el lunes en la revista Nature Neuroscience.

El sistema, llamado decodificador semántico, podría beneficiar en última instancia a los pacientes que han perdido la capacidad de comunicarse físicamente después de sufrir un derrame cerebral, parálisis u otras enfermedades degenerativas.

Investigadores de la Universidad de Texas en Austin desarrollaron el sistema en parte mediante el uso de un modelo de transformador, que es similar a los que admiten el chatbot Bard de Google y el chatbot ChatGPT de OpenAI.

Los participantes del estudio entrenaron al decodificador escuchando varias horas de podcasts dentro de un escáner fMRI, que es una gran pieza de maquinaria que mide la actividad cerebral. El sistema no requiere implantes quirúrgicos.

DOCTOR. EL ESTUDIANTE JERRY TANG SE PREPARA PARA RECOPILAR DATOS DE LA ACTIVIDAD CEREBRAL EN EL CENTRO DE IMÁGENES BIOMÉDICAS DE LA UNIVERSIDAD DE TEXAS EN AUSTIN.

Foto: Nolan Zunk/Universidad de Texas en Austin.

Una vez que el sistema de IA está entrenado, puede generar un flujo de texto cuando el participante está escuchando o imaginando contar una nueva historia. El texto resultante no es una transcripción exacta, sino que los investigadores lo diseñaron con la intención de capturar pensamientos o ideas generales.

Según un comunicado de prensa, el sistema entrenado produce un texto que coincide con precisión o con precisión con el significado previsto de las palabras originales del participante alrededor de la mitad de las veces.

Por ejemplo, cuando un participante escuchó las palabras “Todavía no tengo mi licencia de conducir” durante un experimento, los pensamientos se tradujeron a “Ella ni siquiera ha comenzado a aprender a conducir todavía”.

“Para un método no invasivo, este es un verdadero avance en comparación con lo que se ha hecho antes, que generalmente son palabras sueltas o oraciones cortas”, dijo Alexander Huth, uno de los líderes del estudio, en el comunicado. “Estamos logrando que el modelo decodifique un lenguaje continuo durante largos períodos de tiempo con ideas complicadas”.

También se les pidió a los participantes que miraran cuatro videos sin audio mientras estaban en el escáner, y el sistema de inteligencia artificial pudo describir con precisión “ciertos eventos” de ellos, según el comunicado.

A partir del lunes, el decodificador no se puede usar fuera de un entorno de laboratorio porque depende del escáner fMRI. Pero los investigadores creen que eventualmente podría usarse a través de sistemas de imágenes cerebrales más portátiles.

Los principales investigadores del estudio han presentado una solicitud de patente PCT para la tecnología.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *