El decodificador de actividad cerebral AI puede revelar historias en la mente de las personas, dicen los investigadores

0

Un nuevo sistema de inteligencia artificial llamado decodificador semántico tiene la capacidad de traducir la actividad cerebral de una persona en un flujo continuo de texto, mientras escucha una historia o imagina una historia.

El sistema fue desarrollado por investigadores de la Universidad de Texas en Austin, quienes dijeron que podría ayudar a las personas mentalmente conscientes pero que no pueden hablar físicamente, como aquellas debilitadas por derrames cerebrales, a comunicarse de manera inteligible nuevamente.

El trabajo del científico se publicó en la revista Nature Neuroscience y se basa, en parte, en un modelo de transformador que es similar a los que usan ChatGPT de Open AI y Bard de Google.

La actividad cerebral se mide utilizando un escáner de resonancia magnética funcional después de un extenso entrenamiento del decodificador, en el que el individuo escucha horas de podcasts en el escáner.

INTELIGENCIA ARTIFICIAL AYUDA A DETECTAR SIGNOS TEMPRANOS DE CÁNCER DE MAMA EN ALGUNOS HOSPITALES DE EE. UU.

Jerry Tang coloca a un paciente en un escáner fMRI

Doctor. el estudiante Jerry Tang se prepara para recolectar datos de actividad cerebral en el Centro de Imágenes Biomédicas de la Universidad de Texas en Austin. Los investigadores entrenaron su decodificador semántico en docenas de horas de datos de actividad cerebral de los participantes, recopilados en un escáner fMRI. Foto (Nolan Zunk/Universidad de Texas en Austin)

Los participantes están abiertos a que se decodifiquen sus pensamientos y luego escuchen una nueva historia o se imaginen contando una historia, lo que permite que la máquina genere el texto correspondiente solo a partir de la actividad cerebral.

Si bien el resultado no es una transcripción palabra por palabra, captura la esencia de lo que se dice o piensa.

Aproximadamente la mitad de las veces, cuando el decodificador ha sido entrenado para monitorear la actividad cerebral de un participante, la máquina produce un texto que se asemeja mucho, ya veces con precisión, a los significados previstos de las palabras originales.

Un participante que escuchó a un orador decir que aún no tiene su licencia de conducir hizo que sus pensamientos se tradujeran como “Ella ni siquiera ha comenzado a aprender a conducir todavía”.

Los investigadores dijeron que estaban logrando que el modelo decodificara un lenguaje continuo durante largos períodos de tiempo con ideas complicadas.

Alex Huth (izquierda), Shailee Jain (centro) y Jerry Tang (derecha) se preparan para recopilar actividad cerebral

Alex Huth (izquierda), Shailee Jain (centro) y Jerry Tang (derecha) se preparan para recopilar datos de actividad cerebral en el Centro de Imágenes Biomédicas de la Universidad de Texas en Austin. Los investigadores entrenaron su decodificador semántico en docenas de horas de datos de actividad cerebral de los participantes, recopilados en un escáner fMRI. (Nolan Zunk/Universidad de Texas en Austin)

LA ‘MANERA AL LADO DE LA CABEZA’ DE AI CHATBOT PREFIERE A LOS MÉDICOS CONVENCIONALES POR UN MARGEN IMPACTANTE, SEGÚN UN ESTUDIO A CIEGO

Además de hacer que los participantes escucharan o pensaran en historias, les pidieron que miraran cuatro videos cortos y silenciosos mientras estaban dentro del escáner, y el decodificador semántico pudo usar su actividad cerebral para describir con precisión ciertos eventos de los videos.

En particular, los investigadores probaron el sistema en personas en las que no habían sido entrenados y descubrieron que los resultados eran ininteligibles.

Estudiantes en UT Austin

Alex Huth (izquierda), analiza el proyecto del decodificador semántico con Jerry Tang (centro) y Shailee Jain (derecha en el centro de imágenes biomédicas de la Universidad de Texas en Austin). (Nolan Zunk/Universidad de Texas en Austin)

Actualmente, el sistema no es práctico para su uso fuera del laboratorio debido a su dependencia del tiempo necesario en una máquina fMRI. Sin embargo, los investigadores creen que este trabajo podría transferirse a otros sistemas de imágenes cerebrales más portátiles.

“Nos tomamos muy en serio las preocupaciones de que podría usarse para malos propósitos y hemos trabajado para evitar eso”, dijo en un comunicado el líder del estudio Jerry Tang, estudiante de doctorado en ciencias de la computación. “Queremos asegurarnos de que las personas solo usen este tipo de tecnologías cuando quieran y que les ayuden”.

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Los autores dijeron que el sistema no se puede usar sin que alguien lo sepa y que hay formas en que alguien puede protegerse contra la decodificación de sus pensamientos, por ejemplo, pensar en animales.

“Creo que en este momento, mientras la tecnología se encuentra en un estado tan inicial, es importante ser proactivo y promulgar políticas que protejan a las personas y su privacidad”, dijo Tang. “Regular para qué se pueden usar estos dispositivos también es muy importante”.

Leave A Reply

Your email address will not be published.