banner
Centro de Noticias
Amplia experiencia e instalaciones de última generación.

Una mujer con parálisis puede hablar pensando con un implante cerebral e inteligencia artificial

Jul 12, 2023

La interfaz experimental permite al paciente comunicarse a través de un avatar digital y es más rápida que su sistema actual.

Will Sullivan

Corresponsal diario

Después de que Ann Johnson sufriera un derrame cerebral hace 18 años, quedó paralizada y perdió la capacidad de hablar. Ahora, con la ayuda de un implante cerebral y una inteligencia artificial, puede volver a comunicarse verbalmente a través de un avatar digital.

En un estudio publicado la semana pasada en la revista Nature, los investigadores implantaron una serie de electrodos en la superficie del cerebro de Ann para transmitir su actividad cerebral a las computadoras. Allí, los algoritmos de IA traducen las señales en palabras. Después de una breve demora, el avatar en pantalla pronuncia las palabras de Ann en voz alta y captura su sentimiento con expresiones faciales.

"No hay nada que pueda transmitir lo satisfactorio que es ver que algo como esto realmente funcione en tiempo real", dijo en una conferencia Edward Chang, coautor del estudio y neurocirujano de la Universidad de California en San Francisco (UCSF). rueda de prensa, según Aria Bendix de NBC News.

"Esto supone un gran salto con respecto a resultados anteriores", le dice a Hannah Devlin del Guardian Nick Ramsey, neurocientífico de la Universidad de Utrecht en los Países Bajos, que no contribuyó al estudio. "Estamos en un punto de inflexión".

Ann actualmente se comunica usando un dispositivo que le permite escribir palabras en una pantalla moviendo la cabeza, según un comunicado de UCSF. Ese dispositivo sólo produce 14 palabras por minuto; la conversación humana hablada, por otro lado, tiene un promedio de alrededor de 160 palabras por minuto. Pero con la nueva interfaz, que Ann sólo puede utilizar como parte del estudio, puede producir 78 palabras por minuto, lo que la acerca a una cadencia de habla natural. El dispositivo descifró su discurso previsto con alrededor del 75 por ciento de precisión.

La interfaz es un gran paso adelante con respecto a una iteración anterior del mismo equipo de investigación, que traducía la voz deseada a texto a una velocidad de 15 palabras por minuto, escribe Emily Mullin de Wired.

El sistema mejorado se basa en un implante con 253 electrodos colocados sobre partes del cerebro importantes para la comunicación. Antes del derrame cerebral de Ann, estas regiones del cerebro enviaban señales a los músculos involucrados en el habla, como los de la laringe, los labios y la lengua. Ahora, un cable conectado a un puerto en la cabeza de Ann transporta las señales a las computadoras.

Luego, la IA traduce estas señales en sonidos individuales: fragmentos de palabras llamados fonemas. Luego combina los fonemas para formar palabras. El avatar digital que pronuncia las palabras fue diseñado para parecerse a Ann, y su voz fue entrenada para sonar como ella usando clips de ella hablando en el video de su boda. La cara del avatar también se mueve y expresa visualmente emociones basadas en las señales cerebrales de Ann.

"El simple hecho de escuchar una voz similar a la tuya es emocional", dijo Ann a los investigadores después del estudio, según Miryam Naddaf de Nature News.

Ann tuvo que entrenar con la interfaz durante semanas, pronunciando en silencio las mismas frases una y otra vez para que pudiera entender las señales de su cerebro. A través de estas pruebas, se enseñó al algoritmo a reconocer términos de un banco de 1.024 palabras conversacionales.

"Es extremadamente dedicada y trabajadora", le dice a Erin Prater de Fortune Kaylo Littlejohn, coautora del estudio e ingeniera eléctrica de la UCSF. "Está dispuesta a grabar todo el tiempo que sea necesario y realmente comprende que sus esfuerzos se destinarán a crear una neuroprótesis del habla que muchas personas con este tipo de discapacidad podrán utilizar".

En un segundo estudio de diferentes investigadores, publicado el mismo día en Nature, una mujer que perdió la capacidad de hablar debido a la ELA utilizó otra interfaz cerebro-computadora que produce el habla y que traduce el discurso deseado en texto. La interfaz decodificó su discurso a una velocidad de 62 palabras por minuto, con una tasa de error del 23,8 por ciento para un vocabulario de 125.000 palabras.

"Ahora es posible imaginar un futuro en el que podamos devolverle una conversación fluida a alguien con parálisis, permitiéndole decir libremente lo que quiera con una precisión lo suficientemente alta como para que se le entienda de forma fiable", dijo Frank Willett, coautor del estudio. segundo artículo e investigador científico de la Universidad de Stanford, dijo en una rueda de prensa, según Wired.

Aun así, estas interfaces sólo se han probado en un par de personas, señala Nature News. "Tenemos que tener cuidado con las promesas excesivas de generalización amplia a poblaciones grandes", dice a la publicación Judy Illes, neuroética de la Universidad de Columbia Británica en Canadá, que no participó en ninguno de los estudios. "No estoy seguro de que hayamos llegado a ese punto todavía".

Además, para que los dispositivos sean útiles en la vida diaria, tendrán que ser inalámbricos (a diferencia del que usa Ann) y lo suficientemente pequeños como para ser portátiles, le dice Littlejohn a Fortune. Pero los investigadores esperan que algún día en el futuro cercano, su tecnología inspire un sistema de comunicación aprobado por la FDA.

"Estos avances nos acercan mucho más a hacer de esta una solución real para los pacientes", dice Chang en el comunicado.

Reciba las últimas historias en su bandeja de entrada todos los días de la semana.

Will Sullivan | | LEER MÁS

Will Sullivan es un escritor científico que vive en Washington, DC. Su trabajo ha aparecido en Inside Science y NOVA Next.