Una mujer consigue ‘hablar’ en tiempo real, tras 20 años de silencio, al conectar su cerebro a una máquina
Una interfaz entrenada con IA registra su actividad cerebral cuando intenta decir las palabras y las reproduce con la voz sintetizada de la paciente, que sufrió un derrame

Ann tenía 30 años cuando tuvo un derrame en el tronco encefálico, la base cerebral que conecta con la médula espinal. Dejó de mover las piernas, los brazos y hasta los músculos que accionan sus cuerdas vocales. Ahora, tras años de entrenamiento con inteligencia artificial (IA), una interfaz cerebro máquina (BCI, por sus siglas en inglés) le permite comunicarse casi en tiempo real con su propia voz sintetizada. Para lograrlo, su cabeza tiene que estar conectada a una máquina que registra su actividad neuronal mediante una malla de 253 electrodos que le ponen directamente en el cerebro. Pero es la primera vez que puede hablar, aunque sea como un robot y enchufada, en más de dos décadas.
Ann, que ya ha pasado la cincuentena, no piensa las palabras, las intenta decir. La región de la corteza motora que se dedica al habla no está dañada. Ahí es donde empieza el trabajo del grupo de neurocientíficos, ingenieros y programadores de IA y ahí reside una de las diferencias con otros intentos de devolverle la capacidad de comunicarse a los que no puede hablar. Otros BCI actúan sobre el área específica del lenguaje mientras los pacientes piensan en una palabra o imaginan que la escriben. Este nuevo sistema registra lo que pasa en su cerebro cuando quiere decir “hola”. Lo explica en un correo Gopala Anumanchipalli, profesor de ingeniería eléctrica e informática en la Universidad de California en Berkeley (Estados Unidos) y coautor sénior de esta investigación, recién publicada en Nature Neuroscience: “Es cuando ella intenta decir ‘hello’, sin pensarlo. Debido a la parálisis de Ann, no puede articular ni vocalizar nada. Sin embargo, la señal neuronal de su intención es potente, lo que la convierte en una pista fiable para decodificar”, explica Anumanchipalli.
La decodificación empieza con los electrodos colocados en la corteza motora del habla. En una persona sana, desde aquí parten las conexiones neuronales que llegan, a través del tronco encefálico, hasta los músculos que controlan el tracto vocal. Con esta conexión perdida, una veintena de científicos de Berkeley y la Universidad de California en San Francisco, apoyados en varios trabajos previos, diseñaron un sistema de aprendizaje basado en algoritmos que decodificaban la actividad neuronal específica de Ann cuando quería articular una palabra.
Según Cheol Jun Cho, de Berkeley y coautor principal del estudio, “básicamente, interceptamos la señal donde el pensamiento se convierte en articulación”. En una nota de la universidad, Cho añade: “Lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal”. Para que la máquina y Ann se comunicaran, ella tuvo que entrenar con un conjunto de 1.024 palabras que el sistema presentaba en forma de frases (ver vídeo). También entrenaron la BCI con una serie de 50 frases preestablecidas. Nada más ver que empezaban a aparecer en la pantalla, Ann iniciaba sus intentos de hablar y el sistema convertía la señala cerebral tanto en texto como en voz.

Ann guardaba el vídeo de su boda, algo que les vino muy bien. Con él, pudieron elegir la voz del sintetizador como se elige la de un navegador o la de Siri. Ann dijo a los investigadores que oír su propia voz le ayudaba a conectar con la máquina. Empieza a ser práctica común grabar a las personas con deterioros cognitivos o enfermedades que amenazan su capacidad de hablar más adelante con la esperanza de que la ciencia les devuelve su voz en un futuro.
La segunda gran aportación de este trabajo es la velocidad. Esta BCI no es la única que ha logrado que personas que perdieron la posibilidad de hablar, vuelvan a comunicarse. Pero hasta ahora eran sistemas muy lentos. El proceso por el que los sujetos pretendían hablar o escribir debía pasar por varios pasos. Hasta que algo inteligible, ya fuera voz o texto, aparecía en el otro extremo del sistema, duraba varios segundos, demasiados para una comunicación real y fluida. Esta nueva BCI acorta y mucho la latencia.
“Aproximadamente un segundo, medido desde que nuestro decodificador de voz detecta su intención de hablar en las señales neuronales”, dice Anumanchipalli que tarda. Para este neurocientífico, experto en procesamiento del lenguaje e inteligencia artificial, este nuevo método de transmisión convierte sus señales cerebrales a su voz personalizada casi en tiempo real. “No necesita esperar a que termine una frase o palabra, ya que el decodificador funciona en sincronía con su intención de hablar, de forma similar a como hablan las personas sanas”, añade.
Para descartar que Ann y la BCI hubieran aprendido a repetir como papagayos las frases que les ofrecía el sistema (aunque eran miles las combinaciones posibles), en la fase final de los experimentos, los investigadores hicieron que la pantalla desplegara las 26 palabras que forman el llamado alfabeto fonética OTAN. Esta jerga fue un método iniciado hace un siglo y adoptado por la organización militar en los años 50 para facilitar las comunicaciones por radio deletreando comandos. Empieza con las palabras alfa, bravo, charlie, delta... Ann, que no había entrenado con ellas, las pudo decir sin grandes diferencias con los vocabularios con los que había entrenado.
Lo conseguido es solo una pequeña parte de lo que falta. Ya están trabajando para su IA capte las dimensiones no formales de la comunicación, como el tono, la expresividad, las exclamaciones, las preguntas... “Tenemos un trabajo en curso para intentar ver si podemos decodificar estas características paralingüísticas a partir de la actividad cerebral”, dice en una nota Kaylo Littlejohn, también coautor de esta investigación. “Se trata un problema que viene de atrás, incluso en los campos de la síntesis de audio clásica, y [cuya solución] permitiría alcanzar una naturalidad completa”.
Otros problemas son, por ahora, también irresolubles. Uno es tener que abrir la cabeza y poner 253 electrodos sobre el cerebro. Lo reconoce Anumanchipalli: “Por ahora, solo las técnicas invasivas han demostrado su eficacia con BCI del habla para personas con parálisis. Si las no invasivas mejoran la captación de la señal de forma precisa, sería razonable suponer que podremos crear una BCI no invasiva”. Pero, ahora, reconoce el experto, aún no están en ese punto.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
