Durante más de veinte años, Ann Johnson no pudo pronunciar una sola palabra. Un derrame cerebral en el tronco encefálico la dejó completamente paralizada a los 30 años y silenció su voz junto con los músculos que la articulaban.
Hoy, gracias a una interfaz cerebro-máquina conectada directamente a su cerebro y entrenada con inteligencia artificial, vuelve a comunicarse con una versión digital de su propia voz. Es la primera vez que alguien con parálisis total logra expresarse de forma tan fluida.
Los responsables de este hito son investigadores de las universidades de California en Berkeley y San Francisco, que desarrollaron esta Interfaz Cerebro-Computadora, o BCI, por sus siglas en inglés. La clave de esta tecnología está en la implantación de una malla de 253 electrodos directamente sobre la corteza motora del habla de la mujer. Estos electrodos registran las señales neuronales que produce cuando intenta hablar, aunque sus músculos no puedan ejecutar el movimiento.
A diferencia de otros sistemas que se enfocan en lo que la persona piensa o imagina decir —es decir, en una etapa previa al lenguaje—, este nuevo método actúa cuando la persona intenta hablar, aunque no pueda mover los músculos.
El sistema capta la señal neuronal justo en el momento en que el cerebro da la orden de articular una palabra, como si el habla estuviera por salir. Es decir, interviene en una fase más avanzada del proceso, cuando la intención ya se transformó en un impulso motor.
Los investigadores desarrollaron algoritmos de aprendizaje automático que interpretan estas señales neuronales específicas cuando Ann intenta articular palabras. Este enfoque permite interceptar la señal en el punto donde el pensamiento se convierte en articulación, y por eso, la comunicación es más rápida y fluida.
“Lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal”, explicó a El País el Dr. Cheol Jun Cho, coautor principal del estudio que se publicó la semana pasada en Nature neuroscience. "Básicamente, interceptamos la señal donde el pensamiento se convierte en articulación", agregó el científico.
Para entrenar el sistema, Ann trabajó con un conjunto de 1024 palabras presentadas en frases, además de 50 frases preestablecidas. Al visualizar una frase en la pantalla, ella intentaba pronunciarla, y el sistema convertía su actividad cerebral en texto y voz sintetizada.
Pero no es cualquier voz. Utilizando grabaciones de su boda, los investigadores pudieron recrear una voz idéntica a la suya original. Ann expresó que escuchar una voz semejante a la suya le ayudaba a conectar mejor con la máquina.
Una de las principales ventajas de esta BCI es la reducción significativa en el tiempo de respuesta. Mientras que sistemas anteriores presentaban retrasos de varios segundos, este nuevo enfoque permite una latencia de aproximadamente un segundo desde que se detecta la intención de hablar hasta que se genera la voz sintetizada.
"Este nuevo método de transmisión convierte sus señales cerebrales a su voz personalizada casi en tiempo real. No necesita esperar a que termine una frase o palabra, ya que el decodificador funciona en sincronía con su intención de hablar, de forma similar a como hablan las personas sanas", explicó a El País el Dr. Gopala Anumanchipalli, profesor de la Universidad de California en Berkeley y coautor de la investigación.
A pesar de los avances, el sistema tiene muchos desafíos por delante. La necesidad de una intervención quirúrgica para implantar los electrodos es una barrera importante. "Por ahora, solo las técnicas invasivas han demostrado su eficacia con BCI del habla para personas con parálisis. Si las no invasivas mejoran la captación de la señal de forma precisa, sería razonable suponer que podremos crear una BCI no invasiva", explicó Anumanchipalli.
Otro de los desafíos es mejorar la expresividad y naturalidad de la voz sintetizada, incorporando características paralingüísticas, como el tono y la entonación, para reflejar mejor las emociones y matices del habla humana.
La colaboración entre neurocientíficos, ingenieros y expertos en inteligencia artificial ha permitido que Ann recupere una forma de comunicación después de más de 20 años de silencio.
Se trata de un avance prometedor que no solo mejora la calidad de vida de personas con parálisis severa, sino que abre nuevas vías en la investigación de interfaces cerebro-máquina.
A streaming brain-to-voice neuroprosthesis to restore naturalistic communication. Nat Neurosci 28, 902–912 (2025). Littlejohn, K.T., Cho, C.J., Liu, J.R. et al.