Ciudad de México,
Martín Olivera
Crédito foto: Sergio F Cara (NotiPress/Composición)
Investigadores de la Universidad de California en Davis desarrollaron una prótesis neuronal capaz de transformar señales cerebrales en sonidos, permitiendo a una persona con esclerosis lateral amiotrófica (ELA) comunicarse nuevamente. Este avance representa un nuevo enfoque en la tecnología de interfaz cerebro-computadora (BCI), según datos publicados en 2024 por los autores del estudio.
El paciente participante, identificado como T15, es un hombre de 46 años con parálisis severa causada por ELA. Antes del desarrollo del nuevo sistema, se comunicaba con un ratón giroscópico, controlando un cursor en pantalla para seleccionar letras. Para integrar el nuevo sistema, se le implantaron 256 microelectrodos en la circunvolución precentral ventral, región del cerebro responsable del control de los músculos del habla.
"Nuestro objetivo principal es crear una neuroprótesis del habla flexible que permita a un paciente con parálisis hablar con la mayor fluidez posible", afirmó Maitreyee Wairagkar, investigadora principal del proyecto. Los electrodos captaron la actividad neuronal de neuronas individuales y enviaron estas señales a un decodificador neuronal basado en inteligencia artificial.
El decodificador extrajo características del habla como tono y sonoridad, las cuales se sintetizaron mediante un vocoder, replicando la voz original del paciente. "Todo el sistema funcionó con una latencia de hasta unos 10 milisegundos", explicó Wairagkar, destacando la inmediatez en la generación de sonido a partir del pensamiento.
A diferencia de otros sistemas que traducen señales cerebrales a texto con vocabulario limitado, esta prótesis permitió la emisión de cualquier sonido. El paciente logró expresar palabras no reconocidas por diccionarios, así como interjecciones naturales como "um" o "uh", e incluso cantar breves melodías. "Tiene una parálisis grave y, cuando intenta hablar, es muy difícil entenderle", comentó David M. Brandman, neurocirujano y coautor del estudio.
Para evaluar la inteligibilidad del habla sintetizada, se realizaron dos pruebas con oyentes humanos. En una primera, con opciones de transcripción, la comprensión alcanzó el 100%. En la segunda, sin opciones predefinidas, la tasa de error fue del 43,75%, en contraste con el 96,43% sin asistencia tecnológica. "Aún no estamos en el punto de poder usarlo en conversaciones abiertas. Considero esto una prueba de concepto", dijo Sergey Stavisky, autor principal del estudio.
Stavisky sugirió que dispositivos con más electrodos podrían mejorar el rendimiento. "Si comparamos lo que hemos logrado con solo 250 electrodos con lo que se podría lograr con mil o dos mil, creo que funcionaría", señaló. La empresa Paradromics, con sede en Texas, se encuentra desarrollando un sistema con 1600 electrodos y busca la aprobación de la FDA para realizar ensayos clínicos. "David Brandman, nuestro coautor, será el investigador principal de estos ensayos", indicó Stavisky.