Uno de los aspectos más destacados del nuevo implante es la reducción de latencia.
Un equipo de científicos de la Universidad de California ha desarrollado una neurotecnología pionera que convierte señales cerebrales en palabras audibles. Este avance, basado en inteligencia artificial, permite traducir en tiempo real lo que una persona piensa en voz sintética, abriendo una nueva era para quienes han perdido la capacidad de hablar debido a condiciones neurológicas severas.
“En los próximos cinco años, se espera que al menos el 15% de los dispositivos médicos utilicen inteligencia artificial para interpretar datos biológicos en tiempo real. Y en el caso de las neuroprótesis, este porcentaje podría alcanzar hasta el 30%, según nuestras proyecciones en IDAT”, explica Patricia Paulet, subdirectora de las facultades de Ingeniería y Tecnología de IDAT.
El sistema, que fue presentado en la revista Nature Neuroscience, emplea una interfaz cerebro-computadora (BCI) capaz de leer señales neuronales de la corteza motora, la región que gestiona el control del habla. La IA interpreta estas señales en milisegundos y genera voz mediante un altavoz, permitiendo una conversación fluida. Esta tecnología representa un avance notable frente a sistemas anteriores, que requerían pausas prolongadas para decodificar frases completas.
¿Cómo funciona esta tecnología?
La herramienta incluye una neuroprótesis dotada de 253 electrodos ubicados sobre la superficie del cerebro. Estos sensores detectan la actividad neuronal en el instante exacto en que la intención de hablar se forma, justo antes de que los músculos entren en acción. A partir de estas señales, un algoritmo de IA convierte los impulsos eléctricos en palabras que pueden reproducirse en voz alta.
El primer caso de aplicación real fue el de Ann, una mujer que quedó sin habla tras un derrame cerebral en 2005. Durante las pruebas, el sistema captó sus intentos de pronunciar mentalmente frases mostradas en pantalla. Luego, la inteligencia artificial decodificó estas señales y las transformó en frases audibles. Este hito representa una esperanza para millones de personas con discapacidades del habla.
Uno de los aspectos más destacados del nuevo implante es la reducción de latencia: mientras que la versión de 2023 requería hasta ocho segundos para emitir una frase completa, el sistema de 2024 procesa el habla palabra por palabra, reduciendo el tiempo de respuesta a tres segundos. Esto permite una interacción más natural y menos fragmentada.
“Solo en Latinoamérica, más de 2 millones de personas viven con algún tipo de parálisis que afecta su capacidad de hablar. Si bien aún estamos en fase de prueba, esta tecnología podría beneficiar a más del 10% de esta población en una primera etapa de implementación”, añadió Paulet.
La arquitectura del sistema utiliza algoritmos comparables a los empleados por asistentes virtuales como Siri o Alexa, pero adaptados al contexto cerebral. Captura información cada 80 milisegundos, lo que permite una interpretación casi instantánea del pensamiento articulado.
Los desarrolladores han subrayado que no se trata de leer pensamientos espontáneos, sino de identificar las señales cerebrales que se generan cuando una persona intenta hablar conscientemente. Este detalle es fundamental para entender el límite ético y técnico de la tecnología.