La Universidad de Granada ha obtenido financiación en la convocatoria nacional Proyectos de Investigación en el Ámbito de la Inteligencia Artificial 2025 para desarrollar NeurSpeechXAI, un proyecto que busca crear neuroprótesis del habla capaces de descifrar la intención comunicativa de una persona a partir de su actividad cerebral. La iniciativa, dirigida por José Andrés González, investigador del Departamento de Teoría de la Señal, Telemática y Comunicaciones de la Escuela Técnica Superior de Ingenierías de Informática y Telecomunicación, ha recibido 478.900 euros, situándose entre las 69 propuestas financiadas de un total de 840 solicitudes y siendo una de las tres únicas concedidas a la UGR.
NeurSpeechXAI forma parte de un proyecto coordinado desarrollado en colaboración con la Universidad del País Vasco y el Basque Center on Cognition, Brain and Language (BCBL) de San Sebastián, con el objetivo común de avanzar en la decodificación del habla y el lenguaje a partir de señales cerebrales mediante el uso de algoritmos avanzados de inteligencia artificial.
NeurSpeechXAI aborda un desafío de gran relevancia en la actualidad como es ayudar a personas que han perdido la capacidad de hablar por lesiones neurológicas o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA). En los casos más graves, estos pacientes pueden encontrarse en un estado de enclaustramiento, plenamente conscientes pero sin posibilidad de comunicarse verbalmente. El proyecto busca desarrollar neuroprótesis que transformen señales cerebrales en texto o voz sintetizada, utilizando algoritmos similares a los que emplean asistentes virtuales como Siri o Alexa, pero adaptados para interpretar directamente la actividad neuronal. Este enfoque promete una comunicación más rápida, directa y natural, abriendo nuevas vías de autonomía para personas con discapacidades motoras severas.

La investigación combinará algoritmos de inteligencia artificial con distintos métodos de registro de la actividad cerebral, tanto invasivos como no invasivos, para analizar cómo se codifica el lenguaje en diferentes niveles. Además, incorporará técnicas de IA explicable (XAI) que permitirán interpretar qué patrones cerebrales influyen en las decisiones de los modelos, aportando herramientas valiosas para su validación clínica y para avanzar en el conocimiento del cerebro humano.
José Andrés González, investigador principal del proyecto, explica que el proyecto parte de "algoritmos similares a los que permiten a asistentes como Siri o Alexa comprender el lenguaje humano, pero adaptados para interpretar directamente la actividad cerebral. La aplicación práctica es enorme: pensemos en casos tan conocidos como el del científico Stephen Hawking. Aunque él dependía de un sistema muy lento y limitado, tecnologías como las que desarrollamos podrían permitir, en el futuro, una comunicación mucho más natural y rápida para personas en su misma situación".
En NeurSpeechXAI participan investigadores del Centro de Investigación Mente, Cerebro y Comportamiento (CIMCYC) de la UGR, especialistas de la Unidad de Neurocirugía del Hospital Universitario Virgen de las Nieves, y el Neural Interfacing Lab de la Universidad de Maastricht (Países Bajos), referente mundial en interfaces cerebro-computadora centradas en el habla. Esta colaboración permitirá integrar conocimiento en ingeniería, neurociencia, psicología, lingüística y clínica, cubriendo todo el proceso: desde la adquisición de señales neuronales hasta la validación de los modelos de IA. El proyecto generará conjuntos de datos multimodales que se publicarán bajo principios de ciencia abierta, impulsando la investigación futura en neuroprótesis, IA y neurociencia cognitiva.





Guía de San Pedro Alcántara
Comentarios
Aviso





