Un enfoque novedoso supone un avance hacia la traducción del pensamiento en lenguaje oral artificial.
Los trastornos neurológicos que causan parálisis, como la esclerosis lateral amiotrófica y los accidentes cerebrovasculares que afectan al tronco encefálico, arrebatan a los afectados la facultad del habla. Las técnicas asistenciales dotan a algunos pacientes de control a través de un teclado (como al célebre físico Stephen Hawking), en tanto que las interfaces cerebro-ordenador posibilitan a otros el control mental de máquinas. Pero ambos tipos de aparatos son lentos y nada prácticos para las personas con síndrome de enclaustramiento y otros trastornos de la comunicación.
En este momento se están desarrollando instrumentos destinados a captar la actividad cerebral ligada al habla, con el objetivo de descifrarla y convertirla en palabras que sean pronunciables por un sintetizador de voz. Un estudio reciente ha cosechado algunos de los resultados más impresionantes hasta la fecha gracias a técnicas de aprendizaje automático y síntesis vocal de vanguardia.
El ingeniero eléctrico Nima Mesgarani, del Instituto Zuckerman de la Universidad de Columbia, y sus colaboradores estudiaron a cinco epilépticos a los que se les había implantado electrodos en el cerebro como parte de su tratamiento. Estos abarcaban regiones involucradas en el procesamiento de los sonidos vocales. Los pacientes escucharon relatos en voz alta al tiempo que se registraba su actividad cerebral. El equipo entrenó una red neuronal de «aprendizaje profundo» para que emparejara esa actividad con la grabación de voz. El experimento decisivo era ver si, ante unos datos neuronales que no hubiera procesado antes, el sistema sería capaz de reproducir el discurso original.
Cuando los pacientes oyeron los números del cero al nueve recitados cuatro veces, el sistema transformó los datos neuronales en los valores necesarios para accionar un «vocoder», untipo especial de analizador y sintetizador de voz. Otro grupo de participantes escuchó las palabras sintetizadas y las reconoció correctamente el 75 por ciento de las veces, según el estudio, que vio la luz este pasado enero en Scientific Reports. La mayoría de los intentos precedentes no habían medido el grado de comprensión del habla reconstruida. «Hemos comprobado que resulta inteligible», explica Mesgarani.
Ya era sabido que es posible reconstruir lo hablado a partir de la actividad cerebral, pero el nuevo trabajo supone un paso adelante hacia un rendimiento superior. «Aún queda mucho por mejorar, pero sabemos que la información está ahí», afirma el neurocirujano Edward Chang, de la Universidad de California en San Francisco, ajeno al estudio. «Y mejorará aún más en los próximos años, pues este es un campo en que se está avanzando con rapidez.»
Con todo, hay ciertas limitaciones. El equipo de Mesgarani registró la actividad cerebral de las regiones receptoras del habla, no de las implicadas en la emisión; además, pusieron a prueba su sistema con un pequeño conjunto de palabras, en lugar de frases enteras que contuvieran un vocabulario amplio. (Otros especialistas, como el mismo Chang, ya andan bregando con esos problemas.) Y, quizá lo más importante, el estudio se concibió para descifrar la actividad asociada al lenguaje oral que se escucha, no al que piensa uno mismo, una proeza que exigirá crear un aparato que resulte práctico. «El desafío para todos estriba en pasar del habla real a la imaginada», asegura Mesgarani.
Alejandro Herrero 4ºA
IYC
No hay comentarios:
Publicar un comentario