logo
Inicio > Noticias > esclerosis lateral > > ELA: Transformar los pensamientos en palabras

ELA: Transformar los pensamientos en palabras

ESCLEROSIS LATERAL - 1 de noviembre de 2019

Como hemos tratado en otras ocasiones, la esclerosis lateral amiotrófica (ELA) es una enfermedad degenerativa que en sus fases más avanzadas presenta dificultad al hablar y, aunque actualmente las tecnologías ayudan mucho en este sentido transcribiendo las palabras, todavía no existía un dispositivo capaz de interpretar y transcribir los pensamientos. Ahora, gracias a un nuevo sistema desarrollado por neuroingenieros de la Universidad de Columbia (Estado Unidos), esto es posible.

Este dispositivo permite traducir los pensamientos en un discurso inteligible con un 75% de efectividad, ya que monitorea la actividad cerebral para que, a través de la tecnología, se recreen las palabras. Esto ayudará no sólo a personas con ELA, sino a personas que sufren las consecuencias de la epilepsia aguda o un ictus y que tienen problemas para comunicarse verbalmente.

"Nuestra voz nos ayuda a conectarnos con nuestros amigos, familia y el mundo alrededor nuestro. Por eso, perderla debido a una lesión o enfermedad es algo muy devastador" asevera Nima Mesgarini, investigador principal del Instituto de Comportamiento Mental Cerebral Mortimer B. Zuckerman de la Universidad de Columbia. Además, él también considera que con este sistema queda demostrado que “con la tecnología correcta, los pensamientos de estas personas pueden ser descifrados y entendidos por cualquier oyente”. Y es que, cuando las personas hablan e incluso se imaginan hablando, aparecen patrones reveladores de actividad en su cerebro. Un patrón de señales distinto también aparece cuando escuchamos a alguien hablar o imaginamos que escuchamos esa palabra.

Los investigadores utilizaron un algoritmo que fuera capaz de sintetizar las palabras que previamente habían sido grabadas por personas que hablaban. Puede parecer algo novedoso, pero en realidad es la misma tecnología que usan voces tan familiares como “Amazon Echo” y “Siri” de Apple para dar respuestas verbales a las preguntas que les hacemos verbalmente a través de nuestros móviles. Para entrenar este algoritmo, usaron pacientes con epilepsia a los que pidieron que escucharan frases pronunciadas por diferentes personas mientras se medía su actividad en el cerebro.

"Les pedimos a los pacientes epilépticos que escucharan las oraciones pronunciadas por diferentes personas, mientras medíamos sus patrones de actividad cerebral", explica Mesgarani. Estos patrones neurales fueron los que sirvieron para entrenar al codificador y sintetizador de voz. Luego, los investigadores pidieron a estas mismas personas que escucharan los números de 0 a 9 pronunciados por los oradores. Durante ese proceso, también grabaron las señales cerebrales y las transmitían al codificador, que las emitía como voz sintetizada. Este sonido producido por el vocoder en respuesta a las señales cerebrales de los números fue analizado y limpiado por redes neuronales, un tipo de inteligencia artificial que imita la estructura de las neuronas en el cerebro. El resultado fue la emisión de una voz robótica recitando una secuencia de números.

Pero no acaba aquí, el mismo equipo de investigadores realizará pruebas para estudiar las señales emitidas cuando una persona habla o se imagina hablar, ya que su idea es que este sistema pueda transformarse en un implante, similar a los que usan algunos pacientes con epilepsia para traducir los pensamientos del portador directamente en palabras.

Redactado por:

Conectando Pacientes

¿Te ha gustado esta noticia? Comparte:

audicion_sana_mobile_home