Gracias a esta técnica podemos escuchar lo que tiene que decir una persona que no puede hablar

Utilizando modelos computacionales conocidos como redes neuronales, un grupo de investigadores ha reconstruído palabras y oraciones que, en algunos casos, eran inteligibles para los oyentes humanos y que intentaban ser verbalizadas por diversos pacientes.

El desarrollo de esta técnica permite "escuchar" a las personas que no puede hablar debido a alguna enfermedad simplemente descifrando los datos que registraban en el cerebro de los pacientes. Es decir, bastaba con que la persona imaginara lo que quería decir.

Futuras prótesis de voz

Las personas que han perdido la capacidad de hablar después de un derrame cerebral o una enfermedad pueden usar sus ojos o hacer otros pequeños movimientos para controlar un cursor o seleccionar letras en pantalla, tal y como hacía Stephen Hawking. Pero si una interfaz cerebro-computadora pudiera recrear el discurso directamente, podrían recuperar mucho más que el habla: también el control sobre el tono y la inflexión de lo que quieren decir, por ejemplo, o la capacidad llevar a cabo una conversación más fluida.

Este pequeño milagro ha sido realizado gracias a los datos con los que se han entrenado las redes neuronales artificiales que procesan patrones complejos del cerebro. Para el estudio, se basaron en los datos de cinco personas con epilepsia.

La red analizó grabaciones de la corteza auditiva (que está activa tanto durante el habla como la audición) a medida que esos pacientes escuchaban grabaciones de historias y personas que nombraban dígitos de cero a nueve. Luego, un ordenador reconstruyó los números hablados solo a partir de datos neuronales; cuando el ordenador "pronunció" los números, un grupo de oyentes los identificó con un 75% de precisión.

Las señales cerebrales cuando una persona "habla" o "escucha" en silencio su voz en su cabeza no son idénticas a las señales del habla o del oído. Sin un sonido externo que coincida con la actividad cerebral, puede ser difícil para un ordenador incluso determinar dónde comienza y termina el habla interna.

Sin embargo, se están dando pasos impresionantes en este sentido, para quizá algún día crear una prótesis de voz artificial. Otro ejemplo en este sentido es el protagonizado por el neurocirujano Edward Chang y su equipo en la Universidad de California, San Francisco, que reconstruyeron oraciones enteras a partir de la actividad cerebral capturada del habla y las áreas motoras mientras tres pacientes con epilepsia leían en voz alta. En una prueba online, 166 personas escucharon una de las oraciones y tuvieron que seleccionarla entre 10 opciones escritas. Algunas oraciones se identificaron correctamente más del 80% del tiempo.

Otro gran salto en la calidad de estas técnicas pasaría, quizás, por proporcionar retroalimentación al usuario de la interfaz cerebro-computadora: si el usuario puede escuchar la interpretación del habla del ordenador en tiempo real, podría ajustar sus pensamientos para obtener el resultado que desea.

Anteriormente este tipo de estudios se centraban en tratar de comprender los movimientos musculares que acaban produciendo las palabras, sin embargo, esta producción de lenguaje natural involucra más de cien músculos y además un movimiento no siempre resulta en un sonido. Para Chethan Pandarinath y Yahia Ali, expertos en ingeniería biomédica en la Universidad de Emory, "el enfoque de estos autores resulta en una menor distorsión acústica que los anteriores sistemas de descodificación".

Poco a poco, pues, estudios más audaces nos están encaminando hacia la posibilidad de que las personas que tienen dificultades para hablar puedan hacerlo con una fluidez mayor, quizá en un futuro próximo indistinguible del habla normal.

Ver todos los comentarios en https://www.xatakaciencia.com

VER 0 Comentario

Portada de Xataka Ciencia