Ya podemos leer palabras directamente de nuestro cerebro gracias a la IA

Ya podemos leer palabras directamente de nuestro cerebro gracias a la IA
Sin comentarios Facebook Twitter Flipboard E-mail

Electrodos colocados directamente en el cerebro registraban la actividad neuronal, mientras que los pacientes de cirugía cerebral escuchaban palabras o leían las palabras en voz alta. A continuación, los investigadores trataron de averiguar qué escuchaban o decían los pacientes comprobando estos registro de neuronas activadas.

Tres estudios en lo que se ha hecho esto ha permitido a los investigadores pudieron convertir la actividad eléctrica del cerebro en archivos de sonido más o menos inteligibles.

Leer el cerebro

El primer estudio al respecto, publicado en bioRxiv el 10 de octubre de 2018, describe un experimento en el que los investigadores reprodujeron grabaciones de personas hablando a pacientes con epilepsia que estaban en medio de una cirugía cerebral. Las grabaciones neuronales tomadas en el experimento tenían que ser muy detalladas para ser interpretadas.

Mientras los pacientes escuchaban los archivos de sonido, los investigadores registraron neuronas que se activaban en las partes del cerebro de los pacientes que procesaban el sonido.

Para traducir estas activaciones de neuronas en palabras, se probaron varios métodos diferentes, determinando que el "deep learning", un conjunto de algoritmos de clase aprendizaje automático de inteligencia artificial era el método más eficaz.

Al pasar los resultados a través de un vocoder, que sintetiza voces humanas, para un grupo de 11 oyentes, esos individuos pudieron interpretar correctamente las palabras el 75 por ciento de las veces. Sacándolas directamente del cerebro de los sujetos analizados.

Podéis escuchar el audio de este experimento aquí.

Web 3706562 960 720

El otro estudio, publicado el 27 de noviembre de 2018, se basaron en grabaciones neuronales de personas sometidas a cirugía para extirpar tumores cerebrales. Mientras los pacientes leían en voz alta las palabras de una sílaba, los investigadores registraron tanto los sonidos que salían de la boca de los participantes como las neuronas que se activaban en las regiones del cerebro que producen el habla.

A continuación, enseñaron una red neuronal artificial para convertir las grabaciones neuronales en audio, mostrando que los resultados eran al menos razonablemente inteligibles y similares a las grabaciones hechas por los micrófonos. El audio de este experimento está aquí.

El tercer estudio, publicado el 9 de agosto de 2018, se basó en registrar la parte del cerebro que convierte las palabras específicas que una persona decide verbalizar en movimientos musculares. Si bien no hay ninguna grabación de este experimento disponible online, los investigadores informaron de que pudieron reconstruir oraciones completas (también registradas durante la cirugía cerebral en pacientes con epilepsia) y que las personas que escucharon las oraciones pudieron interpretarlas correctamente el 83 por ciento del tiempo. El método de este experimento se basó en identificar los patrones involucrados en la producción de sílabas individuales, en lugar de palabras completas.

El objetivo de todos estos experimentos es hacer posible que un día las personas que han perdido la capacidad de hablar (debido a esclerosis lateral amiotrófica o afecciones similares) hablen a través de una interfaz de ordenador. Con todo, si bien los investigadores creen que es algo posible en un futuro, asumen que de momento interpretación de los patrones neuronales de una persona que solo imagina el habla es más complicada que la interpretación de los patrones de alguien que escucha o produce el habla.

Comentarios cerrados
Inicio