Inteligencia Artificial Neurociencia neuropsicología

Leer la Mente: Señales Cerebrales Transformadas en Habla con Implantes y AI

leer la mente con ia

En un emocionante avance científico, investigadores de la Universidad Radboud y el UMC Utrecht han logrado leer la mente, transformando señales cerebrales en habla audible. Mediante la decodificación de señales del cerebro a través de una combinación de implantes y la inteligencia artificial (IA), pudieron predecir las palabras que las personas querían decir con una precisión del 92 al 100%. Estos hallazgos se publicaron en el Journal of Neural Engineering este mes.

El Potencial de las Interfaces Cerebro-Computadora para Leer la Mente

La investigación señala un desarrollo prometedor en el campo de las Interfaces Cerebro-Computadora, según la autora principal Julia Berezutskaya, investigadora en el Instituto Donders de Cerebro, Cognición y Comportamiento de la Universidad Radboud y el UMC Utrecht. Berezutskaya y sus colegas en el UMC Utrecht y la Universidad Radboud utilizaron implantes cerebrales en pacientes con epilepsia para inferir lo que las personas estaban pensando.

Recuperando Voces Mediante la Lectura de la Mente

En última instancia, esperamos poner esta tecnología a disposición de los pacientes en estado de bloqueo, que están paralizados y no pueden comunicarse“, dice Berezutskaya. “Estas personas pierden la capacidad de mover sus músculos y, por lo tanto, de hablar. Al desarrollar una interfaz cerebro-computadora, podemos leer sus mentes y analizar la actividad cerebral para darles voz nuevamente“.

Para el experimento en su nuevo artículo, los investigadores pidieron a personas no paralizadas con implantes cerebrales temporales que pronunciaran varias palabras en voz alta mientras se medía su actividad cerebral. Berezutskaya explica: “Luego pudimos establecer una correlación directa entre la actividad cerebral, por un lado, y el habla, por otro. También utilizamos modelos avanzados de inteligencia artificial para traducir esa actividad cerebral directamente en audible habla. Eso significa que no solo pudimos adivinar lo que las personas estaban pensando, sino que también pudimos transformar inmediatamente esas palabras en sonidos inteligibles y comprensibles. Además, el habla reconstruida incluso sonaba como el orador original en tono de voz y manera de hablar“.

Superando Limitaciones en la Lectura de la Mente

Investigadores de todo el mundo trabajan en formas de reconocer palabras y oraciones en patrones cerebrales. Los investigadores lograron reconstruir un habla inteligible con conjuntos de datos relativamente pequeños, demostrando que sus modelos pueden descubrir la compleja relación entre la actividad cerebral y el habla con datos limitados. Además, realizaron pruebas de escucha con voluntarios para evaluar la identificabilidad de las palabras sintetizadas. Los resultados positivos de esas pruebas indican que la tecnología no solo tiene éxito en leer la mente identificando palabras correctamente, sino también en transmitir esas palabras de manera audible y comprensible, como una voz real.

Desafíos Futuros en la Lectura de la Mente

“Por ahora, todavía existen algunas limitaciones”, advierte Berezutskaya. “En estos experimentos, pedimos a los participantes que dijeran doce palabras en voz alta, y esas fueron las palabras que intentamos detectar. En general, predecir pensamientos individuales es menos complicado que predecir oraciones completas. En el futuro, los modelos de lenguaje grandes que se utilizan en la investigación de IA pueden ser beneficiosos. Nuestro objetivo es leer la mente y predecir oraciones y párrafos completos de lo que las personas están tratando de comunicar basado únicamente en su actividad cerebral. Para llegar allí, necesitaremos más experimentos, implantes más avanzados, conjuntos de datos más grandes y modelos de IA avanzados. Todos estos procesos aún llevarán varios años, pero parece que estamos avanzando en la dirección correcta“.

Referencias

Artículo original: Universidad Radboud

Referencia del estudio:

  • Berezutskaya, J., Freudenburg, Z. V., Vansteensel, M. J., Aarnoutse, E. J., Ramsey, N. F., & van Gerven, M. A. J. (2023). Direct speech reconstruction from sensorimotor brain activity with optimized deep learning models. In Journal of Neural Engineering. IOP Publishing. https://doi.org/10.1088/1741-2552/ace8be

¡Encuentra un psicólogo!

Psicólogos aleatorios

Abrir el chat
1
canalpsico.com
¡Hoooola! ¿En qué puedo ayudarte? Deja tu mensaje y te contestaré pronto :)