Un nuevo sistema de interfaz cerebro-máquina (BMI) portátil podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, incluso aquellas que luchan con el síndrome de enclaustramiento, cuando una persona está completamente consciente pero no puede moverse o comunicarse.
Un sistema cerebro-máquina más fácil de usar
Un equipo internacional multiinstitucional de investigadores dirigido por el laboratorio de Woon-Hong Yeo en el Instituto de Tecnología de Georgia combinó la electrónica inalámbrica del cuero cabelludo suave y la realidad virtual en un sistema BMI que permite al usuario imaginar una acción y controlar de forma inalámbrica una silla de ruedas o brazo robótico. El equipo, que incluyó a investigadores de la Universidad de Kent (Reino Unido) y la Universidad de Yonsei (República de Corea), describe este mes el nuevo sistema de IMC basado en imágenes motoras en la revista Advanced Science. “La principal ventaja de este sistema para el usuario, en comparación con lo que existe actualmente, es que es suave y cómodo de usar, y no tiene cables“, comenta Yeo, profesor asociado de la Escuela de Mecánica George W. Woodruff.
| También podría interesarte: Inventan un implante cerebral de carga inalámbrica capaz de controlar neuronas
Los sistemas BMI son una tecnología de rehabilitación que analiza las señales cerebrales de una persona y traduce esa actividad neuronal en comandos, convirtiendo las intenciones en acciones. El método no invasivo más común para adquirir esas señales es ElectroEncephaloGraphy, EEG, que generalmente requiere un casco de electrodo engorroso y una red enredada de cables.
Estos dispositivos generalmente dependen en gran medida de geles y pastas para ayudar a mantener el contacto con la piel, requieren tiempos de preparación extensos, son generalmente inconvenientes e incómodos de usar. Los dispositivos también sufren a menudo de una mala adquisición de la señal debido a la degradación del material o artefactos de movimiento – el “ruido” auxiliar que puede ser causado por algo como rechinar los dientes o parpadear los ojos. Este ruido aparece en los datos cerebrales y debe filtrarse.
| Artículo relacionado: Nuestro cerebro es una máquina de predicción del futuro
El sistema EEG portátil diseñado por Yeo, que integra electrodos imperceptibles de microagujas con circuitos inalámbricos suaves, ofrece una mejor adquisición de la señal. Medir con precisión esas señales cerebrales es fundamental para determinar qué acciones quiere realizar un usuario, por lo que el equipo integró un potente algoritmo de aprendizaje automático y un componente de realidad virtual para abordar ese desafío.
El nuevo sistema se probó con cuatro sujetos humanos, pero aún no se ha estudiado con personas discapacitadas. “Esta es solo una primera demostración, pero estamos encantados con lo que hemos visto“, señaló Yeo, director del Centro de Ingeniería y Interfaces Centradas en el Hombre de Georgia Tech del Instituto de Electrónica y Nanotecnología, y miembro del Petit Institute. para Bioingeniería y Biociencias.
| También podría interesarte: El GPS del cerebro: como logra saber donde estamos y donde estan los demás
Nuevo paradigma
El equipo de Yeo introdujo originalmente una interfaz cerebro-máquina EEG suave y portátil en un estudio de 2019 publicado en Nature Machine Intelligence. El autor principal de ese trabajo, Musa Mahmood, también fue el autor principal del nuevo artículo de investigación del equipo. “Esta nueva interfaz cerebro-máquina utiliza un paradigma completamente diferente, que involucra acciones motoras imaginadas, como agarrar con cualquier mano, lo que libera al sujeto de tener que mirar demasiados estímulos“, dijo Mahmood, estudiante de doctorado en Yeo’s laboratorio.
En el estudio de 2021, los usuarios demostraron un control preciso de los ejercicios de realidad virtual utilizando sus pensamientos: sus imágenes motoras. Las señales visuales mejoran el proceso tanto para el usuario como para los investigadores que recopilan información.
“Las indicaciones virtuales han demostrado ser muy útiles“, decía Yeo. “Aceleran y mejoran la participación del usuario y la precisión. Y pudimos registrar la actividad de imágenes del motor de forma continua y de alta calidad“. Según Mahmood, el trabajo futuro en el sistema se centrará en optimizar la colocación de electrodos y una integración más avanzada del electroencefalograma basado en estímulos, utilizando lo que han aprendido de los dos últimos estudios.
| También podría interesarte: La capacidad de ‘sentirse bien’ podría ser controlada intencionalmente, según nuevo estudio
Fuente y referencias
Fuente original: Georgia Tech
Referencia del estudio:
Musa Mahmood, Shinjae Kwon, Hojoong Kim, Yun‐Soung Kim, Panote Siriaraya, Jeongmoon Choi, Boris Otkhmezuri, Kyowon Kang, Ki Jun Yu, Young C. Jang, Chee Siang Ang, Woon‐Hong Yeo. Wireless Soft Scalp Electronics and Virtual Reality System for Motor Imagery‐Based Brain–Machine Interfaces. Advanced Science, 2021; 2101129 DOI: 10.1002/advs.202101129
Añadir Comentario