El implante cerebral transforma los pensamientos en palabras para ayudar al paralítico a “hablar” de nuevo.


ucsf-chang-patient-setup-illustration

La interfaz UCSF cerebro-computadora se aplica quirúrgicamente directamente a la corteza motora del paciente para permitir la comunicación.

Ken Probst, UCSF

El trabajo de Facebook en tecnología de entrada neuronal para AR y VR parece estar avanzando en una dirección más basada en la muñeca, pero la compañía continúa invirtiendo en la investigación de interfaces implantadas cerebro-computadora. La última etapa de un años El estudio financiado por Facebook de UCSF, llamado Proyecto Steno, traduce los intentos de conversación de un paciente paralítico con dificultades del habla en palabras en una pantalla.

“Esta es la primera vez que alguien que intenta decir palabras de forma natural solo puede ser decodificado en palabras por la actividad cerebral”, dijo el Dr. David Moses, autor principal de un estudio publicado el miércoles en Revista de Medicina de Nueva Inglaterra. “Con suerte, esta es la prueba de principio para el control directo por voz de un dispositivo de comunicación, utilizando el intento de hablar como señal de control de alguien que no puede hablar, que está paralizado”.

Del laboratorio a su bandeja de entrada. Obtenga las últimas historias científicas de CNET cada semana.

Las interfaces cerebro-computadora (BCI) han estado detrás de una serie de descubrimientos recientes prometedores, incluida la investigación de Stanford que podría convertir la escritura imaginaria en texto proyectado. El estudio de la UCSF adopta un enfoque diferente, analizando los intentos reales de hablar y actuando casi como un traductor.

El estudio, dirigido por el neurocirujano de UCSF, el Dr. Edward Chang, implicó la implantación de una “neuroprótesis” de electrodos en un hombre paralítico que había sufrido un derrame cerebral a la edad de 20 años. Con un parche de electrodo implantado en el área del cerebro asociada con el tracto de la voz, el hombre intentó responder las preguntas que se mostraban en una pantalla. Los algoritmos de aprendizaje automático de UCSF pueden reconocer 50 palabras y convertirlas en oraciones en tiempo real. Por ejemplo, si el paciente vio un mensaje que preguntaba “¿Cómo estás hoy?” la respuesta apareció en la pantalla como “Soy muy bueno”, saltando palabra por palabra.

Moses dejó en claro que el trabajo tendrá como objetivo continuar más allá de la etapa de financiación de Facebook y que la investigación aún tiene mucho trabajo por hacer. Actualmente no está claro cuánto del reconocimiento del habla proviene de patrones registrados de actividad cerebral, o expresiones del habla, o una combinación de ambos.

Moses se apresura a dejar en claro que el estudio, al igual que otros trabajos de BCI, no es una lectura de la mente: se basa en la detección de la actividad cerebral que ocurre específicamente cuando se intenta participar en cierto comportamiento, como hablar. Moses también dice que el trabajo del equipo de UCSF aún no se traduce en interfaces neuronales no invasivas. Neuralink de Elon Musk promete datos de transmisión inalámbrica de electrodos implantados en el cerebro para futuras investigaciones y usos de asistencia, pero hasta ahora esta tecnología solo se ha demostrado en un mono.

frlr-head-montado-bci-research-prototype

El prototipo de dispositivo de cabeza BCI de Facebook Reality Labs, que no tenía electrodos implantados, se está volviendo de código abierto.

Facebook

Mientras tanto, Facebook Reality Labs Research se ha alejado de las interfaces cerebro-computadora que se usan en la cabeza para los futuros auriculares VR / AR, centrándose en dispositivos de muñeca basados ​​en tecnología adquirida de CTRL-Labs para el futuro previsible. Facebook Reality Labs tenía sus prototipos no invasivos de auriculares de investigación en la cabeza para estudiar la actividad cerebral, y la compañía anunció que planea ponerlos a disposición para proyectos de investigación de código abierto a medida que deja de centrarse en hardware neuronal montado en la cabeza. (UCSF recibe fondos de Facebook pero no de hardware).

“Los aspectos del trabajo óptico montado en la cabeza serán aplicables a nuestra investigación de EMG de muñeca. Continuaremos utilizando el BCI óptico como una herramienta de investigación para construir mejores modelos y algoritmos de sensores basados ​​en la muñeca. A medida que continuamos explotando estos prototipos en nuestra investigación , “ya no estamos desarrollando un dispositivo BCI óptico montado en la cabeza para detectar la producción de voz. Esta es una de las razones por las que compartiremos nuestros prototipos de hardware montados en la cabeza con otros investigadores, quienes pueden aplicar nuestra innovación a otros casos de uso. “, confirmó un representante de Facebook por correo electrónico.

Sin embargo, la tecnología de entrada neuronal centrada en el consumidor aún está en su infancia. Aunque existen dispositivos de consumo que utilizan sensores no invasivos en la cabeza o la muñeca, actualmente son mucho menos precisos que los electrodos implantados.



Fuente

Deja un comentario