Así es como avanza el desarrollo de la interfaz cerebro-computadora de Facebook

En 2017, Facebook anunció que había asignado al menos 60 ingenieros a un esfuerzo por construir una interfaz cerebro-computadora (BCI). El objetivo: permitir que los usuarios de computadoras y dispositivos móviles se comuniquen a una velocidad de al menos 100 palabras por minuto, mucho más rápido de lo que cualquiera puede escribir en un teléfono.

En julio pasado, investigadores de la Universidad de California en San Francisco (UCSF) apoyados por Facebook publicaron los resultados de un estudio que mostraba que una interfaz cerebro-computadora podría usarse para decodificar el habla en tiempo real, al menos el habla en forma una gama limitada de respuestas a preguntas. Esa investigación utilizó electrodos implantados.

También ese mes, Facebook publicó una publicación de blog que explica su enfoque de la tecnología BCI no invasiva. La publicación describió un dispositivo que irradia luz infrarroja cercana al cráneo y utiliza cambios en la forma en que el tejido cerebral absorbe esa luz para medir la oxigenación de la sangre de grupos de células cerebrales.

La publicación del blog decía:

T.Piense en un oxímetro de pulso, el sensor en forma de clip con una luz roja brillante que probablemente colocó en su dedo índice en el consultorio del médico. Así como es capaz de medir el nivel de saturación de oxígeno en la sangre a través del dedo, también podemos utilizar la luz infrarroja cercana para medir la oxigenación de la sangre en el cerebro desde fuera del cuerpo de forma segura y no invasiva….Y aunque es posible que medir la oxigenación nunca nos permita decodificar oraciones imaginarias, ser capaz de reconocer incluso un puñado de comandos imaginarios, como «inicio», «seleccionar» y «eliminar», proporcionaría formas completamente nuevas de interactuar con los sistemas de realidad virtual. de hoy y las gafas de realidad aumentada del mañana.

La compañía no ha hablado mucho sobre el proyecto desde, hasta este mes, cuando Mark Chevillet, director de investigación de Facebook Reality Labs y líder del proyecto BCI, brindó una actualización en la conferencia Wearable Tech, Digital Health y Neurotech de Silicon Valley. por ApplySci.

Para empezar, el equipo ha terminado de cambiar a un nuevo diseño de hardware. No es la versión final en absoluto, pero Chevillet dice que es mucho más utilizable que el prototipo de interfaz óptica inicial, que fue construido por un grupo de investigación de la Universidad de Washington en St. Louis. Ese sistema era grande, caro y no del todo portátil, admitió Chevillet. Pero los investigadores de Facebook han desarrollado una versión más barata y portátil, que utiliza componentes de bajo costo y algunos componentes electrónicos personalizados. Este llamado kit de investigación, que se muestra en la publicación del blog de julio [photo below], se está probando actualmente para confirmar que es tan sensible como el dispositivo más grande, dice.

Mientras tanto, los investigadores centran sus esfuerzos en la reducción de la velocidad y el ruido.

«Estamos midiendo la respuesta hemodinámica», dice Chevillet, «que alcanza su punto máximo unos cinco segundos después de la señal cerebral». El sistema actual detecta la respuesta máxima, que puede ser demasiado lenta para una interfaz cerebro-computadora realmente útil. «Podríamos detectarlo antes, antes del pico, si podemos aumentar nuestra señal y reducir el ruido», dice Chevillet.

Los nuevos auriculares ayudarán en este esfuerzo, indicó Chevillet, porque la mayor fuente de ruido es el movimiento. El auricular más pequeño se asienta firmemente en la cabeza, lo que resulta en menos cambios de posición que el caso con el buscador más grande.

El equipo también está buscando aumentar el tamaño de las fibras ópticas que recolectan la señal para detectar más fotones, dice.

Y ha construido y está probando un sistema que utiliza dominios de tiempo para eliminar el ruido, informa Chevillet. Al enviar pulsos de luz en lugar de luz continua, dice, el equipo espera distinguir entre los fotones que viajan solo a través del cuero cabelludo y el cráneo antes de ser reflejados, el ruido, de los que realmente lo transforman en tejido cerebral. «Esperamos tener los resultados para informar a fin de año», dice.

Otra forma de mejorar la relación señal-ruido del dispositivo, sugiere, es aumentar el contraste. No se puede aumentar necesariamente el brillo de la luz, dice; debe permanecer por debajo de un nivel seguro para el tejido cerebral. Pero el equipo puede aumentar la cantidad de píxeles en la matriz de fotodetectores. «Estamos probando una matriz de detectores de fotón único de 32 x 32 píxeles para ver si podemos mejorar la relación señal-ruido y lo informaremos más adelante este año», dice Chevillet.

Pero, admite, «incluso con lo que estamos haciendo para obtener una mejor señal, será ruidoso».

Por eso, explicó Chevillet, la compañía se está enfocando en detectar las tensiones mentales que producen el habla; en realidad, no lee pensamientos aleatorios. «Podemos usar señales ruidosas con algoritmos de voz», dice, «porque tenemos algoritmos de voz entrenados en grandes cantidades de audio y podemos transferir ese entrenamiento».

Este enfoque de la interfaz cerebro-computadora es intrigante, pero no será fácil de implementar, dice Roozbeh Ghaffari, investigador biomédico de la Universidad Northwestern y director ejecutivo de Epicore Biosystems. «Realmente puede haber formas de relacionar la activación neuronal con los cambios en los niveles de oxigenación sanguínea local», dijo Ghaffari. Espectro. “Pero los cambios en los niveles de oxigenación de la sangre que están asociados con la actividad neuronal están muy localizados; la capacidad de mapear estos cambios localizados en la actividad del habla desde la superficie de la piel, ciclo a ciclo, puede ser difícil. «

Corrección realizada el 26 de febrero de 2020

Fuente

Deja un comentario