En un contexto en el que los gigantes tecnológicos llegan a conocernos mejor que nosotros mismos, la preocupación por nuestra privacidad está a la orden del día. Debido a esto, es comprensible que salten todas las alarmas cada vez que Meta anuncia que está trabajando en algún proyecto para poder “leernos la mente”. Algo que ya ha pasado en varias ocasiones y que ha traído consigo inquietud y curiosidad a partes iguales.
Pues bien, Meta lo ha vuelto a hacer. Aunque, esta vez, ha querido evitar tropezar con la misma piedra y se ha curado en salud, adelantando que esta nueva investigación tiene fines sociales y médicos, y no motivaciones de producto.
Leer las señales del cerebro y traducirlas en palabras
Meta se encuentra diseñando una nueva forma para poder descifrar nuestros pensamientos. Esta se basa en la traducción de los pensamientos al habla. Tal y como lo ha explicado la compañía en un comunicado, este proceso se enfoca en “dos tecnologías no invasivas: electroencefalografía (EEG) y magnetoencefalografía (MEG), que miden las fluctuaciones de campos eléctricos y magnéticos provocados por la actividad neuronal, respectivamente. En la práctica, ambos sistemas pueden tomar aproximadamente 1.000 instantáneas de la actividad cerebral macroscópica cada segundo, utilizando ciertos sensores“.
Cómo funciona este sistema
Para el proyecto, Meta ha aprovechado cuatro conjuntos de datos EEG y MEG, gracias a más de 150 horas de grabaciones de 169 voluntarios que, para la prueba, escucharon audiolibros y oraciones aisladas en inglés y holandés. Tras esto, como explican, “ingresamos esas grabaciones EEG y MEG en un “cerebro” que consiste en una red convolucional profunda con conexiones residuales. Finalmente, nuestra arquitectura aprende a alinear la salida de este modelo cerebral con las representaciones profundas de los sonidos del habla que se presentaron a los participantes“.
De este modo, gracias a la colocación de sensores en la cabeza de un sujeto, podrían recogerse grabaciones de EEG y MEG, que se traducirían en palabras. Como se resume en el siguiente esquema:

Ejemplo del sistema propuesto por Meta / Fuente: Meta
En lo relativo a los resultados que Meta ha estado obteniendo con este sistema: “A partir de tres segundos de actividad cerebral, nuestros resultados muestran que nuestro modelo puede decodificar los segmentos de voz correspondientes con una precisión de hasta el 73% entre los 10 principales de un vocabulario de 793 palabras, es decir, una gran parte de las palabras que normalmente usamos en un día“.
Más allá de las típicas bromas al respecto de la insistencia de Meta por curiosear en nuestros cerebros, este podría suponer un gran avanece médico y la apertura de un nuevo mundo para todos aquellos que sufren algún tipo de lesión cerebral.
Meta cuenta con un largo historial de intentos de leer mentes
En 2017, cuando la empresa matriz aún operaba bajo el nombre de Facebook, esta ya había comenzado a coquetear con la idea de acceder a nuestras mentes. Durante su conferencia F8 de ese año, se trataron diversas ideas visionarias para facilitar la participación en entornos virtuales. No obstante, en cuanto se mencionó la posibilidad de implantar un chip en nuestros cerebros, se creó un ambiente de preocupación y desconfianza general.
Más tarde, en 2019, Facebook (Meta), adquirió CTRL-Labs, una startup tecnológica que estaba creando un brazalete que permite a sus usuarios controlar un avatar digital utilizando solo sus pensamientos. Este brazalete medía la actividad de las neuronas en el brazo del usuario, determinando el movimiento en el que estaba pensando, incluso si la persona permanece estática. Esta actividad neuronal es traducida en movimiento en la pantalla, es decir, podría leerte la mente y hacer que tu avatar se moviese tal y como pensases.
“Tus manos podrían estar en tus bolsillos, o detrás de ti” explicó Thomas Reardon, director ejecutivo de CTRL-Labs, durante una conferencia de la industria en diciembre de 2018. “Es la intención de moverse, no el movimiento en sí mismo lo que controla el avatar”.
“El brazalete decodificará estas señales (neuronales) y las traducirá en una señal digital que su dispositivo pueda entender”, comentó Andrew Bosworth, jefe de AR y realidad virtual de Facebook en un comunicado. “Captura tu intención para que puedas compartir una foto con un amigo usando un movimiento imperceptible, o simplemente con tu intención de hacerlo”.
Como ves, Meta ha tenido el objetivo de leerte la mente desde hace muchos años, y no teme gastar cualquier cantidad de dinero para lograrlo.