Neuralink: cómo es la tecnología de implantes cerebrales que podría cambiar a la humanidad

Jack Gallant nunca se propuso crear una máquina para leer la mente. Su enfoque era más prosaico. El doctor Gallant es un neurocientífico informático de la Universidad de California, Berkeley, y trabajó durante años para mejorar nuestra comprensión de cómo los cerebros codifican la información (qué regiones se activan, por ejemplo, cuando una persona ve un avión o una manzana o un perro) y cómo esa actividad representa el objeto que se está viendo.

A finales de la década de 2000, los científicos pudieron determinar qué tipo de cosa podría estar mirando una persona por la forma en que se iluminó el cerebro (una cara humana, por ejemplo, o un gato). Pero Gallant y sus colegas fueron más allá. Descubrieron cómo usar la máquina cuando aprendieron a descifrar no sólo la clase de cosa, sino qué imagen exacta estaba viendo la persona (qué foto de un gato, de tres opciones, por ejemplo).

Un día, Gallant y sus colegas postdoctorados comenzaron a hablar. De la misma manera en que puedes convertir un altavoz en un micrófono conectándolo al revés, ellos se preguntaron si podían hacer ingeniería inversa del algoritmo que habían desarrollado para poder visualizar, únicamente a partir de la actividad cerebral, lo que una persona estaba viendo.

La primera fase del proyecto fue entrenar la IA. Durante horas, Gallant y sus colegas mostraron a los voluntarios en las máquinas de resonancia magnética funcional (fMRI, pos su sigla en inglés) algunos clips de películas. Comparando los patrones de activación cerebral impulsados por las imágenes en movimiento, la IA construyó un modelo de cómo funcionaba la corteza visual de los voluntarios, que analiza la información de los ojos. Luego vino la fase siguiente: la traducción. Mientras mostraban a los voluntarios los clips de películas, preguntaron al modelo qué pensaba que podrían estar mirando, dado todo lo que sabía sobre sus cerebros.

El experimento se centró únicamente en una subsección de la corteza visual. No captó lo que estaba sucediendo en otras partes del cerebro (cómo se podría sentir una persona respecto de lo que estaba viendo, por ejemplo, o lo que podría estar fantaseando mientras miraba). El esfuerzo fue, en palabras de Gallant, una primitiva prueba de concepto.

Y, aun así, los resultados, publicados en 2011, son notables.

Las imágenes reconstruidas se mueven con una fluidez de ensueño. En su imperfección, evocan el arte expresionista. (Y unas pocas imágenes reconstruidas parecen totalmente equivocadas). Pero cuando tienen éxito, representan un logro asombroso: una máquina que traduce los patrones de la actividad cerebral a una imagen en movimiento comprensible para otras personas; una máquina que puede leer el cerebro.

Gallant estaba encantado. ¿Imagina las posibilidades cuando una mejor tecnología de lectura cerebral se encuentre disponible? ¿Imagina a las personas que sufren el síndrome de encierro, la enfermedad de Lou Gehrig, las personas incapacitadas por derrames cerebrales, que podrían beneficiarse con una máquina que podría ayudarles a interactuar con el mundo?

También estaba asustado porque el experimento demostró, de manera concreta, que la humanidad estaba en el comienzo de una nueva era; una era en la que nuestros pensamientos podrían teóricamente ser arrebatados de nuestras cabezas. ¿Qué iba a suceder, se preguntó Gallant, cuando se pudieran leer los pensamientos de los que el pensador ni siquiera es consciente, cuando se pudieran ver los recuerdos de las personas?

“Ese es un pensamiento realmente aleccionador que ahora tienes que tomar en serio”, me dijo recientemente.

LA GORRA DE GOOGLE

Durante décadas, nos hemos comunicado con las computadoras principalmente usando los dedos y los ojos, utilizando teclados y pantallas. Estas herramientas y los dígitos que introducimos proporcionan un límite natural a la velocidad de comunicación entre el cerebro humano y la máquina. Podemos transmitir información tan rápidamente (y precisamente) como podemos escribir o hacer clic.

El reconocimiento de voz, como el utilizado por Siri, de Apple, o Alexa, de Amazon, es un paso hacia una integración más perfecta entre el humano y la máquina. El siguiente paso, el que los científicos de todo el mundo están persiguiendo, es la tecnología que permite a las personas controlar las computadoras (y todo lo que está conectado a ellas, por ejemplo automóviles, brazos robot y drones) simplemente pensando.

En broma, el Gallant llama “gorra de Google” a la pieza de hardware imaginaria que haría esto: una gorra que podría sentir comandos silenciosos y hacer que las computadoras respondan en consecuencia.

El problema es que, para funcionar, esa gorra necesitaría ser capaz de ver, con algún detalle, lo que está sucediendo en los casi 100 mil millones de neuronas que componen el cerebro.

La tecnología que puede espiar fácilmente a través del cráneo, como la máquina de resonancia magnética, es demasiado difícil de colocar en la cabeza. La tecnología menos voluminosa, como el electroencefalograma, o EEG, que mide la actividad eléctrica del cerebro a través de electrodos adheridos al cuero cabelludo, no brinda la misma claridad. Un científico lo compara con la búsqueda de las ondas de la superficie que ocasiona un pez al nadar bajo el agua mientras una tormenta asola el lago.