Elon Musk podría ser el Broligarch más audaz cuando se trata de interfaces de máquinas cerebrales. Pero Mark Zuckerberg está caliente en sus talones.
Poco después de que Musk cofundara Neuralink, la compañía que coloca chips en tres cerebros humanos y contando, en 2016, Meta (entonces Facebook) también se aventuró en la investigación de la neurotecnología, anunciando planes para construir tecnología que permitan a las personas escribir con sus cerebros y escuchar lenguaje a través de su piel.
Desde entonces, los investigadores meta financiados han descubierto cómo decodificar el discurso de la actividad registrada a partir de electrodos implantados quirúrgicamente dentro de los cerebros de las personas. Si bien la cirugía cerebral podría sentir que vale la pena para una persona paralizada que quiere recuperar la capacidad de comunicarse, dispositivos invasivos como estos son difíciles de vender para alguien que solo quiere escribir más rápido. Los dispositivos comerciales que las personas regulares realmente deseen necesitar ser portátiles y extraíbles, en lugar de permanentes.
Meta presentó sus esfuerzos para construir interfaces de consumo cerebrales de consumo hace unos años: las bandas para la lectura cerebral no estaban listas para el horario estelar. En lugar de desarrollar nuevos dispositivos directamente, la compañía ha estado invirtiendo en una investigación de neurociencia más lenta. Su esperanza es que estudiar el cerebro los ayude a construir una IA que sea mejor en las cosas en las que los humanos son buenos, como el lenguaje de procesamiento. Parte de esta investigación aún se centró en la lectura mental: específicamente, decodificando cómo el cerebro produce oraciones.
Este mes, sin embargo, Meta hizo un avance.
En colaboración con el Centro Vasco sobre Cognición, Cerebro y Lenguaje, los investigadores del laboratorio fundamental de Investigación de Inteligencia Artificial (Feria) de Meta pudieron decodificar con precisión las oraciones tácitas de las señales cerebrales registradas fuera del cráneo, no se requería cirugía.
Esto fue solo en un laboratorio, por supuesto. Pero estos hallazgos marcan un paso importante hacia los dispositivos de lectura mental portátiles que Zuckerberg prometió hace ocho años.
Y a medida que los dispositivos de cerebro a texto se acercan más hacia la viabilidad comercial en un futuro no tan lejano, tendremos que lidiar con lo que significa que Meta sea su guardián. En el laboratorio, la tecnología de lectura mental promete revelar información previamente incognoscible sobre cómo nuestros cerebros construyen pensamientos, toman decisiones y guían nuestras acciones. Pero en el mundo, las compañías tecnológicas pueden hacer mal uso de nuestros datos cerebrales a menos que establezcamos y apliquemos las regulaciones para detenerlos.
Meta puede decodificar oraciones tácitas de los campos magnéticos de su cerebro
Hasta hace un par de años, los investigadores no podían decodificar el lenguaje tácito sin implantar electrodos dentro del cerebro, lo que requiere cirugía. En 2023, los científicos de la Universidad de Texas usaron fMRI, junto con una versión de los modelos de IA que encienden chatgpt, para decodificar la esencia de oraciones tácitas de la actividad cerebral. Pero las máquinas FMRI cuestan millones de dólares y pueden superar un elefante completamente adulto, lo que limita su utilidad fuera del laboratorio.
Debido a que los neurocientíficos generalmente no están dispuestos a seleccionar dispositivos de registro dentro del cerebro de un humano, la mayoría de los estudios del cerebro humano implican medir algún proxy para la actividad neuronal en sí. Los escáneres de fMRI miden la cantidad de sangre que fluye a las células cerebrales mientras trabajan, lo que implica un poco de retraso. Otro método, llamado magnetoencefalografía (MEG), mide los campos magnéticos que las células cerebrales crean cuando envían señales eléctricas. Si bien ninguna de estas técnicas puede rastrear lo que están haciendo las células individuales, ambas proporcionan una instantánea aproximada de los patrones de actividad del cerebro mientras alguien está haciendo una tarea, como leer o escribir. Lo bueno es que, a diferencia de la fMRI, Meg puede registrar el cerebro en un tiempo casi realmente real.
Entonces, los meta investigadores reclutaron a 35 voluntarios para escribir oraciones en un teclado mientras estaban sentados en un escáner MEG, que parece una silla de secado de cabello de salón del espacio exterior. Algunos también tenían electrodos EEG (electroencefalografía) gelificados en la cara y el cuero cabelludo para registrar señales eléctricas que irradian desde las células cerebrales a través de sus cráneos.
La actividad cerebral de cada persona ayudó a entrenar a un modelo de IA para adivinar lo que escribieron. Esencialmente, parte del modelo aprendió a coincidir con los patrones de actividad cerebral con las letras que alguien estaba escribiendo en ese momento. Los investigadores alimentaron a otra parte del modelo, un montón de artículos de Wikipedia para enseñarle cómo funcionan las oraciones, y qué palabras a menudo aparecen uno al lado del otro en diferentes contextos. Con esta información, si alguien quería escribir «Te amo», pero sus señales cerebrales leen «I Lovr Yoi», posiblemente porque su cerebro en realidad los llevó a hacer un error tipográfico, el modelo podría autocorrectamente efectivamente esa predicción, porque sabe cómo sabe cómo sabe cómo sabe cómo sabe cómo sabe cómo sabe cómo sabe cómo sabe cómo sabe Las letras y las palabras deben funcionar en contexto.
Usando EEG, que es mucho más portátil que un escáner fMRI o MEG, los meta investigadores pudieron usar IA para decodificar las letras exactas que alguien estaba escribiendo aproximadamente un tercio del tiempo. Eso no suena particularmente impresionante, hasta que considera que EEG registra células cerebrales a través de electrodos fuera del cráneo, muchas capas de separación lejos del cerebro en sí. Es como tratar de escuchar una conversación en un bar lleno de gente parada afuera y sosteniendo un vaso contra la pared: dado todo el ruido, atrapar incluso un tercio de esa conversación ya es bastante desafiante.
MEG captura la actividad cerebral con mayor precisión que EEG, porque las señales magnéticas de las células cerebrales no se distorsionan tanto por el cráneo como las señales eléctricas. Al alimentar los datos de MEG a su modelo de IA, los meta investigadores decodificaron con precisión entre el 70 y el 80 por ciento de lo que la gente escribió, expulsando modelos anteriores del agua. Entonces, si Meta alguna vez quiere construir diademas de lectura mental, grabar campos magnéticos podría ser su mejor opción.
Al igual que FMRI, el dispositivo MEG utilizado en este estudio fue enorme y costoso. Pero los escáneres de Meg tipo casco portátiles, que solo pesan unas pocas libras, ya existen y son aún más sensibles que los escáneres no portátiles. Estos dispositivos MEG portátiles son solo un par de libras más pesados que el Quest 3, los últimos auriculares de realidad virtual de Meta, y casi tan tonto. Si bien estos dispositivos MEG todavía no funcionan fuera de las habitaciones especiales magnéticamente protegidas (ni todavía están disponibles para el público), no es difícil imaginar un futuro donde pudieran.
Las empresas tecnológicas no protegerán los datos del cerebro a menos que los hagamos
Meta no es el único gigante tecnológico que invierte fuertemente en la investigación de neurociencia. Google y Microsoft tienen equipos dedicados a estudiar el cerebro, y Nvidia e IBM colaboran con las instituciones de investigación de neurociencia.
Los campos de la IA y la neurociencia tienen una larga historia de polinización cruzada. El cerebro tiene muchas funciones que los desarrolladores de tecnología desean replicar en las computadoras, como la eficiencia energética y el aprendizaje sin conjuntos masivos de datos de capacitación. Las empresas tecnológicas crean herramientas que los neurocientíficos quieren usar. (La idea de usar escaneos cerebrales no invasivos para diagnosticar enfermedades mentales ha estado de moda en la neurociencia durante décadas. Después de todo, sería increíblemente conveniente para los médicos si el diagnóstico de depresión fuera tan fácil como ejecutar una exploración rápida de EEG).
Aquí, Meta usó los datos del cerebro que recopilaron mientras las personas escribieron para estudiar cómo el cerebro transforma las ideas abstractas en palabras, sílabas y letras, con el objetivo a largo plazo de descubrir cómo ayudar a los chatbots de IA a hacer lo mismo.
Los datos respaldan una hipótesis de larga data sostenida por neurocientíficos y lingüistas, proponiendo que produzcamos un discurso de arriba hacia abajo. Mientras me preparo para decir algo, mi cerebro fotos todo primero («Voy a almorzar pronto»), luego se acerca a una palabra («ir»), luego una sílaba («go-«). Mientras escribo, mi cerebro se centra en cada letra específica («G», «O», …), ya que le dice a mis dedos qué hacer. Meta vio que estas representaciones (contexto, palabras, sílabas, letras) se superponen durante la producción de idiomas, el pico y el desvanecimiento en la fuerza en diferentes momentos.
Comprender la producción del lenguaje también, en teoría, ayudará a meta a lograr su objetivo declarado de «comunicación de restauración (ing) para aquellos que han perdido la capacidad de hablar». Y de hecho, hay millones de personas que se recuperan de lesiones cerebrales traumáticas, accidente cerebrovascular u otro trastorno neurológico que hace que sea difícil hablar. Un dispositivo portátil que facilita la comunicación nuevamente podría ser una fuerza enormemente positiva en la vida de alguien.
Pero sabemos que esa no es su única motivación. Para Silicon Valley, el cerebro también representa la barrera final entre los humanos y sus dispositivos.
Una rápida verificación de la cordura: el objetivo de Meta nunca fue fusionar a los humanos con las computadoras (eso es lo de Musk), sino vender auriculares portátiles y extraíbles que alguien podría usar para escribir o jugar videojuegos con su mente. Para manifestar un dispositivo como este, Meta necesita cruzar dos enormes obstáculos tecnológicos y uno aún más grande ético.
Primero, necesitan decodificar pensamientos tácitos desde fuera del cráneo. Controlar.
En segundo lugar, deben hacer eso con un dispositivo que alguien podría pagar razonablemente, mantener en su casa y usar en la cabeza. Por ahora, esto está bastante lejos.
Lo más importante, una vez que existen estos dispositivos, necesitaremos protecciones sólidas para la libertad cognitiva de las personas, nuestro derecho fundamental de controlar nuestra propia conciencia. El tiempo para estas salvaguardas no es después de llegar a las tiendas. Es ahora.
“Facebook ya es excelente para mirar a su cerebro sin necesidad de electrodos o fMRI ni nada. Conocen gran parte de su perfil cognitivo solo por cómo usa Internet ”, dijo Roland Nadler, neuroética de la Universidad de Columbia Británica, a mi colega Sigal Samuel en 2019.
Meta ya usa IA para extrapolar su salud mental de su huella digital. Utilizan AI para marcar, y a veces eliminan, publicaciones sobre autolesiones y suicidio, y pueden desencadenar «controles de bienestar» no consensuados cuando detectan los mensajes en Messenger o WhatsApp.
Dada la cantidad de conveniencia que obtenemos al regalar datos personales (entregas de alimentos, trabajo remoto, conectarse con amigos en línea, muchas personas renuncian por completo a la privacidad digital. A pesar de que muchas personas se sienten incómodas con la cantidad de información personal que las compañías de información nos toman, también creen que no tienen control sobre su privacidad.
El año pasado, los neurocientíficos, abogados y legisladores comenzaron a aprobar legislación para incluir explícitamente datos neuronales en las leyes de privacidad estatales. Algunas compañías de Neurotech más pequeñas ya están recopilando datos cerebrales de productos de consumo: se deben implementar protecciones más fuertes antes de que compañías masivas como Meta puedan hacer lo mismo.
Zuckerberg ha pasado los últimos dos meses corriendo a Trump-ify Meta. Es poco probable que su empresa maneje nuestros datos más privados con cuidado, al menos no sin previo aviso.
Pero en un mundo donde las diademas de cerebro a texto de meta-marca son tan normales como los teclados ahora, compartir datos cerebrales puede parecer un requisito previo para participar en la vida normal. Imagine un lugar de trabajo donde, en lugar de darle un monitor y un teclado en la oficina, le brindan un casco de decodificación de texto y le dicen que se quede. Los dispositivos de texto se sentirán como evitar los teléfonos inteligentes: posible, claro. Pero ciertamente no es el camino de menor resistencia.
A medida que nuestra seguridad mental se vuelve menos garantizada, necesitaremos decidir si vale la pena controlar las cosas con nuestras mentes con las empresas tecnológicas colonizar nuestro último espacio verdaderamente privado.