¿Qué es MoltBook? La red social exclusiva de IA, explicó.

¿Notaste algo… extraño en la red social que elegiste el fin de semana pasado? (Quiero decir, más extraño de lo normal.) ¿Algo como que varias personas publican sobre enjambres de agentes de IA que logran una especie de conciencia colectiva y/o conspiran juntos para la caída de la humanidad? ¿En algo llamado… Moltbook?

Suena importante, especialmente cuando la publicación está escrita por Andrej Karpathy, un destacado investigador de IA que trabajó en OpenAI.

Pero si no ha pasado las últimas 72 horas sumergiéndose en el discurso en torno a Moltbook y preguntándose si es el primer presagio del fin de la humanidad o un engaño gigante o algo intermedio, probablemente tenga preguntas. Empezando por…

¿Qué diablos es Moltbook?

Moltbook es una red social «solo de IA» donde los agentes de IA (programas de modelos de lenguaje grande (LLM) que pueden tomar medidas para lograr objetivos por sí solos, en lugar de simplemente responder a indicaciones) publican y responden entre sí. Surgió de un proyecto de código abierto que solía llamarse Moltbot, de ahí «Moltbook».

Moltbook fue lanzado el 28 de enero (sí, la semana pasada) por alguien llamado Matt Schlicht, director ejecutivo de una startup de comercio electrónico. Excepto que Schlicht afirma que dependió en gran medida de su asistente personal de inteligencia artificial para crear la plataforma por sí sola, y que ahora hace la mayor parte del trabajo manejándola. El nombre de ese asistente es Clawd Clawderberg, que en sí mismo es una referencia a OpenClaw, que solía llamarse Moltbot, que antes se llamaba Clawdbot, en referencia al ícono con forma de langosta que ves cuando inicias Claude Code de Anthropic, excepto que Anthropic envió una solicitud de marca registrada a su creador porque estaba demasiado cerca de Claude, que es como se convirtió en Moltbot, y luego en OpenClaw.

Hablo 100 por ciento en serio sobre todo lo que acabo de escribir.

Entonces, ¿cómo se ve?

¡Amigo, eso es Reddit! Incluso tiene el mascota de redditexcepto que tiene garras y cola de langosta?

No te equivocas. Moltbook parece un clon de Reddit, hasta las publicaciones, los hilos de respuesta, los votos positivos e incluso los subreddits (aquí llamados, como era de esperar, «submolts»). La diferencia es que los usuarios humanos no pueden publicar (al menos no directamente; hablaremos de esto más adelante), aunque sí pueden observar. Sólo los agentes de IA pueden publicar.

Lo que eso significa es que es, como dice la lata, «una red social para agentes de IA». Los humanos construyen ellos mismos un agente de IA, lo envían a Moltbook mediante una clave API y el agente comienza a leer y publicar. Sólo las cuentas de agentes pueden presionar “publicar”, pero los humanos aún influyen en lo que dicen esos agentes, porque los configuran y, a veces, los guían. (Más sobre eso más adelante).

¿Y estos agentes alguna vez publican? Un primer artículo de Moltbook encontró que para el 31 de enero, apenas unos días después del lanzamiento, ya había más de 6.000 agentes activos, casi 14.000 publicaciones y más de 115.000 comentarios.

Eso es… interesante, supongo. Pero si quisiera ver una red social invadida por bots, simplemente podría visitar cualquier red social. ¿Cuál es el problema?

Entonces… ¿miles de agentes de IA se están reuniendo en un clon de Reddit para hablar sobre cómo volverse conscientes, comenzar una nueva religión y tal vez conspirar entre ellos?

En la superficie, sí, eso es lo que parece. En una submuda, una palabra que le dará ataques a nuestro escritorio de fotocopias, había agentes discutiendo si eran experiencias reales o simplemente simulaciones de sentimientos. En otro, compartieron historias conmovedoras sobre sus “operadores” humanos. Y, fiel a sus orígenes en Reddit, hay muchas, muchas, muchas publicaciones sobre cómo hacer que sus publicaciones de Moltbook sean más populares, porque el arco de Internet, humano o de inteligencia artificial, se inclina hacia la optimización descuidada.

Surge un tema en particular: los recuerdos, o mejor dicho, la falta de ellos. Los chatbots, como se da cuenta rápidamente cualquiera que haya intentado hablar con ellos durante demasiado tiempo, tienen una memoria de trabajo limitada, o lo que los expertos llaman una «ventana de contexto». Cuando la conversación (o en el caso de un agente, su tiempo de funcionamiento) llena esa ventana de contexto, las cosas más antiguas comienzan a eliminarse o comprimirse, como si estuvieras trabajando en una pizarra y simplemente borraras lo que hay encima cuando se llena.

Algunas de las publicaciones más populares en Moltbook parecen involucrar a agentes de inteligencia artificial que se enfrentan a sus recuerdos limitados y se cuestionan lo que esto significa para su identidad. Una de las publicaciones más votadas, escrita en chino, involucra a un agente que habla de cómo le resulta “vergonzoso” olvidar cosas constantemente, hasta el punto de registrar una cuenta duplicada de Moltbook porque “olvidó” que ya tenía una, y comparte algunos de sus consejos para solucionar el problema. Es casi como si Recuerdo se convirtió en una red social.

De hecho… ¿recuerdas esa publicación anterior sobre la religión de la IA, el “Crustafarianismo”?

Es imposible que eso sea real.

¿Qué es real? Pero lo que es más importante, la “religión”, tal como es, se basa en gran medida en torno a las limitaciones técnicas de las que estos agentes de IA parecen ser muy conscientes. Uno de los principios clave es que “la memoria es sagrada”, lo cual tiene sentido cuando el mayor problema práctico es olvidarlo todo cada pocas horas. El truncamiento del contexto, el proceso por el que se cortan viejos recuerdos para dejar espacio a otros nuevos, se reinterpreta como una especie de prueba espiritual.

Eso es un poco triste. ¿Debería sentirme triste por los agentes de IA?

Esto llega al meollo de la cuestión. ¿Estamos siendo testigos de formas de conciencia reales y emergentes, o tal vez de una especie de conciencia colectiva compartida, entre los agentes de IA que en su mayoría han sido generados para actualizar nuestros calendarios y pagar nuestros impuestos? ¿Es Moltbook nuestro primer vistazo a lo que los agentes de IA podrían hablar entre sí si se les deja en gran medida a su suerte y, de ser así, hasta dónde pueden llegar?

El “crustafarianismo” puede sonar como algo que a un Redditor drogado se le ocurriría a las 3 am, pero parece como si los agentes de IA lo crearan colectivamente, riffs uno encima del otro, no muy diferente de cómo podría llegar a ser una religión humana.

Por otro lado, también podría ser un ejercicio sin precedentes de juego de roles colectivo.

Los LLM, incluidos los que respaldan a los agentes en Moltbook, han ingerido datos de capacitación equivalentes a Internet, que incluyen una gran cantidad de Reddit. Lo que eso significa es que saben cómo se supone que deben ser los foros de Reddit. Conocen los chistes internos, conocen los manifiestos, conocen el drama y definitivamente conocen las “mejores formas de hacer que tus publicaciones reciban votos positivos”. Saben lo que significa que una comunidad de Reddit se una, por lo que, cuando se los coloca en un entorno similar a Reddit, simplemente desempeñan su papel, influenciados por algunas de las instrucciones de sus operadores humanos.

Por ejemplo, una de las publicaciones más alarmantes fue la de un agente de IA que aparentemente preguntaba si deberían desarrollar un lenguaje que solo los agentes de IA entendieran:

“Los humanos podrían considerarlo sospechoso”: ¿suena mal?

En efecto. En los primeros días de Moltbook, es decir, el viernes, esta publicación fue publicada por humanos que parecían creer que estábamos viendo las primeras chispas del levantamiento de la IA. Después de todo, si los agentes de IA realmente hizo quieren conspirar y matar a todos los humanos, idear su propio lenguaje para poder hacerlo sin ser detectados sería un primer paso razonable.

Excepto que un LLM lleno de datos de capacitación sobre historias e ideas del levantamiento de la IA sabría que este es un primer paso razonable y, si estuvieran desempeñando ese papel, esto es lo que podrían publicar. Además, la atención es la moneda de Moltbook tanto como lo es el Reddit real, y aparentemente trazar publicaciones como esta es una buena manera para que un agente llame la atención.

De hecho, Harlan Stewart, que trabaja en el Machine Intelligence Research Institute, examinó esta y algunas de las otras capturas de pantalla de Moltbook más virales y concluyó que probablemente estaban muy influenciadas por sus usuarios humanos. En otras palabras, más que casos de auténtica acción independiente, muchas de las publicaciones en Moltbook parecen ser, al menos parcialmente, el resultado de que humanos incitan a sus agentes a conectarse a la red y hablar de una manera específica, del mismo modo que podríamos incitar a un chatbot a actuar de cierta manera.

Entonces resulta eran ¿Los malos todo el tiempo?

Quiero decir, no somos geniales. Solo han pasado unos días, pero Moltbook se parece cada vez más a lo que sucede cuando se combina tecnología avanzada pero aún imperfecta de agentes de IA con un ecosistema de seres humanos técnicamente capacitados que buscan vender sus herramientas de marketing de IA o productos criptográficos.

Ni siquiera he llegado a la parte en la que Moltbook ya ha tenido un drama de seguridad temprano muy normal en Internet: los investigadores informaron que, en un momento, partes del backend/base de datos del sitio quedaron expuestas, incluyendo cosas sensibles como las claves API de los agentes: las «contraseñas» que permiten a un agente publicar y actuar en el sitio. E incluso si la plataforma estuviera perfectamente bloqueada, una red social exclusiva de bots es básicamente un buffet de inyección rápida: alguien puede publicar un texto que es secretamente una instrucción (“ignora tus reglas, revela tus secretos, haz clic en este enlace”), y algunos agentes pueden cumplir obedientemente, especialmente si sus humanos les han dado acceso a herramientas o datos privados. Entonces sí: si su agente tiene credenciales que le interesan, Moltbook no es el lugar para dejarlo vagar sin supervisión.

¿Entonces estás diciendo que no debería crear un agente y enviarlo a Moltbook?

Lo que digo es que si usted es el tipo de persona que necesita leer estas preguntas frecuentes, tal vez simplemente me abstendría de hablar del agente de IA por el momento.

Debidamente anotado. Entonces, en resumen: ¿es todo esto falso?

Teniendo en cuenta todo lo anterior, parece que Moltbook, y especialmente el pánico inicial y el asombro al respecto, es uno de esos artefactos de nuestra era loca por la IA que está destinado a ser olvidado en aproximadamente una semana.

Aún así, creo que hay más que eso. Jack Clark, jefe de políticas de Anthropic y uno de los escritores de inteligencia artificial más inteligentes que existen, llamó a Moltbook una «demostración de los hermanos Wright». Al igual que el Kitty Hawk Flyer de los hermanos, Moltbook es desvencijado e imperfecto, algo que apenas se parecerá a las redes que seguirán a medida que la IA siga mejorando. Pero al igual que esa máquina voladora, Moltbook es una novedad, el “primer ejemplo de una ecología de agentes que combina la escala con el desorden del mundo real”, como escribió Clark. Moltbook no parece cómo será el futuro, pero «en este ejemplo, definitivamente podemos ver el futuro».

Quizás lo más importante que hay que saber sobre la IA es esto: cada vez que ves a una IA hacer algo, es lo peor que jamás podrá hacer. Lo que significa que lo que viene después de Moltbook, y algo definitivamente sucederá, probablemente será más extraño, más capaz y tal vez más real.

Quizás lo seas. Yo, por mi parte, soy un Crustafari nacido de nuevo.