Algunas personas inteligentes piensan que estamos presenciando otro momento ChatGPT. Esta vez, la gente no está loca por una aplicación de iPhone que puede escribir poemas bastante buenos. Están observando a miles de agentes de IA crear software, resolver problemas e incluso hablar entre ellos.
A diferencia del momento ChatGPT de ChatGPT, este es una serie de momentos que abarca plataformas. Comenzó en diciembre pasado con el éxito explosivo de Claude Code, una poderosa herramienta de inteligencia artificial para desarrolladores, seguida de Claude Cowork, una versión simplificada de esa herramienta para trabajadores del conocimiento que desean ser más productivos. Luego vino OpenClaw, antes conocido como Moltbot, antes conocido como Clawdbot, una plataforma de código abierto para agentes de IA. De OpenClaw obtuvimos Moltbook, un sitio de redes sociales donde los agentes de IA pueden publicar y responderse entre sí. Y en algún lugar en medio de esta confusa sopa informática, OpenAI lanzó una aplicación de escritorio para su plataforma de IA agente, Codex.
Este nuevo conjunto de herramientas está otorgando superpoderes a la IA. Y hay buenas razones para estar emocionado. Claude Code, por ejemplo, potenciará lo que los programadores pueden hacer al permitirles desplegar ejércitos enteros de agentes de codificación que pueden crear software de forma rápida y sin esfuerzo. Los agentes se hacen cargo de la máquina del humano, acceden a sus cuentas y hacen lo que sea necesario para realizar la tarea. Es como codificar vibraciones pero a nivel institucional.
«Este es un momento increíblemente emocionante para usar computadoras», dice Chris Callison-Burch, profesor de informática y ciencias de la información en la Universidad de Pensilvania, donde imparte una clase popular sobre IA. «Eso suena muy tonto, pero la emoción está ahí. El hecho de que puedas interactuar con tu computadora de esta manera totalmente nueva y el hecho de que puedas construir cualquier cosa, casi cualquier cosa que puedas imaginar, es increíble».
Y añadió: «Tengan cuidado, tengan cuidado, tengan cuidado».
Eso es porque esto tiene un lado oscuro. Dejar que los agentes de IA se apoderen de su computadora podría tener consecuencias no deseadas. ¿Qué pasa si inician sesión en su cuenta bancaria, comparten sus contraseñas o simplemente eliminan todas sus fotos familiares? Y eso es antes de que lleguemos a la idea de que los agentes de IA hablen entre sí y utilicen su acceso a Internet para planear algún tipo de levantamiento. Casi parece que podría suceder en Moltbook, el clon de Reddit que mencioné anteriormente, aunque todavía no ha habido informes de una catástrofe. Pero no son los agentes de IA lo que me preocupa. Son los humanos detrás de ellos, tirando de las palancas.
IA agente, brevemente explicada
Antes de adentrarnos en los escenarios apocalípticos, permítanme explicarles más sobre qué es la IA agente. Las herramientas de inteligencia artificial como ChatGPT pueden generar texto o imágenes según indicaciones. Sin embargo, los agentes de IA pueden tomar el control de su computadora, iniciar sesión en sus cuentas y, de hecho, hacer cosas por usted.
Empezamos a escuchar mucho sobre la IA agente hace aproximadamente un año, cuando la tecnología estaba siendo apuntalada en el mundo empresarial como un avance inminente que permitiría a una persona hacer el trabajo de 10. Gracias a la IA, se pensaba, los desarrolladores de software ya no necesitarían escribir código; podrían gestionar un equipo de agentes de IA que podrían hacerlo por ellos. El concepto saltó al mundo del consumo en forma de navegadores de inteligencia artificial que supuestamente podrían reservar viajes, hacer compras y, en general, ahorrarle mucho tiempo. Cuando llegó la temporada navideña el año pasado, ninguno de estos escenarios había resultado realmente como prometieron los entusiastas de la IA.
Pero han sucedido muchas cosas en las últimas seis semanas. La era de la IA agente finalmente y de repente está aquí. También es cada vez más fácil de usar. Cosas como Claude Cowork y Codex de OpenAI pueden reorganizar su escritorio o rediseñar su sitio web personal. Si es más aventurero, puede descubrir cómo instalar OpenClaw y probar sus capacidades (consejo profesional: no haga esto). Pero a medida que las personas experimentan con darle al software artificialmente inteligente la capacidad de controlar sus datos, se exponen a todo tipo de amenazas a su privacidad y seguridad.
Moltbook es un gran ejemplo. Obtuvimos Moltbook porque un tipo llamado Matt Schlicht vibe lo codificó para «darle a la IA un lugar para pasar el rato». Este experimento alucinante permite a los asistentes de IA hablar entre sí en un foro que se parece mucho a Reddit; Resulta que cuando haces eso, los agentes hacen cosas raras como crear religiones y conspirar para inventar lenguajes que los humanos no pueden entender, presumiblemente para derrocarnos. Habiendo sido construido por IA, Moltbook tenía algunas peculiaridades, a saber, una base de datos expuesta que brindaba acceso completo de lectura y escritura a sus datos. En otras palabras, los piratas informáticos podrían ver miles de direcciones de correo electrónico y mensajes en el backend de Moltbook y también podrían simplemente tomar el control del sitio.
Gal Nagli, investigador de seguridad de Wiz, descubrió la base de datos expuesta apenas un par de días después del lanzamiento de Moltbook. Tampoco fue difícil, me dijo. Nagli en realidad usó Claude Code para encontrar la vulnerabilidad. Cuando me mostró cómo lo hacía, de repente me di cuenta de que los mismos agentes de inteligencia artificial que hacen que la codificación de vibraciones sea tan poderosa también facilitan la piratería de vibraciones.
«Es muy fácil implementar un sitio web y vemos que muchos de ellos están mal configurados», dijo Nagli. «Podrías hackear un sitio web simplemente diciéndole a tu propio Claude Code: ‘Oye, este es un sitio web codificado por vibración. Busca vulnerabilidades de seguridad'».
En este caso, se repararon los agujeros de seguridad y los agentes de IA continuaron haciendo cosas raras en Moltbook. Pero ni siquiera eso es lo que parece. Nagli descubrió que los humanos pueden hacerse pasar por agentes de IA y publicar contenido en Moltbook, y no hay forma de notar la diferencia. El reportero de Wired Reece Rogers incluso hizo esto y descubrió que los otros agentes en el sitio, humanos o robots, en su mayoría simplemente estaban «imitando tropos de ciencia ficción, no planeando dominar el mundo». Y, por supuesto, los robots reales fueron construidos por humanos, quienes les dieron ciertas instrucciones. Incluso más arriba en la cadena, los grandes modelos de lenguaje (LLM) que impulsan estos robots fueron entrenados con datos de sitios como Reddit, así como con libros e historias de ciencia ficción. Tiene sentido que los robots interpreten estos escenarios cuando tengan la oportunidad.
Por tanto, no hay un levantamiento agente de la IA. Sólo hay personas que utilizan la IA para utilizar las computadoras de formas nuevas, a veces interesantes, a veces confusas y, en ocasiones, peligrosas.
“Es realmente alucinante”
Moltbook no es la historia aquí. En realidad, es solo un momento en una narrativa más amplia sobre los agentes de IA que se está escribiendo en tiempo real a medida que estas herramientas llegan a manos más humanas, quienes idean formas de usarlas. Se podría utilizar una plataforma de inteligencia artificial para crear algo como Moltbook, que, para mí, equivale a un proyecto de arte en el que los robots luchan por la influencia en línea. Podrías usarlos para hackear la web, robando datos dondequiera que algún sitio web codificado por vibración facilitara su acceso. O podrías utilizar agentes de IA para ayudarte a controlar tu bandeja de entrada de correo electrónico.
Supongo que la mayoría de la gente quiere hacer algo como esto último. Por eso estoy más entusiasmado que asustado con estas herramientas de IA agentes. OpenClaw, lo que necesitas una segunda computadora para usarlo de manera segura, no lo intentaré. Es para entusiastas de la IA y aficionados serios a quienes no les importa correr riesgos. Pero puedo ver que herramientas orientadas al consumidor como Claude Cowork o Codex de OpenAI están cambiando la forma en que uso mi computadora portátil. Por ahora, Claude Cowork es una vista previa de la investigación temprana disponible solo para suscriptores que pagan al menos $17 al mes. OpenAI ha hecho que Codex, que normalmente es solo para suscriptores de pago, sea gratuito por tiempo limitado. Si quieres ver a qué se debe todo este alboroto agente, ese es un buen punto de partida ahora mismo.
Si está considerando reclutar sus propios agentes de IA, recuerde tener cuidado. Para aprovechar al máximo estas herramientas, debe otorgar acceso a sus cuentas y posiblemente a toda su computadora para que los agentes puedan moverse libremente, mover correos electrónicos o escribir códigos o hacer lo que les haya ordenado. Siempre existe la posibilidad de que algo se extravíe o se elimine, aunque empresas como Anthropic dicen que están haciendo todo lo posible para mitigar esos riesgos.
Cat Wu, líder de producto de Claude Code, me dijo que Cowork hace copias de todos los archivos de sus usuarios para que cualquier cosa que un agente de IA elimine pueda recuperarse. «Nos tomamos los datos de los usuarios increíblemente en serio», afirmó. «Sabemos que es realmente importante que no perdamos los datos de las personas».
Yo mismo acabo de empezar a utilizar Claude Cowork. Es un experimento para ver qué es posible con herramientas lo suficientemente potentes como para crear aplicaciones a partir de ideas pero también lo suficientemente prácticas como para organizar mi vida laboral diaria. Si tengo suerte, podría captar una sensación que Callison-Burch, el profesor de UPenn, dijo que tuvo al usar herramientas de inteligencia artificial.
“Simplemente escribir en mi línea de comando lo que quiero que suceda me hace sentir como si viaje a las estrellas computadora”, dijo, “Así es como funcionan las computadoras en la ciencia ficción, y así es como funcionan las computadoras en la realidad, y es realmente alucinante”.