AI puede usar su computadora ahora. ¿Debería?

La primera vez que escuché sobre los agentes de IA, pensé que podían monitorear el uso de su computadora, anticipar sus necesidades y manipular su comportamiento en consecuencia. Esto no estaba completamente fuera de la base. Existe un futuro distópico sobre lo que la tecnología de IA podría permitir que los expertos emitan advertencias regulares. También está la realidad actual de la IA Agentic, que está aquí y más torpe de lo que habría adivinado.

El mes pasado, Openai lanzó algo llamado operador. Es lo que los expertos llamarían un agente de IA, que significa una versión de la tecnología de IA que no solo puede recordar información y generar contenido, como ChatGPT, sino que también puede en realidad. hacer cosas. En el caso del operador, la IA puede usar un navegador web para hacer cualquier cosa, desde comprar sus comestibles hasta actualizar su perfil de LinkedIn. Al menos en teoría. El operador también es actualmente una «vista previa de investigación» que solo está disponible para los usuarios de ChatGPT Pro, que pagan $ 200 al mes por el privilegio.

La realidad es que, en su forma actual, el operador no es excelente para hacer las cosas.

He pasado una semana usándolo y, si estoy siendo honesto, estoy feliz de informar que el operador es lento, comete errores y constantemente pide ayuda. Lejos de la aterradora übermensch digital que una vez temí, lo que parece ser el estado del arte para un agente de IA de grado consumidor es impresionante pero poco intimidante. Si le pide que le encuentre una bicicleta de carretera en su tamaño que esté a la venta y cerca, puede hacerlo. Déle la cantidad correcta de contexto y limitaciones, y el operador realmente funciona. Pero si me dediqué el tiempo, aún podría encontrar una mejor bicicleta.

«Soy muy optimista sobre el uso de AI como una especie de asistente tonto, ya que no quiero que tome decisiones por mí», Aditi Raghunathan, profesor asistente de informática en la Universidad Carnegie Mellon. «No confío en que haga las cosas mejor que yo».

El concepto básico de un agente de IA es simultáneamente atractivo y horrible. ¿Quién no querría que una IA maneje las tareas mundanas de la computadora? Pero si la IA puede usar una computadora para hacer cosas aburridas, debe imaginar que también puede hacer cosas aterradoras. Por ahora, para personas como tú y yo, las cosas de miedo incluyen comprar huevos caros o arruinar brevemente tu presencia en la red más grande del mundo para profesionales. Para la economía en su conjunto, bueno, depende de cuánto confiamos en la IA y cuánta libertad le damos a operar sin control.

Los líderes globales se reunieron para la Cumbre de Acción de AI de París esta semana para discutir el futuro de la tecnología. Las cumbres pasadas en Bletchley Park, famosa por su computadora que rompe el código utilizada en la Segunda Guerra Mundial, y Seúl se centró en la seguridad de la IA, incluidos los tipos de regulaciones que los gobiernos deberían adoptar para mantener a la IA bajo control. Pero esta reunión pareció resaltar un creciente sentido de competencia entre los poderes globales, a saber, Estados Unidos y China, para ganar la carrera armamentista de IA. JD Vance asistió y dijo: «El futuro de la IA no se va a ganar haciéndose mano sobre la seguridad».

Así que ahora me siento un poco nervioso. Si bien la entrada de OpenAI en el espacio de agentes de IA actualmente se siente como un truco de salón, tengo que preguntarme cuál es el final del juego de la industria aquí. La IA podría marcar un futuro amistoso de asistentes digitales que nos faciliten la vida sin consecuencias negativas. O finalmente podría darse cuenta del escenario de PaperClip, en el que le damos a Ai Free Rein para resolver un problema, como hacer clips, y desvía todos los recursos globales hacia ese problema, destruyendo la humanidad en el proceso.

El futuro seguramente será algo entre los mejores y peores escenarios. En cualquier caso, muchos expertos dicen que los agentes totalmente autónomos nunca deben ser inventados. Tengo que decir que si los agentes de IA del futuro son tan torpes como el operador en este momento, no estoy demasiado preocupado.

Agentes de IA para el resto de nosotros

Ya sea que le guste o no, la próxima ola de tecnología AI involucrará a las computadoras que usan computadoras. Ya está sucediendo. En la gran industria agrícola, por ejemplo, los agricultores ya están entregando las llaves de sus tractores John Deere a un software que puede funcionar durante la noche. Otros, como el Global Development sin fines de lucro Digital Green, están dando a los agricultores en los países en desarrollo acceso al operador para que pueda reducir los costos y mejorar los rendimientos de los cultivos.

«Un agricultor puede tomar una foto de una cosecha, y puede determinar que el cultivo no está bien debido a un error, o puede verificar el clima para ver si está relacionado con el clima», dijo Kevin Barenblat, cofundador y presidente de Fast Forward, un acelerador de tecnología sin fines de lucro que admite Digital Green. «Darle al agente más flexibilidad para descubrir cuál es el problema realmente útil para las personas cuando intentan resolver problemas».

Otro ejemplo deslumbrante de agentes de IA en acción también es bastante aburrido, que le dice algo sobre cómo esta tecnología puede ser más útil. Rekki, una startup en Londres, le dijo recientemente a Bloomberg que vende acceso a agentes de IA que están capacitados para ayudar a los restaurantes y sus proveedores a racionalizar la gestión de inventario. Un restaurante, por ejemplo, podría darle al chatbot una larga lista de ingredientes que usa y asegurarse de que todo esté ordenado a tiempo. Funciona lo suficientemente bien como para que algunas compañías estén reduciendo el personal y pagando el software.

Ingrese a los consumidores curiosos de IA, como yo, con problemas que resolver. Si paga los $ 200 al mes por acceso, puede obtener acceso a una versión fácil de usar del operador que se parece y actúa mucho como ChatGPT. Si bien actualmente funciona como una aplicación separada en el sitio web de ChatGPT, OpenAI finalmente planea integrar al operador en ChatGPT para una experiencia perfecta. Interactuar con el operador ya se parece mucho a ChatGPT: usted hace que el operador realice tareas escribiendo indicaciones en una caja vacía de aspecto familiar. Entonces las cosas se ponen interesantes. El operador abre una pequeña ventana del navegador y comienza a hacer la tarea. Puedes verlo intentarlo y fallar en tiempo real.

Un par de cosas que el operador hizo con éxito por mí: me compró una nueva aspiradora e inició un intercambio por un colchón que compré en línea. En ambos casos, sin embargo, esencialmente hice el trabajo pesado. El operador actualmente no puede iniciar sesión en sitios web en su nombre, resolver Captchas o ingresar información de la tarjeta de crédito. Entonces, cuando estaba comprando el vacío, el operador llegó a encontrar la lista de productos, pero prácticamente hice todo después de eso. En el ejemplo de servicio al cliente, el operador encontró el formulario correcto, pero lo llené y luego toda la transacción se movió al correo electrónico, donde el operador no tenía jurisdicción.

Estas tareas aparentemente inocuas son exactamente el tipo de cosas que Operai quiere que haga operador en este momento. En realidad, sirve sugerencias bajo ese cuadro rápido para cosas como hacer reservas de restaurantes, reservar boletos de avión y ordenar un Uber. Si considera que en realidad no está entregando su tarjeta de crédito a la IA, obtener el operador para hacer sus compras suena como una buena idea. Comparará los precios para usted y esa parte requiere poca supervisión. En un caso, el operador incluso marcó un sitio web potencialmente fraudulento que vendía una aspiradora Dyson por $ 50. Pero también puedes imaginar un futuro en el que los estafadores conocen las debilidades de la IA y explotarlas.

En su forma actual, el operador asciende a una forma dolorosamente lenta de usar Google, o más bien Bing, gracias a la asociación de OpenAI con Microsoft. Puede hacer tareas por usted mientras está haciendo algo más, pero al igual que ChatGPT antes, siempre debe verificar el trabajo del operador. Le pedí que me encontrara los vuelos más baratos para una visita de fin de semana a la casa de mi madre en Tennessee, y devolvió un itinerario de dos semanas que costó el doble de lo que esperaría pagar. Cuando expliqué el error, el operador lo hizo nuevamente pero peor.

Ahora sobre ese problema de clips

El operador es, en muchos sentidos, un espejismo. Parece una prueba de concepto de que la IA no solo puede generar texto e imágenes, sino realizar tareas de forma autónoma, haciendo que su vida sea sin esfuerzo en el proceso. Pero cuanto más le pida al agente, más agencia requerirá.

Este es un gran enigma para el futuro del desarrollo de la IA. Cuando pone barandillas en las herramientas, no deja que el operador se vuelva loco con su tarjeta de crédito, por ejemplo, limita su utilidad. Si le da más poder para tomar decisiones y operar de forma independiente, puede ser más útil pero también más peligroso.

Lo que nos lleva de vuelta al problema de PaperClip. Popularizado por primera vez por el filósofo Nick Bostrom en 2003, el escenario de PaperClip imagina que le da a una IA superinteligente la tarea de fabricar clips de papel, y la libertad de hacerlo sin control. No termina bien para los humanos, lo cual es un marcado recordatorio de que el desarrollo responsable de la IA no se trata solo de evitar que una IA use su tarjeta de crédito sin permiso. Las apuestas son mucho más altas.

«Uno de los escenarios más de alto riesgo sería los agentes de IA desplegados para acelerar el desarrollo de armas biológicas», dijo Sarah Kreps, directora del Instituto de Política Tecnológica de la Universidad de Cornell. «Un actor comprometido y nefasto ya podría desarrollar biowapons, pero AI reduce las barreras y elimina la necesidad de experiencia técnica».

Este tipo de cosas es lo que los líderes globales estaban discutiendo en París esta semana. Sin embargo, el consenso de la cumbre de IA no fue alentador, si te importa el futuro de la raza humana. El vicepresidente Vance pidió «inversiones de I + D incomparables» a la IA y pidió «regímenes regulatorios internacionales que fomenten la creación de la tecnología de IA en lugar de estrangularla». Esto refleja los mismos principios anti-Guardrail que estaban en la orden ejecutiva que el presidente Trump firmó en enero que revocó el plan del presidente Joe Biden para el desarrollo de IA seguro y responsable.

Para la administración Trump, al menos, el objetivo para el desarrollo de la IA parece ser el crecimiento y el dominio a toda costa. Pero no está claro que las empresas que desarrollan esta tecnología, incluida OpenAI, se sientan de la misma manera. Muchas de las limitaciones que encontré en el operador, por ejemplo, fueron impuestas por sus creadores. La naturaleza lenta y de dudas del agente de IA lo hizo menos útil, pero también más accesible y seguro.

El operador es muy claramente un experimento. Es revelador que Operai lo lanzó para los suscriptores de ChatGPT Pro, que claramente están lo suficientemente entusiastas y alcistas sobre la IA que están dispuestos a gastar una suma de cuatro cifras anualmente para acceder a las últimas características. Según sus comentarios, OpenAi sin duda lanzará una versión ajustada y mejorada y luego iterará nuevamente.

En un par de años, cuando se resuelven los problemas, tal vez sepamos lo asustados que deberíamos estar sobre un futuro impulsado por los agentes de IA.