En la semana previa a la guerra del presidente Donald Trump en Irán, el Pentágono estaba librando una batalla diferente: una pelea con la empresa de inteligencia artificial Anthropic por su modelo insignia de inteligencia artificial, Claude.
Ese conflicto llegó a un punto crítico el viernes, cuando Trump dijo que el gobierno federal dejaría de usar inmediatamente las herramientas de inteligencia artificial de Anthropic. Sin embargo, según un informe del Wall Street Journal, el Pentágono hizo uso de esas herramientas cuando lanzó ataques contra Irán el sábado por la mañana.
¿Se sorprendieron los expertos al ver a Claude en primera línea?
“En absoluto”, dijo Paul Scharre, vicepresidente ejecutivo del Centro para una Nueva Seguridad Estadounidense y autor de Cuatro campos de batalla: el poder en la era de la inteligencia artificialdijo a Diario Angelopolitano.
Según Scharre: «Hemos visto, desde hace casi una década, que los militares utilizan sistemas estrechos de IA, como clasificadores de imágenes, para identificar objetos en drones y transmisiones de vídeo. Lo que es más nuevo son modelos en lenguaje grande como ChatGPT y Claude de Anthropic que, según se ha informado, los militares están utilizando en operaciones en Irán».
Scharre habló con Hoy, explicado El coanfitrión Sean Rameswaram habla sobre cómo la IA y el ejército están cada vez más entrelazados y lo que esa combinación podría significar para el futuro de la guerra.
A continuación se muestra un extracto de su conversación, editado para mayor extensión y claridad. Hay mucho más en el episodio completo, así que escuche Hoy, explicado dondequiera que obtenga podcasts, incluidos Apple Podcasts, Pandora y Spotify.
La gente quiere saber cómo Claude o ChatGPT podrían estar librando esta guerra. ¿Lo sabemos?
No lo sabemos todavía. Podemos hacer algunas conjeturas basadas en lo que podría hacer la tecnología. La tecnología de inteligencia artificial es realmente excelente para procesar grandes cantidades de información y el ejército estadounidense ha atacado más de mil objetivos en Irán.
Luego, deben encontrar formas de procesar información sobre esos objetivos (imágenes satelitales, por ejemplo, de los objetivos que han alcanzado), buscar nuevos objetivos potenciales, priorizarlos, procesar información y usar IA para hacerlo a la velocidad de una máquina en lugar de la velocidad humana.
¿Sabemos algo más sobre cómo los militares pudieron haber utilizado la IA en, digamos, Venezuela, en el ataque que llevó a Nicolás Maduro a Brooklyn, precisamente, de todos los lugares? Porque recientemente descubrimos que allí también se utilizaba IA.
Lo que sí sabemos es que las herramientas de inteligencia artificial de Anthropic se han integrado en las redes clasificadas del ejército estadounidense. Pueden procesar información clasificada para procesar inteligencia y ayudar a planificar operaciones.
Hemos tenido este tipo de detalles tentadores de que estas herramientas se utilizaron en la redada de Maduro. No sabemos exactamente cómo.
También hemos visto la tecnología de IA en un sentido amplio utilizada en otros conflictos: en Ucrania, en las operaciones de Israel en Gaza, para hacer un par de cosas diferentes. Una de las formas en que se está utilizando la IA en Ucrania en un contexto diferente es otorgar autonomía a los propios drones.
Cuando estuve en Ucrania, una de las cosas que vi demostrar a los operadores e ingenieros de drones ucranianos es una pequeña caja, como del tamaño de un paquete de cigarrillos, que se podía colocar en un drone pequeño. Una vez que el humano fija un objetivo, el dron puede llevar a cabo el ataque por sí solo. Y eso se ha utilizado en pequeña medida.
Estamos viendo que la IA comienza a infiltrarse en todos estos aspectos de las operaciones militares en inteligencia, planificación, logística, pero también en el límite en términos de su uso donde los drones completan ataques.
¿Qué tal con Israel y Gaza?
Ha habido algunos informes sobre cómo las Fuerzas de Defensa de Israel han utilizado la IA en Gaza; no necesariamente modelos en lenguaje extenso, sino sistemas de aprendizaje automático que pueden sintetizar y fusionar grandes cantidades de información, datos de geolocalización, datos y conexiones de teléfonos celulares, datos de redes sociales para procesar toda esa información muy rápidamente para desarrollar paquetes de objetivos, particularmente en las primeras fases de las operaciones de Israel.
Pero plantea cuestiones espinosas sobre la participación humana en estas decisiones. Y una de las críticas que surgieron fue que los humanos todavía estaban aprobando estos objetivos, pero que el volumen de ataques y la cantidad de información que necesitaba ser procesada era tal que tal vez la supervisión humana en algunos casos era más bien un sello de goma.
La pregunta es: ¿a dónde va esto? ¿Nos dirigimos a una trayectoria en la que, con el tiempo, los humanos quedan fuera del circuito y vemos, más adelante, armas totalmente autónomas que toman sus propias decisiones sobre a quién matar en el campo de batalla?
Ésa es la dirección en la que van las cosas. Nadie está desatando el enjambre de robots asesinos hoy, pero la trayectoria va en esa dirección.
Vimos informes de que una escuela fue bombardeada en Irán, donde (175 personas) fueron asesinados, muchos de ellos niñas y niños. Presumiblemente fue un error cometido por un humano.
¿Creemos que las armas autónomas serán capaces de cometer el mismo error o serán mejores en la guerra que nosotros?
Esta cuestión de si las armas autónomas serán mejores que los humanos es una de las cuestiones centrales del debate en torno a esta tecnología. Los defensores de las armas autónomas dirán que la gente comete errores todo el tiempo y que las máquinas podrían hacerlo mejor.
Parte de eso depende de cuánto se esfuerzan los militares que utilizan esta tecnología por evitar errores. Si a los militares no les importan las bajas civiles, entonces la IA puede permitirles simplemente atacar objetivos más rápido y, en algunos casos, incluso cometer atrocidades más rápido, si eso es lo que los militares están tratando de hacer.
Creo que aquí existe un potencial realmente importante para utilizar la tecnología para ser más preciso. Y si nos fijamos en el largo arco de las armas guiadas con precisión, digamos durante el último siglo, apuntamos hacia una precisión mucho mayor.
Si nos fijamos en el ejemplo de los ataques estadounidenses en Irán en este momento, vale la pena contrastarlos con las campañas generalizadas de bombardeos aéreos contra ciudades que vimos en la Segunda Guerra Mundial, por ejemplo, donde ciudades enteras fueron devastadas en Europa y Asia porque las bombas no eran nada precisas, y las fuerzas aéreas lanzaron cantidades masivas de artillería para tratar de atacar incluso una sola fábrica.
La posibilidad aquí es que la IA pueda mejorar con el tiempo para permitir a los militares alcanzar objetivos militares y evitar víctimas civiles. Ahora bien, si los datos son incorrectos y tienen el objetivo equivocado en la lista, van a dar en el blanco equivocado con mucha precisión. Y la IA no necesariamente va a solucionar eso.
Por otro lado, vi un reportaje en Nuevo científico eso fue bastante alarmante. El titular era: “Las IA no pueden dejar de recomendar ataques nucleares en simulaciones de juegos de guerra.”
Escribieron sobre un estudio en el que modelos de OpenAI, Anthropic y Google optaron por usar armas nucleares en juegos de guerra simulados en el 95 por ciento de los casos, lo que creo que es un poco más de lo que los humanos solemos recurrir a las armas nucleares. ¿Eso debería asustarnos?
Es un poco preocupante. Afortunadamente, hasta donde yo sé, nadie está conectando modelos en lenguaje extenso con decisiones sobre el uso de armas nucleares. Pero creo que apunta a algunos de los extraños modos de falla de los sistemas de IA.
Tienden a la adulación. Suelen simplemente estar de acuerdo con todo lo que dices. A veces pueden hacerlo hasta el punto del absurdo, donde, ya sabes, «eso es brillante», el modelo te dirá, «eso es algo genial». Y dices: «No lo creo». Y ese es un verdadero problema cuando se habla de análisis de inteligencia.
¿Creemos que ChatGPT le está diciendo eso a Pete Hegseth ahora mismo?
Espero que no, pero es posible que su gente se lo esté diciendo.
Se comienza con este fenómeno supremo de «hombres que sí» con estas herramientas, donde no es solo que son propensos a alucinaciones, que es una forma elegante de decir que a veces inventan cosas, sino que también los modelos realmente podrían usarse de maneras que refuercen los sesgos humanos existentes, que refuercen los sesgos en los datos, o que la gente simplemente confíe en ellos.
Existe esta apariencia de «la IA dijo esto, por lo que debe ser lo correcto». Y la gente tiene fe en ello, y nosotros realmente no deberíamos hacerlo. Deberíamos ser más escépticos.