Tuve la suerte de pasar varios días la semana pasada en la cumbre Crosscurrent del Instituto Aspen sobre IA y seguridad nacional en San Francisco. Mi primera conclusión: recomiendo mucho estar en el soleado (al menos por el momento) San Francisco en lugar de en la húmeda y fangosa Nueva York a principios de marzo. El segundo tardó un poco más en formarse.
La conferencia estuvo llena de ex funcionarios de seguridad nacional, ejecutivos de ciberseguridad y líderes de IA, y la conversación se desarrolló principalmente hacia donde se esperaba: la lucha entre el Antrópico y el Pentágono, el papel de la IA en el conflicto de Irán, la llegada de las armas autónomas. Pero el panel que me llamó la atención trataba sobre algo menos dramático. Se trataba de algo casi anticuado, ahora potenciado por la IA: las estafas.
En un momento, Todd Hemmen, subdirector adjunto de la rama de Capacidades Cibernéticas de la División Cibernética del FBI, describió cómo los agentes norcoreanos están utilizando superposiciones faciales generadas por IA para pasar entrevistas de trabajo remotas en empresas de tecnología occidentales, y luego trabajan en múltiples puestos remotos simultáneamente, canalizando los salarios y cualquier inteligencia de regreso al régimen de Pyongyang. Fabrican currículums con IA, preparan entrevistas con IA y la utilizan para ponerse el “rostro de alguien que no es la persona detrás de la cámara”, dijo Hemmen a la audiencia. Algunos de los actores más competentes ocupan varios trabajos de tiempo completo a la vez, todos con identidades falsas, todos habilitados por herramientas que no existían hace dos años.
Ese detalle ha estado dando vueltas en mi cabeza desde entonces, sobre todo porque me hizo preguntarme cómo estos trabajadores trabajadores pueden realizar múltiples trabajos cuando encuentro que solo uno es lo suficientemente agotador. Pero la historia de Hemmen captura algo más profundo sobre el momento en el que nos encontramos. Los riesgos de que la IA obtenga la mayor cantidad de tiempo en el aire en este momento son especulativos y cinematográficos: robots asesinos, panópticos de IA. Pero la amenaza de la IA que está aquí ahora mismo es un agente extranjero con rostro sintético en una llamada de Zoom, cobrando un cheque de pago de su empresa. Y casi nadie lo trata con la misma urgencia.
Cómo el cibercrimen empeoró más que nunca
El cibercrimen ha sido un problema desde los días del acceso telefónico, pero la escala de lo que está sucediendo ahora es asombrosa. El FBI informó que Estados Unidos sufrió pérdidas conocidas por delitos cibernéticos por valor de 16.600 millones de dólares en 2024, un aumento del 33 por ciento en un solo año y más del doble en tres años. Los estadounidenses mayores de 60 años perdieron casi 5 mil millones de dólares. Y esos son sólo los números reportados; Alice Marwick, directora de investigación de Data & Society, dijo a la audiencia del Instituto Aspen que sólo una de cada cinco víctimas denuncia una estafa. La cifra real es desconocida, pero es mucho peor.
Y ahora llega la IA generativa para hacer que todo esto sea más rápido, más barato y más convincente. Los correos electrónicos de phishing ya no llegan plagados de errores tipográficos de supuestos príncipes nigerianos; Los LLM pueden producir un lenguaje fluido y específico de una región. Los generadores de imágenes de IA pueden crear identidades sintéticas completas: docenas de fotografías de una persona que no existe, con fotografías de vacaciones y bolsos de diseñador.
La clonación de voces ha permitido atracos que hace cinco años eran ciencia ficción: a principios de 2024, un trabajador financiero de la oficina de Hong Kong de la empresa de ingeniería británica Arup transfirió 25 millones de dólares después de una videollamada ultrafalsa en la que el director financiero de la empresa y varios colegas parecían aparecer en la pantalla. Resulta que todos ellos eran falsos. El Informe de amenazas globales 2026 de CrowdStrike encontró que los ataques habilitados por IA aumentaron un 89 por ciento año tras año, mientras que el tiempo promedio desde la infracción inicial hasta la capacidad de propagarse por una red se redujo a solo 29 minutos. La fuga más rápida observada: 27 segundos.
¿La ciberofensiva de la IA vencerá a la ciberdefensa de la IA?
¿Por qué se descuida tanto este problema? En parte porque lo hemos normalizado. El ciberdelito lleva años creciendo, impulsado por la profesionalización de los sindicatos criminales, las criptomonedas, el trabajo remoto y la industrialización de los compuestos fraudulentos en el sudeste asiático. (Mi colega de Diario Angelopolitano, Josh Keating, escribió una gran historia hace un par de años sobre las llamadas estafas de matanza de cerdos).
Hemos absorbido las pérdidas récord de cada año como costo de hacer negocios en línea. Pero la curva se está acentuando: Deloitte proyecta que las pérdidas por fraude generado gracias a la IA sólo en Estados Unidos podrían alcanzar los 40 mil millones de dólares para 2027. “De la misma manera que las empresas legítimas están integrando la automatización, también lo está haciendo el crimen organizado”, afirmó Marwick.
El hecho de que gran parte de esto no se diga ni se informe aumenta el precio. La investigación de Marwick se centra en las estafas románticas: personas atacadas durante períodos de soledad o transición, a las que poco a poco les quita sus ahorros alguien que creen que las ama. Le dijo a la audiencia que las víctimas a menudo se niegan a creer que están siendo estafadas, incluso cuando se enfrentan a pruebas directas. La IA hace que la manipulación emocional sea mucho más persuasiva y ningún filtro de spam protegerá a alguien que envía dinero voluntariamente.
¿Podrá la defensa seguir el ritmo? Marwick hizo una comparación esperanzadora con el spam, que casi rompió el correo electrónico en la década de 1990 antes de que una combinación de soluciones técnicas, legislación y adaptación social lo domara, al menos en gran medida. Las instituciones financieras están implementando IA para detectar fraudes habilitados por IA. El FBI congeló cientos de millones en fondos robados el año pasado.
Pero el consenso en la conferencia fue en gran medida sombrío. «Estamos entrando en esta ventana de tiempo en la que la ofensiva es mucho más capaz que la defensa», dijo Rob Joyce, exdirector de ciberseguridad de la Agencia de Seguridad Nacional. Marwick fue más directo: «Yo diría que, en general, soy bastante pesimista».
Yo también. Mientras escribía esta historia, recibí un correo electrónico de un amigo con lo que parecía ser una invitación a Paperless Post. El lenguaje del correo electrónico parecía un poco extraño, pero cuando hice clic en la invitación, me llevó a una página que parecía muy similar a Paperless Post, hasta el logotipo. Aún sospechando, le envié un correo electrónico a mi amigo preguntándole si esto era real. “Sí, es legítimo”, respondió.
Eso fue prueba suficiente para mí, pero me distraí y no hice clic en el siguiente paso de la invitación. Lo bueno es que unos minutos más tarde, mi amigo me envió un correo electrónico a mí y a otras personas para decirnos que sí, que lo habían pirateado.