Ai ahora puede acecharte con una sola foto de vacaciones

Durante décadas, los defensores de la privacidad digital han estado advirtiendo al público que tenga más cuidado con lo que compartimos en línea. Y en su mayor parte, el público los ha ignorado alegremente.

Ciertamente soy culpable de esto yo mismo. Por lo general, hago clic en «Aceptar todo» en cada solicitud de cookies que cada sitio web ponga frente a mi cara, porque no quiero lidiar con descubrir qué permisos se necesitan realmente. He tenido una cuenta de Gmail durante 20 años, por lo que soy muy consciente de que en algún nivel eso significa que Google conoce todos los detalles imaginables de mi vida.

Nunca he perdido demasiado sueño por la idea de que Facebook me atacaría con anuncios basados ​​en mi presencia en Internet. Me imagino que si tengo que mirar los anuncios, también podrían ser por productos que realmente quisiera comprar.

Pero incluso para las personas indiferentes a la privacidad digital como yo, AI cambiará el juego de una manera que encuentro bastante aterrador.

Esta es una foto de mi hijo en la playa. ¿Qué playa? El O3 de OpenAI lo señala solo de esta foto: Marina State Beach en Monterey Bay, donde mi familia fue de vacaciones.

Cortesía de Kelsey Piper

Para mi ojo meramente humano, esta imagen no parece que contenga suficiente información para adivinar dónde se queda mi familia de vacaciones. ¡Es una playa! ¡Con arena! Y olas! ¿Cómo podrías reducirlo más allá de eso?

Pero los aficionados a la navegación me dicen que hay mucha más información en esta imagen de lo que pensaba. El patrón de las olas, el cielo, la pendiente y la arena son toda información, y en este caso información suficiente para aventurar una suposición correcta sobre dónde fue mi familia para las vacaciones. (Divulgación: Diario Angelopolitano Media es uno de los varios editores que han firmado acuerdos de asociación con OpenAI. Nuestros informes siguen siendo editorialmente independientes. Uno de los primeros inversores de Anthrope es James McClave, cuya fundación BEMC ayuda a financiar Future Perfect).

ChatGPT no siempre lo consigue en el primer intento, pero es más que suficiente para recopilar información si alguien estaba decidido a acosarnos. Y como AI solo se volverá más poderoso, eso debería preocuparnos a todos.

Cuando AI viene para la privacidad digital

Para la mayoría de nosotros, que no tenemos cuidado con el cuidado de nuestra huella digital, siempre ha sido posible que las personas aprendan una cantidad aterradora de información sobre nosotros, donde vivimos, donde compramos, nuestra rutina diaria, con quién hablamos, de nuestras actividades en línea. Pero tomaría una cantidad extraordinaria de trabajo.

En su mayor parte, disfrutamos de lo que se conoce como seguridad a través de la oscuridad; Apenas vale la pena que un gran equipo de personas estudie mis movimientos con atención solo para aprender a dónde fui de vacaciones. Incluso los estados de vigilancia más autocráticos, como la Alemania Oriental de la era de Stasi, estaban limitados por la mano de obra en lo que podían rastrear.

Pero la IA realiza tareas que anteriormente habrían requerido un esfuerzo serio de un gran equipo en trivial. Y significa que se necesitan muchos menos pistas para clavar la ubicación y la vida de alguien.

Ya era el caso que Google sabe básicamente todo sobre mí, pero yo (tal vez complacientemente) realmente no me importó, porque la mayoría de Google puede hacer con esa información es que me sirvan anuncios, y porque tienen un historial de 20 años de ser relativamente cauteloso con los datos de los usuarios. Ahora que el grado de información sobre mí podría estar disponible para cualquier persona, incluidas aquellos con muchas más intenciones malignas.

Y aunque Google tiene incentivos para no tener un gran incidente relacionado con la privacidad (los usuarios se enojarían con ellos, los reguladores los investigarían y tienen muchos negocios que perder (las compañías de IA que proliferan hoy como OpenAi o Deepseek están mucho menos mantenidos en línea por opinión pública. (Si estuvieran más preocupados por la opinión pública, necesitarían tener un modelo de negocio significativamente diferente, ya que el tipo público odia la IA).

Ten cuidado con lo que le dices chatgpt

Entonces la IA tiene enormes implicaciones para la privacidad. Estos solo fueron golpeados en casa cuando Anthrope informó recientemente que habían descubierto que, en las circunstancias correctas (con el aviso correcto, colocado en un escenario en el que se le pide a la IA que participe en el fraude de datos farmacéuticos) Claude Opus 4 intentará enviar la FDA a WhistleBlow. Esto no puede suceder con la IA que usa en una ventana de chat; requiere que la IA se configure con herramientas independientes de envío de correo electrónico, entre otras cosas. No obstante, los usuarios reaccionaron con el horror: hay algo fundamentalmente alarmante sobre una IA que contacta a las autoridades, incluso si lo hace en las mismas circunstancias que un humano podría.

Algunas personas tomaron esto como una razón para evitar a Claude. Pero casi inmediatamente quedó claro que no solo Claude: los usuarios rápidamente produjeron el mismo comportamiento con otros modelos como el O3 y Grok de Openii. Vivimos en un mundo en el que no solo AIS saben todo sobre nosotros, sino que en algunas circunstancias, incluso podrían llamarnos a la policía.

En este momento, solo es probable que lo hagan en circunstancias suficientemente extremas. Pero los escenarios como «la IA amenaza con informarle al gobierno a menos que siga sus instrucciones» ya no parecen ciencia ficción como un titular inevitable a finales de este año o al siguiente.

¿Qué debemos hacer al respecto? El antiguo consejo de los defensores de la privacidad digital (sean reflexivos sobre lo que publica, no otorgues los permisos de cosas que no necesitan, sigue siendo bueno, pero parece radicalmente insuficiente. Nadie va a resolver esto en el nivel de acción individual.

Nueva York está considerando una ley que, entre otros requisitos de transparencia y prueba, regularía a los IA que actúan de forma independiente cuando toman medidas que serían un delito si los humanos toman «imprudentemente» o «negligentemente». Ya sea que te guste o no el enfoque exacto de Nueva York, me parece claro que nuestras leyes existentes son inadecuadas para este extraño mundo extraño. Hasta que tengamos un mejor plan, tenga cuidado con sus fotos de vacaciones, ¡y lo que le dice a su chatbot!