En 1964, el escritor de ciencia ficción Arthur C. Clarke predijo que las computadoras superarían a la evolución humana. “Los cerebros electrónicos de hoy en día son unos completos imbéciles, pero esto no será cierto en la próxima generación”, le dijo a la BBC. «Comenzarán a pensar y, eventualmente, superarán por completo a sus creadores».
Daniel Roher estrena su nuevo documental The AI Doc: o cómo me convertí en un apocaloptimista (2026) con esta alegre profecía. Y en los cientos y pico de minutos que siguen, intenta darle sentido a una tecnología que, según él mismo admite, no comprende y a un mundo que está cambiando rápidamente. Al explicar que concibe la IA como una “caja mágica que flota en el espacio”, solicita la ayuda de expertos para que le proporcionen un curso intensivo sobre qué es exactamente la IA. es.
La verdadera preocupación de Roher, sin embargo, no es tanto el funcionamiento de la IA (aunque algunos de sus sujetos intentan explicárselo) sino si podría desplazarnos, como sugiere la predicción de Clarke.
Mientras hace la película, Roher se entera de que su esposa Caroline está embarazada de su primer hijo. Sigue el embarazo de su esposa y el nacimiento de su hijo en paralelo con la llegada de la IA. Es una elección inteligente que se basa en un temor que todos los padres comparten: ¿Qué tipo de mundo estamos creando para nuestros hijos? Y detrás de esa pregunta hay otra que vibra en un silencio ansioso: ¿Qué sucederá después de que nuestra descendencia nos reemplace? Esta angustia existencial gemela impulsa sus esfuerzos por escuchar a los fatalistas, los tecnooptimistas y los “apocaloptimistas” intermedios a cuyas filas finalmente se une.
El Documento de IAcomo sugiere su amplio título, quiere dar forma y liderar la narrativa en torno a la IA. Ciertamente está preparado para hacer eso: Roher acaba de ganar un Oscar por su documental. Navalniy la película se estrenó en casi 800 salas de cine, lo que cuenta como un estreno generalizado para un título de no ficción. El producto final es indicativo de cómo las actitudes del público en torno a la IA están cambiando enormemente. Roher espera llegar a personas de la generación de mi abuela que combinan la IA con los teléfonos inteligentes y el corrector ortográfico, así como a personas a las que no parece importarles si un vídeo fue generado por IA.
Pero creo que este documental llegó demasiado tarde para encauzar la conversación, algo que la propia película reconoce. A pesar de todo su potencial transformador, la IA aún no es única entre las tecnologías emergentes (no ha sido catastrófica ni ha marcado el comienzo de una era dorada de prosperidad), pero Roher y muchos de los entrevistados tienden a tratarla como una ruptura radical con todo lo que ha sucedido antes. Como resultado, tienden a fijarse en los extremos binarios de perdición o salvación. Es un enfoque que refuerza nuestra propia impotencia frente al cambio impulsado por la IA, al mismo tiempo que enturbia nuestra comprensión de lo que aún podríamos hacer mientras buscamos adaptarnos, mitigar el daño y dar forma al mundo que, de otro modo, la IA realmente podría comenzar a rehacer.
Roher, contemplando el futuro de su hijo, opta por escuchar primero las malas noticias. Tristan Harris, cofundador del Center for Humane Technology, no se anda con rodeos: «Conozco personas que trabajan en riesgos de IA y que no esperan que sus hijos lleguen a la escuela secundaria».
Muchos de los otros entrevistados de la película se muestran igualmente pesimistas. Geoffrey Hinton, el “padrino de la IA”, por ejemplo, sostiene que a medida que la IA se vuelva más inteligente, manipulará mejor a la humanidad. Pero nadie es más pesimista que Eliezer Yudkowsky, el conocido experto en inteligencia artificial y coautor del controvertido libro. Si alguien lo construye, todos mueren. Como sugiere el título, Yudkowsky cree que la IA superinteligente acabaría con la humanidad, una posición que defiende y expone ante Roher.
Al darle la espalda a estas nubes de tormenta y seguir el consejo de su esposa, Caroline, quien le dice que necesita encontrar esperanza para el futuro, Roher se sintoniza con el coro de optimistas de la IA. Le dicen, de diversas formas, que la IA tiene más beneficios potenciales que desventajas; que la tecnología ha mejorado el mundo en todos los sentidos; que esta será la herramienta que nos ayude a resolver todos nuestros mayores problemas. Sin mencionar que la IA brindará la mejor atención médica del planeta a las personas más pobres de la Tierra, extenderá nuestra esperanza de vida por décadas y nos permitirá vivir en una utopía post-escasez libre de monotonía. Ah, y: nos convertiremos en una especie interplanetaria, todo gracias a la IA.
Inicialmente, estas promesas tranquilizan a Roher, tal vez porque parece fácilmente guiado por quienquiera que haya hablado más recientemente. Es Harris quien finalmente lo convence de que no podemos separar la promesa de la IA del peligro que presenta. Las conclusiones resultantes serán obvias para cualquiera que haya pensado en estos temas durante más de un momento o dos: si la IA automatiza el trabajo, por ejemplo, ¿cómo se ganará la vida la gente?
No ayuda que muchos de los actores más interesados reflexionen sobre estas cuestiones de manera superficial, si es que lo hacen. El director ejecutivo de OpenAI, Sam Altman, le dice a Roher que le preocupa cómo los gobiernos autoritarios utilizarán la IA, una afirmación que es seguida en la película por un corte de imágenes de Altman posando con líderes autoritarios. Otros directores ejecutivos de tecnología recurren a bromas de relaciones públicas en respuesta a las preguntas del cineasta, y Roher con demasiada frecuencia es suave con ellos, sin profundizar nunca más cuando admiten que ni siquiera ellos están seguros de que todo saldrá bien. Que estos sean los líderes de las empresas de IA que compiten entre sí para hacer que la tecnología sea cada vez más avanzada no inspira confianza.
(Algunas de las personas tecnopesimistas entrevistadas para el documental han expresado su gran descontento con el resultado final.)
«¿Por qué no podemos simplemente parar?» Roher les pregunta a estos directores ejecutivos de tecnología. Le han dicho que una moratoria es una quimera: muchos grupos alrededor del mundo están construyendo IA avanzada, todos con diferentes motivaciones. La legislación va muy por detrás del ritmo del progreso tecnológico. Incluso si pudiéramos aprobar leyes en EE.UU. y la UE que detuvieran o ralentizaran las cosas, dice el director general de Anthropic, Dario Amodei, tendríamos que convencer al gobierno chino de que hiciera lo mismo.
Si no lo creamos nosotros, se piensa, lo harán nuestros enemigos. Lo mejor es adelantarse a ellos.
Esta es, por supuesto, la lógica de la disuasión nuclear: si nosotros Si no mitigamos el riesgo de acabar con el mundo mediante una destrucción mutua asegurada, no hay nada que impida que alguien presione el botón primero.
Un apocalipsis en cada generación
La comparación atómica es adecuada, aunque sólo sea porque Roher ve lo que está en juego en términos igualmente claros. “¿Vivirá mi hijo en una utopía o nos extinguiremos en 10 años?” se pregunta en voz alta. Es una pregunta central para la película. Pero nunca se plantea el escenario más probable de que la IA no conduzca a la extinción humana ni acabe con todas las enfermedades y el trabajo pesado. Cada generación enfrenta el espectro de su propia aniquilación y, sin embargo, los fines de los días siguen acumulándose, sin importar qué tan cerca esté el reloj del fin del mundo del apocalipsis.
La cuestión, entonces, no es que la IA no será mala para nosotros, sino que al formular la cuestión en términos estrictamente utópicos o distópicos, nos perdemos la confusa realidad que se encuentra entre el infierno en la tierra y el cielo en las estrellas. A pesar de El documento de la IA intenta trazar un rumbo “apocaloptimista” entre dos extremos, no comprende lo que está en juego. En realidad, la IA no crea nuevos riesgos como tal: es un multiplicador de fuerzas para los existentes, como la amenaza de una guerra nuclear y el desarrollo y uso de armas biológicas. Los principales riesgos existenciales de la IA son causados e impulsados por el hombre. Y eso significa, como dice Caroline en la narración final de la película, «Nosotros decidimos cómo va esto». Tiene razón, pero su marido nunca parece entenderlo. cómo ella tiene razón.
Como muchos documentales de grandes temas, la película de Roher tiene muchos problemas y pocas soluciones. Ofrece algunas: exige cooperación internacional, transparencia, responsabilidades legales para las empresas si algo sale mal, pruebas antes de su publicación y reglas adaptables para igualar la velocidad del progreso. Pero así como este es un curso estrictamente introductorio a la IA, uno que probablemente irritará a aquellos que ya pasaron a AI 102, estas recomendaciones son solo un punto de partida. Para Roher, ofrecen motivos para tener esperanzas. Para el resto de nosotros, son sólo el comienzo de una oportunidad para dirigir de manera significativa el curso de nuestro futuro.