Un pronóstico escalofriante de nuestro futuro de IA está recibiendo una gran atención. ¿Qué tan realista es?

Imaginemos por un segundo que el ritmo impresionante del progreso de la IA en los últimos años continúa por algunos más.

En ese período de tiempo, hemos pasado de AIS que podrían producir algunas oraciones razonables a AIS que pueden producir informes completos de think tank de calidad razonable; Desde AIS que no pudo escribir código a AIS que puede escribir código mediocre en una pequeña base de código; de AIS que podrían producir imágenes surrealistas y absurdas a AIS que pueden producir videos cortos falsos convincentes y clips de audio sobre cualquier tema.

Las empresas están invirtiendo miles de millones de dólares y toneladas de talento para mejorar estos modelos en lo que hacen. Entonces, ¿a dónde nos lleva eso?

Imagine que a finales de este año, alguna compañía decide duplicar uno de los usos económicamente más valiosos de la IA: mejorar la investigación de IA. La compañía diseña un modelo más grande y mejor, que se adapta cuidadosamente a la tarea súper costumbre pero súper valiosa de capacitar a otros modelos de IA.

Con la ayuda de este entrenador de IA, la compañía se adelanta a sus competidores, lanzando AIS en 2026 que funcionan razonablemente bien en una amplia gama de tareas y que esencialmente funcionan como un «empleado» que puede «contratar». Durante el próximo año, el mercado de valores se eleva como un número casi infinito de empleados de IA se vuelve adecuado para una gama más amplia y amplia de trabajos (incluida la mía y, posiblemente, el suyo).

Bienvenido al futuro (cercano)

Esta es la apertura de la IA 2027, un pronóstico atento y detallado a corto plazo de un grupo de investigadores que piensan que los cambios masivos de IA en nuestro mundo están llegando rápidamente, y para el cual no estamos preparados. Los autores incluyen notablemente a Daniel Kokotajlo, un ex investigador de Operai que se hizo famoso por arriesgar a millones de dólares de su capital en la compañía cuando se negó a firmar un acuerdo de no divulgación.

«La IA viene rápido» es algo que la gente ha estado diciendo durante años, pero a menudo de una manera que es difícil de disputar y difícil de falsificar. AI 2027 es un esfuerzo para ir en la dirección opuesta exacta. Como todos los mejores pronósticos, está construido para ser falsificable: cada predicción es lo suficientemente específica y detallada como para que sea fácil decidir si se hizo realidad después del hecho. (Suponiendo, por supuesto, todavía estamos todos por ahí).

Los autores describen cómo se percibirán los avances en la IA, cómo afectarán el mercado de valores, cómo alterarán la geopolítica, y justifican esas predicciones en cientos de páginas de apéndices. AI 2027 podría terminar siendo completamente equivocado, pero si es así, será realmente fácil ver dónde salió mal.

Si bien soy escéptico sobre la línea de tiempo exacta del grupo, que prevé la mayoría de los momentos fundamentales que nos llevan a la catástrofe de IA o la intervención política que ocurre durante esta administración presidencial, la serie de eventos que presentan es bastante convincente para mí.

Cualquier compañía de IA duplicaría una IA que mejore su desarrollo de IA. (Y algunos de ellos ya están haciendo esto internamente). Si eso sucede, veremos mejoras aún más rápidas que las mejoras de 2023 a ahora, y en unos pocos años, habrá una interrupción económica masiva a medida que un «empleado de IA» se convierta en una alternativa viable a una contratación humana para la mayoría de los trabajos que se pueden hacer de forma remota.

Pero en este escenario, la compañía utiliza la mayoría de sus nuevos «empleados de IA» internamente, para seguir produciendo nuevos avances en la IA. Como resultado, el progreso tecnológico se vuelve cada vez más rápido, pero nuestra capacidad de aplicar cualquier supervisión se debilita cada vez más. Vemos vislumbres de comportamiento extraño y preocupante de los sistemas AI avanzados e intentamos hacer ajustes para «arreglarlos». Pero estos terminan siendo ajustes a nivel de superficie, que simplemente ocultan el grado en que estos sistemas de IA cada vez más potentes han comenzado a perseguir sus propios objetivos, objetivos que no podemos comprender. Esto también ya ha comenzado a ocurrir hasta cierto punto. Es común ver que las quejas sobre AIS hacen cosas «molestas» como fingir las pruebas de código que no pasan.

Este pronóstico no solo me parece plausible, sino que también parece ser el curso predeterminado para lo que sucederá. Claro, puede debatir los detalles de qué tan rápido podría desarrollarse, e incluso puede comprometerse con la postura de que el progreso de IA seguramente será el final del próximo año. Pero si el progreso de la IA no sale sin salida, entonces parece muy difícil imaginar cómo eventualmente no nos llevará por el camino amplio que AI 2027 imagina, tarde o temprano. Y el pronóstico hace un caso convincente que sucederá antes de lo que casi cualquiera espera.

No se equivoquen: el camino que los autores de AI 2027 Imision termina con una catástrofe plausible.

Para 2027, enormes cantidades de poder de cálculo se dedicarían a los sistemas de IA que investigan la IA, todo con una supervisión humana disminuida, no porque las compañías de IA no desear Para supervisarlo, pero porque ya no pueden, tan avanzados y tan rápido que sus creaciones se vuelven. El gobierno de los Estados Unidos duplicaría ganar la carrera armamentista con China, incluso cuando las decisiones tomadas por el AIS se vuelven cada vez más impenetrables para los humanos.

Los autores esperan signos de que los nuevos y poderosos sistemas de IA que se están desarrollando están persiguiendo sus propios objetivos peligrosos, y les preocupa que esos signos serán ignorados por personas en el poder debido a los temores geopolíticos sobre la competencia que se pone al día, como una raza existencial de IA que no deja margen para la seguridad.

Todo esto, por supuesto, suena escalofriantemente plausible. La pregunta es esta: ¿pueden las personas en el poder hacerlo mejor de lo que los autores pronostican que lo harán?

Definitivamente. Argumentaría que ni siquiera sería tan difícil. ¿Pero les irá mejor? Después de todo, ciertamente hemos fallado en tareas mucho más fáciles.

Según los informes, el vicepresidente JD Vance ha leído la IA 2027, y ha expresado su esperanza de que el nuevo Papa, que ya ha nombrado IA como un desafío principal para la humanidad, ejerce el liderazgo internacional para tratar de evitar los peores resultados que hipotetiza. Ya veremos.

Vivimos en tiempos interesantes (y profundamente alarmantes). Creo que vale la pena darle una lectura a AI 2027 para hacer la vaga nube de preocupación que impregna el discurso de AI específico y falsificable, para comprender a qué están prestando atención algunas personas mayores en el mundo de la IA y el gobierno, y decidir qué querrá hacer si ve que esto comienza a hacerse realidad.