Cómo los auges y las caídas de la IA son una distracción

¿Qué significa para la seguridad de la IA si todo este asunto de la IA resulta un fracaso?

“¿Es todo esto publicidad y nada de sustancia?” es una pregunta que más gente se ha estado haciendo últimamente sobre la IA generativa, señalando que ha habido demoras en los lanzamientos de modelos, que las aplicaciones comerciales han tardado en surgir, que el éxito de los modelos de código abierto hace que sea más difícil ganar dinero con los propietarios y que todo esto cuesta mucho dinero.

Creo que muchas de las personas que afirman que la IA está en crisis no tienen una idea clara del panorama completo. Algunas de ellas son personas que han insistido desde el principio en que la IA generativa como tecnología no tiene nada que ver, una visión que está muy lejos de los muchos y muy reales usos de la IA.

Y creo que algunas personas tienen una visión francamente absurda de la velocidad con la que debería producirse la comercialización. Incluso en el caso de una tecnología increíblemente valiosa y prometedora que, en última instancia, será transformadora, pasa tiempo entre el momento en que se inventa y el momento en que alguien ofrece por primera vez un producto de consumo extremadamente popular basado en ella (la electricidad, por ejemplo, tardó décadas entre su invención y su adopción verdaderamente generalizada). Parece cierto que “la aplicación revolucionaria para la IA generativa aún no se ha inventado”, pero tampoco es una buena razón para asegurar a todo el mundo que no se inventará en un futuro próximo.

Pero creo que hay un argumento serio a favor de un fracaso que no se basa en malentendidos o subestimación de la tecnología. Parece plausible que la próxima ronda de modelos ultra costosos aún no logre resolver los problemas difíciles que harían que valga la pena entrenarlos por mil millones de dólares, y si eso sucede, es probable que nos conformemos con un período de menos entusiasmo. Más iteraciones y mejoras de los productos existentes, menos lanzamientos nuevos y menos cobertura obsesiva.

Si eso sucede, probablemente también tendrá un enorme efecto en las actitudes hacia la seguridad de la IA, aunque en principio la defensa de la seguridad de la IA no depende del bombo publicitario de la IA de los últimos años.

El argumento fundamental a favor de la seguridad de la IA es uno sobre el que he estado escribiendo desde mucho antes de ChatGPT y del reciente frenesí de la IA. El argumento es simple: no hay motivos para pensar que no sean posibles modelos de IA que puedan razonar tan bien como los humanos (y mucho más rápido), y sabemos que serían enormemente valiosos comercialmente si se desarrollaran. Y sabemos que sería muy peligroso desarrollar y lanzar sistemas potentes que puedan actuar de forma independiente en el mundo sin una supervisión que en realidad no sabemos cómo proporcionar.

Muchos de los tecnólogos que trabajan en modelos lingüísticos de gran tamaño creen que los sistemas lo suficientemente potentes como para que estos problemas de seguridad pasen de la teoría al mundo real están a la vuelta de la esquina. Puede que tengan razón, pero también puede que se equivoquen. La opinión con la que más simpatizo es la del ingeniero Alex Irpan: “Hay pocas posibilidades de que el paradigma actual (simplemente construir modelos lingüísticos más grandes) llegue hasta ahí. La probabilidad sigue siendo mayor de lo que me gustaría”.

Es probable que la próxima generación de grandes modelos lingüísticos no sea lo suficientemente potente como para resultar peligrosa, pero muchas de las personas que trabajan en ella creen que lo será y, dadas las enormes consecuencias de una IA de potencia no controlada, la probabilidad no es tan pequeña como para que se la pueda descartar sin más, lo que justifica cierta supervisión.

Cómo la seguridad de la IA y su popularidad terminaron entrelazadas

En la práctica, si bien la próxima generación de grandes modelos lingüísticos no es mucho mejor que la que tenemos actualmente, espero que la IA siga transformando nuestro mundo, aunque más lentamente. Muchas empresas emergentes de IA mal concebidas desaparecerán y muchos inversores perderán dinero, pero la gente seguirá mejorando nuestros modelos a un ritmo bastante rápido, haciéndolos más baratos y solucionando sus deficiencias más molestas.

Incluso los escépticos más acérrimos de la IA generativa, como Gary Marcus, tienden a decirme que la superinteligencia es posible; sólo esperan que requiera un nuevo paradigma tecnológico, alguna forma de combinar el poder de los grandes modelos de lenguaje con algún otro enfoque que contrarreste sus deficiencias.

Aunque Marcus se identifica como un escéptico de la IA, a menudo es difícil encontrar diferencias significativas entre sus puntos de vista y los de alguien como Ajeya Cotra, quien piensa que los sistemas inteligentes poderosos pueden estar impulsados ​​por modelos de lenguaje en un sentido análogo a cómo un automóvil está impulsado por un motor, pero tendrán muchos procesos y sistemas adicionales para transformar sus resultados en algo confiable y utilizable.

Las personas que conozco que se preocupan por la seguridad de la IA a menudo esperan que las cosas sigan ese camino. Significaría un poco más de tiempo para comprender mejor los sistemas que estamos creando, tiempo para ver las consecuencias de usarlos antes de que se vuelvan incomprensiblemente poderosos. La seguridad de la IA es un conjunto de problemas difíciles, pero no irresolubles. Con algo de tiempo, tal vez los solucionemos todos.

Pero mi impresión sobre la conversación pública en torno a la IA es que mucha gente cree que la “seguridad de la IA” es una visión del mundo específica, inseparable de la fiebre de la IA de los últimos años. La “seguridad de la IA”, tal como la entienden, es la afirmación de que los sistemas superinteligentes estarán presentes en los próximos años, la visión defendida en “Situational Awareness” de Leopold Aschenbrenner y razonablemente común entre los investigadores de IA de las principales empresas.

Si no logramos superinteligencia en los próximos años, espero escuchar mucho del tipo «resulta que no necesitábamos seguridad con IA».

Mantén la vista puesta en el panorama general

Si usted es un inversor en las empresas emergentes de IA actuales, es muy importante si el GPT-5 se retrasará seis meses o si OpenAI va a recaudar dinero a continuación con una valoración reducida.

Sin embargo, si usted es un formulador de políticas o un ciudadano preocupado, creo que debería mantener un poco más de distancia y separar la cuestión de si las apuestas de los inversores actuales darán frutos de la cuestión de hacia dónde nos dirigimos como sociedad.

Independientemente de si el GPT-5 es un sistema inteligente potente o no, un sistema inteligente potente sería comercialmente valioso y hay miles de personas trabajando desde distintos ángulos para construir uno. Deberíamos pensar en cómo abordaremos esos sistemas y asegurarnos de que se desarrollen de manera segura.

Si una empresa declara en voz alta que va a construir un sistema poderoso y peligroso y fracasa, la conclusión no debería ser “supongo que no tenemos nada de qué preocuparnos”, sino “me alegro de que tengamos un poco más de tiempo para pensar en la mejor respuesta política”.

Mientras la gente siga intentando construir sistemas extremadamente poderosos, la seguridad seguirá siendo importante, y el mundo no puede darse el lujo de dejarse cegar por la publicidad ni de ser reactivamente despectivo como resultado de ella.