El nuevo programa anti-Wobs de Openai

El martes, estaba pensando que podría escribir una historia sobre las implicaciones de la derogación de la administración Trump de la Orden Ejecutiva Biden en AI. (La mayor implicación: que los laboratorios ya no se les pide que denuncien capacidades peligrosas al gobierno, aunque pueden hacerlo de todos modos). Pero luego dos historias de IA más grandes y más importantes cayeron: una de ellas técnicas y una de ellas económicas.

Stargate es un programa de empleos, pero tal vez no para los humanos

La historia económica es Stargate. En conjunto con compañías como Oracle y SoftBank, el cofundador de Operai, Sam Altman, anunció una inversión alucinante de $ 500 mil millones en «nueva infraestructura de IA para OpenAi», es decir, para centros de datos y las centrales eléctricas que se necesitarán para alimentarlos .

La gente inmediatamente tenía preguntas. Primero, estaba la declaración pública de Elon Musk de que «en realidad no tienen el dinero», seguido por la réplica de la CEO de Microsoft Satya Nadella: «Soy bueno por mis $ 80 mil millones». (Microsoft, recuerde, tiene una gran participación en OpenAi).

En segundo lugar, algunos desafiaron la afirmación de OpenAI de que el programa «creará cientos de miles de empleos estadounidenses».

¿Por qué? Bueno, la única forma plausible para que los inversores recuperen su dinero en este proyecto es si, como la compañía ha estado apostando, Operai pronto desarrollará sistemas de IA que puedan hacer la mayoría de los trabajos que los humanos pueden hacer en una computadora. Los economistas están debatiendo ferozmente exactamente qué impactos económicos tendrían, si se produjo, aunque la creación de cientos de miles de empleos no parece uno, al menos no a largo plazo.

La automatización de masas ha sucedido antes, al comienzo de la revolución industrial, y algunas personas esperan sinceramente que a la larga sea algo bueno para la sociedad. (Mi opinión: eso realmente, realmente depende de si tenemos un plan para mantener la responsabilidad democrática y la supervisión adecuada, y para compartir los beneficios del nuevo y alarmante mundo de ciencia ficción. En este momento, no tenemos eso, así que yo, así que yo ‘No estoy animando la posibilidad de ser automatizado).

Pero incluso si está más entusiasmado con la automatización que yo, «reemplazaremos todo el trabajo de oficina con AIS», que se entiende bastante ampliamente como el modelo de negocio de OpenAI, es un plan absurdo para girar como un programa de empleos. Pero entonces, una inversión de $ 500 mil millones para eliminar innumerables empleos probablemente no conseguiría el imprimatur de Donald Trump, como lo ha hecho Stargate.

Deepseek puede haber descubierto refuerzo en la retroalimentación de IA

La otra gran historia de esta semana fue Deepseek R1, un nuevo lanzamiento de la startup china de IA Deepseek, que la compañía anuncia como rival para OpenAi’s O1. Lo que hace que R1 sea un gran problema es menos las implicaciones económicas y más las técnicas.

Para enseñar a los sistemas de IA a dar buenas respuestas, calificamos las respuestas que nos dan y las capacitamos a casa en las que calificamos altamente. Este es el «aprendizaje de refuerzo de la retroalimentación humana» (RLHF), y ha sido el enfoque principal para capacitar a LLMS modernos desde que un equipo de Operai lo hizo funcionar. (El proceso se describe en este artículo de 2019).

Pero RLHF no es cómo obtuvimos el programa de juegos de IA ultra sobrehumano Alphazero. Eso fue entrenado utilizando una estrategia diferente, basada en el juego propio: la IA pudo inventar nuevos rompecabezas para sí mismo, resolverlos, aprender de la solución y mejorar desde allí.

Esta estrategia es particularmente útil para enseñar un modelo cómo hacer rápidamente Cualquier cosa que pueda hacer gastos de manera costosa y lenta. Alphazero podría considerar lenta y en el tiempo con muchas políticas diferentes, descubrir cuál es la mejor y luego aprender de la mejor solución. Es este tipo de autoestima lo que hizo posible que Alphazero mejore ampliamente en los motores de juego anteriores.

Entonces, por supuesto, los laboratorios han estado tratando de descubrir algo similar para modelos de idiomas grandes. La idea básica es simple: permite que un modelo considere una pregunta durante mucho tiempo, potencialmente usando muchos cálculos costosos. Luego lo capacita en la respuesta que finalmente encontró, tratando de producir un modelo que pueda obtener el mismo resultado de manera más económica.

Pero hasta ahora, «los principales laboratorios no parecían tener mucho éxito con este tipo de RL de autoinforme», escribió el ingeniero de aprendizaje automático Peter Schmidt-Nielsen en una explicación de la importancia técnica de Deepseek R1. Lo que tiene los ingenieros tan impresionados con (y tan alarmado por) R1 es que el equipo parece haber progresado significativamente usando esa técnica.

Esto significaría que a los sistemas de IA se les puede enseñar a hacer de manera rápida y económica cualquier cosa que sepan de manera lenta y costosa, lo que haría algunas de las mejoras rápidas e impactantes en las capacidades que el mundo presenció con Alphazero, solo en áreas de la economía. Mucho más importante que jugar juegos.

Otro hecho notable aquí: estos avances provienen de una compañía china de IA. Dado que las compañías de IA de EE. UU. No son tímidas sobre el uso de la amenaza del dominio de la IA chino para impulsar sus intereses, y dado que realmente hay una raza geopolítica en torno a esta tecnología, que dice mucho sobre cuán rápido puede estar poniéndose al día China.

Mucha gente que conozco está harta de escuchar sobre la IA. Están hartos de SLOP AI en sus alimentos y productos de IA que son peores que los humanos, pero son baratos, y no están enraizando exactamente para OpenAi (o cualquier otra persona) para convertirse en los primeros billones de billones del mundo mediante la automatización de las industrias enteras.

Pero creo que en 2025, la IA realmente va a importar, no por si estos sistemas poderosos se desarrollan, lo que en este punto se ve bien en marcha, sino si la sociedad está lista para ponerse de pie e insistir en que se hace de manera responsable.

Cuando los sistemas de IA comienzan a actuar de forma independiente y cometen delitos graves (todos los laboratorios principales están trabajando en «agentes» que pueden actuar de forma independiente en este momento), ¿responsabilizaremos a sus creadores? Si Operai hace una oferta ridículamente baja a su entidad sin fines de lucro en su transición al estatus completamente con fines de lucro, ¿intervendrá el gobierno para hacer cumplir la ley sin fines de lucro?

Muchas de estas decisiones se tomarán en 2025, y las apuestas son muy altas. Si AI te inquieta, esa es una razón mucho más para exigir acción, lo que es una razón para desconectarte.