OpenAI tal como lo conocíamos está muerto

OpenAI, la empresa que te trajo ChatGPT, acaba de venderte.

Desde su fundación en 2015, sus líderes han dicho que su principal prioridad es garantizar que la inteligencia artificial se desarrolle de forma segura y beneficiosa. Han promocionado la inusual estructura corporativa de la empresa como una forma de demostrar la pureza de sus motivos. OpenAI era una organización sin fines de lucro controlada no por su director ejecutivo ni por sus accionistas, sino por una junta con una única misión: mantener a la humanidad a salvo.

Pero esta semana se supo que OpenAI ya no estará controlado por la junta sin fines de lucro. OpenAI se está convirtiendo en una corporación benéfica con fines de lucro en toda regla. Ah, y el director ejecutivo Sam Altman, que anteriormente había enfatizado que no tenía ningún capital en la empresa, ahora obtendrá un capital por valor de miles de millones, además del control final sobre OpenAI.

En un anuncio que no parece coincidencia, la directora de tecnología Mira Murati dijo poco antes de que se conociera la noticia que dejaría la empresa. Los empleados quedaron tan sorprendidos que, según se informa, muchos de ellos reaccionaron a su abrupta partida con un emoji de «WTF» en Slack.

El objetivo de OpenAI era no tener fines de lucro y dar prioridad a la seguridad. Comenzó a alejarse de esa visión hace años cuando, en 2019, OpenAI creó una rama con fines de lucro para poder obtener el tipo de enormes inversiones que necesitaba de Microsoft a medida que aumentaban los costos de construir IA avanzada. Pero algunos de sus empleados y admiradores externos todavía tenían la esperanza de que la empresa se apegara a sus principios. Esa esperanza ahora puede ser acallada.

«Podemos decir adiós a la versión original de OpenAI que no quería estar limitada por obligaciones financieras», me dijo Jeffrey Wu, quien se unió a la compañía en 2018 y trabajó en los primeros modelos como GPT-2 y GPT-3.

«La reestructuración en torno a una entidad central con fines de lucro formaliza lo que los externos saben desde hace algún tiempo: que OpenAI busca obtener ganancias en una industria que ha recibido una enorme afluencia de inversiones en los últimos años», dijo Sarah Kreps, directora de Tecnología de Cornell. Instituto de Políticas. El cambio se aparta del «énfasis fundamental de OpenAI en la seguridad, la transparencia y el objetivo de no concentrar el poder».

Y si las noticias de esta semana son la sentencia de muerte final para la elevada visión fundacional de OpenAI, está claro quién la mató.

Cómo Sam Altman se convirtió en un riesgo existencial para la misión de OpenAI

Cuando OpenAI fue cofundado en 2015 por Elon Musk (junto con Altman y otros), a quien le preocupaba que la IA pudiera representar un riesgo existencial para la humanidad, el incipiente laboratorio de investigación se presentó al mundo con estas tres frases:

OpenAI es una empresa de investigación de inteligencia artificial sin fines de lucro. Nuestro objetivo es avanzar en la inteligencia digital de la manera que sea más probable que beneficie a la humanidad en su conjunto, sin las limitaciones de la necesidad de generar retorno financiero. Dado que nuestra investigación está libre de obligaciones financieras, podemos centrarnos mejor en un impacto humano positivo.

Todo eso es objetivamente falso ahora.

Desde que Altman tomó el mando de OpenAI en 2019, la empresa se ha ido alejando de su misión. Ese año, la empresa (es decir, la organización sin fines de lucro original) creó una subsidiaria con fines de lucro para poder atraer las enormes inversiones necesarias para construir IA de vanguardia. Pero hizo algo sin precedentes en Silicon Valley: limitó las ganancias que podían obtener los inversores. Podrían obtener hasta 100 veces lo que aportaron, pero más allá de eso, el dinero se destinaría a la organización sin fines de lucro, que lo utilizaría para beneficiar al público. Por ejemplo, podría financiar un programa de renta básica universal para ayudar a las personas a adaptarse al desempleo inducido por la automatización.

En los años siguientes, OpenAI fue perdiendo cada vez más prioridad en su enfoque en la seguridad a medida que se apresuraba a comercializar productos. Para 2023, la junta directiva de la organización sin fines de lucro sospechaba tanto de Altman que intentó destituirlo. Pero rápidamente logró regresar al poder, explotando su relación con Microsoft, con una nueva junta directiva a su favor. Y a principios de este año, el equipo de seguridad de OpenAI implosionó cuando el personal perdió la fe en Altman y abandonó la empresa.

Ahora, Altman ha dado el paso final para consolidar su poder: ha despojado por completo a la junta de su control. Aunque seguirá existiendo, no tendrá dientes.

«Me parece que a la organización sin fines de lucro original se le ha quitado el poder y se ha reinterpretado su misión para que esté completamente alineada con las ganancias», dijo Wu.

Las ganancias pueden ser lo que Altman cree que la empresa necesita desesperadamente. A pesar de una publicación de blog sumamente segura publicada esta semana, en la que afirmaba que la IA ayudaría a “arreglar el clima, establecer una colonia espacial y descubrir toda la física”, OpenAI en realidad está en un aprieto. Ha estado luchando por encontrar una ruta clara hacia el éxito financiero de sus modelos, cuya construcción costó cientos de millones, si no miles de millones. Reestructurar el negocio para convertirlo en una empresa con fines de lucro podría ayudar a atraer inversores.

Pero la medida hace que algunos observadores, incluido el propio Musk, se pregunten: ¿Cómo podría ser legal?

Si OpenAI elimina el límite de ganancias, estaría redirigiendo una enorme cantidad de dinero (posibles miles de millones de dólares en el futuro) de la organización sin fines de lucro a los inversores. Dado que la organización sin fines de lucro está ahí para representar al público, esto significaría efectivamente quitarle miles de millones a personas como usted y como yo. Como algunos señalan, se parece mucho a un robo.

“Si OpenAI eliminara retroactivamente los límites de ganancias de las inversiones, esto en efecto transferiría miles de millones en valor de una organización sin fines de lucro a inversionistas con fines de lucro”, dijo Jacob Hilton, un ex empleado de OpenAI que se unió antes de que pasara de una organización sin fines de lucro a una estructura de beneficio limitado. “A menos que la organización sin fines de lucro reciba una compensación adecuada, esto sería una apropiación de dinero. En mi opinión, tal cosa sería incompatible con los estatutos de OpenAI, que establecen que el principal deber fiduciario de OpenAI es con la humanidad, y no entiendo cómo la ley podría permitirlo”.

Pero debido a que la estructura de OpenAI no tiene precedentes, la legalidad de tal cambio puede parecer confusa para algunos. Y eso puede ser exactamente con lo que cuenta la empresa.

Cuando se le pidió que comentara sobre esto, OpenAI solo dijo que se refería a su declaración en Bloomberg. Allí, un portavoz de la empresa dijo que OpenAI sigue «centrado en crear una IA que beneficie a todos», y añadió que «la organización sin fines de lucro es fundamental para nuestra misión y seguirá existiendo».

El mensaje final es claro: regular, regular, regular

Los defensores de la seguridad de la IA han estado argumentando que necesitamos aprobar una regulación que proporcione cierta supervisión a las grandes empresas de IA, como el proyecto de ley SB 1047 de California, que el gobernador Gavin Newsom debe promulgar o vetar en los próximos días.

Ahora, Altman les ha presentado claramente sus argumentos.

«El público en general y los reguladores deben ser conscientes de que, por defecto, las empresas de IA se verán incentivadas a ignorar algunos de los costos y riesgos del despliegue de la IA, y existe la posibilidad de que esos riesgos sean enormes», dijo Wu.

Altman también está validando las preocupaciones de sus ex empleados que publicaron una propuesta exigiendo que a los empleados de las principales empresas de IA se les permita el “derecho a advertir” sobre la IA avanzada. Según la propuesta: «Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto».

Obviamente, tenían razón: la organización sin fines de lucro de OpenAI estaba destinada a reinar sobre el brazo con fines de lucro, pero Altman simplemente le dio la vuelta a esa estructura.

Después de años de engatusar a la prensa, al público y a los formuladores de políticas en el Congreso, asegurando a todos que OpenAI quiere regulación y se preocupa más por la seguridad que por el dinero, Altman ya ni siquiera se molesta en jugar. Está mostrando a todos sus verdaderos colores.

Gobernador Newsom, ¿está viendo esto?

Congreso, ¿estás viendo esto?

Mundo, ¿estás viendo esto?