El gobernador de California tiene la oportunidad de hacer historia en materia de inteligencia artificial

Los defensores de la ley dicen que se trata de una ley modesta que establece “normas de seguridad claras, predecibles y de sentido común” para la inteligencia artificial. Los opositores dicen que es una medida peligrosa y arrogante que “reprimirá la innovación”.

En cualquier caso, la SB 1047 —la propuesta del senador estatal de California Scott Wiener para regular los modelos avanzados de inteligencia artificial que ofrecen las empresas que hacen negocios en el estado— ya ha sido aprobada por la Asamblea del Estado de California por un margen de 48 a 16. En mayo, fue aprobada por el Senado por 32 a 1. Una vez que el Senado apruebe los cambios de la asamblea al proyecto de ley, lo que se espera que haga en breve, la medida pasará al escritorio del gobernador Gavin Newsom.

El proyecto de ley, que responsabilizaría a las empresas de inteligencia artificial de los daños catastróficos que puedan causar sus modelos “de vanguardia”, cuenta con el respaldo de una amplia gama de grupos de seguridad de la inteligencia artificial, así como de eminencias en el campo como Geoffrey Hinton, Yoshua Bengio y Stuart Russell, que han advertido sobre el potencial de la tecnología para plantear peligros masivos, incluso existenciales, para la humanidad. Recibió un sorprendente respaldo de último momento de Elon Musk, que entre sus otras empresas dirige la empresa de inteligencia artificial xAI.

En contra de la SB 1047 se encuentra casi toda la industria tecnológica, incluidos OpenAI, Facebook, los poderosos inversores Y Combinator y Andreessen Horowitz, y algunos investigadores académicos que temen que amenace los modelos de inteligencia artificial de código abierto. Anthropic, otro peso pesado de la inteligencia artificial, presionó para suavizar el proyecto de ley. Después de que muchas de sus enmiendas propuestas se aprobaran en agosto, la empresa dijo que los «beneficios del proyecto de ley probablemente superen sus costos».

A pesar de la reacción negativa de la industria, el proyecto de ley parece ser popular entre los californianos, aunque todas las encuestas al respecto han sido financiadas por partes interesadas. Una encuesta reciente realizada por el AI Policy Institute, que está a favor del proyecto de ley, encontró que el 70 por ciento de los residentes estaban a favor, con índices de aprobación aún más altos entre los californianos que trabajan en tecnología. La Cámara de Comercio de California encargó un proyecto de ley y encontró que una pluralidad de californianos se oponían, pero la redacción de la encuesta era sesgada, por decir lo menos, y describía el proyecto de ley como una ley que obliga a los desarrolladores a «pagar decenas de millones de dólares en multas si no implementan las órdenes de los burócratas estatales». La encuesta del AI Policy Institute presentó argumentos a favor y en contra, pero la Cámara de Comercio de California solo se molestó en presentar un argumento «en contra».

Los amplios márgenes bipartidistas con los que el proyecto de ley fue aprobado en la Asamblea y el Senado, y el apoyo general del público (cuando no se le pregunta de manera sesgada), podrían sugerir que es probable que el gobernador Newsom firme. Pero no es tan simple. Andreessen Horowitz, el gigante de capital de riesgo de 43 mil millones de dólares, ha contratado al amigo cercano de Newsom y agente demócrata Jason Kinney para presionar contra el proyecto de ley, y varios demócratas poderosos, incluidos ocho miembros de la Cámara de Representantes de Estados Unidos de California y la ex presidenta Nancy Pelosi, han instado a vetarlo, haciéndose eco de los puntos de discusión de la industria tecnológica.

Por lo tanto, existe una gran posibilidad de que Newsom vete el proyecto de ley, lo que impediría que California, el centro de la industria de la IA, se convierta en el primer estado con normas sólidas de responsabilidad en materia de IA. Lo que está en juego no es solo la seguridad de la IA en California, sino también en Estados Unidos y, potencialmente, en el mundo.

Al haber atraído todo este intenso cabildeo, uno podría pensar que la SB 1047 es un proyecto de ley agresivo y de mano dura, pero, especialmente después de varias rondas de revisiones en la Asamblea Estatal, la ley real hace bastante poco.

Ofrecería protección a los trabajadores del sector tecnológico, junto con un proceso para que las personas que tengan información confidencial sobre conductas de riesgo en un laboratorio de IA puedan presentar su denuncia ante el Fiscal General del estado sin temor a ser procesadas. También exige que las empresas de IA que gasten más de 100 millones de dólares en entrenar a un modelo de IA desarrollen planes de seguridad. (El límite extraordinariamente alto para que entre en vigor este requisito tiene como objetivo proteger a la industria de las empresas emergentes de California, que objetó que la carga de cumplimiento sería demasiado alta para las pequeñas empresas).

¿Qué es lo que podría provocar meses de histeria, una intensa presión de la comunidad empresarial de California y una intervención sin precedentes de los representantes federales de California? Parte de la respuesta es que el proyecto de ley solía ser más fuerte. La versión inicial de la ley establecía el umbral de cumplimiento en 100 millones de dólares para el uso de una cierta cantidad de potencia informática, lo que significa que con el tiempo, más empresas habrían quedado sujetas a la ley a medida que los ordenadores siguieran abaratándose. También habría creado una agencia estatal llamada la “División de Modelos Fronterizos” para revisar los planes de seguridad; la industria se opuso a la percepción de apropiación de poder.

Otra parte de la respuesta es que a mucha gente se le dijo falsamente que el proyecto de ley hace más. Un destacado crítico afirmó erróneamente que los desarrolladores de IA podrían ser culpables de un delito grave, independientemente de si estuvieron involucrados en un incidente perjudicial, cuando el proyecto de ley solo contenía disposiciones sobre responsabilidad penal en caso de que el desarrollador mintiera deliberadamente bajo juramento (esas disposiciones fueron posteriormente eliminadas de todos modos). La representante del Congreso Zoe Lofgren, del comité de ciencia, espacio y tecnología, escribió una carta en oposición afirmando falsamente que el proyecto de ley requiere el cumplimiento de una guía que aún no existe.

Pero las normas existen (puede leerlas completas aquí) y el proyecto de ley no obliga a las empresas a cumplirlas. Solo dice que “un desarrollador deberá tener en cuenta las mejores prácticas de la industria y las directrices aplicables” del Instituto de Seguridad de Inteligencia Artificial de Estados Unidos, el Instituto Nacional de Normas y Tecnología, la Agencia de Operaciones del Gobierno y otras organizaciones de renombre.

Lamentablemente, gran parte del debate sobre la SB 1047 se centró en afirmaciones claramente incorrectas como éstas, en muchos casos propuestas por personas que deberían haberlo sabido mejor.

La SB 1047 se basa en la idea de que los sistemas de inteligencia artificial del futuro cercano podrían ser extraordinariamente poderosos, que por lo tanto podrían ser peligrosos y que se requiere cierta supervisión. Esa proposición central es extraordinariamente controvertida entre los investigadores de inteligencia artificial. Nada ejemplifica mejor la división que los tres hombres a los que con frecuencia se denomina los «padrinos del aprendizaje automático», los ganadores del premio Turing Yoshua Bengio, Geoffrey Hinton y Yann LeCun. Bengio, galardonado con el premio Future Perfect 2023, y Hinton se han convencido en los últimos años de que la tecnología que crearon puede matarnos a todos y han abogado por la regulación y la supervisión. Hinton renunció a Google en 2023 para hablar abiertamente sobre sus temores.

LeCun, quien es el científico jefe de IA en Meta, ha tomado la postura opuesta, declarando que tales preocupaciones son ciencia ficción sin sentido y que cualquier regulación estrangularía la innovación. Mientras que Bengio y Hinton apoyan el proyecto de ley, LeCun se opone a él, especialmente a la idea de que las empresas de IA deban afrontar responsabilidades si se utiliza IA en un evento con víctimas masivas.

En este sentido, la SB 1047 es el centro de un tira y afloja simbólico: ¿el gobierno se toma en serio las preocupaciones sobre la seguridad de la IA o no? El texto real del proyecto de ley puede ser limitado, pero en la medida en que sugiere que el gobierno está escuchando a la mitad de los expertos que piensan que la IA podría ser extraordinariamente peligrosa, las implicaciones son grandes.

Es ese sentimiento el que probablemente ha impulsado algunos de los cabildeos más feroces contra el proyecto de ley por parte de los capitalistas de riesgo Marc Andreessen y Ben Horowitz, cuya firma a16z ha estado trabajando incansablemente para acabar con el proyecto de ley, y algunos de los contactos sumamente inusuales con los legisladores federales para exigirles que se opongan a un proyecto de ley estatal. Es probable que la política más mundana también desempeñe un papel: Politico informó que Pelosi se opuso al proyecto de ley porque está tratando de cortejar a los capitalistas de riesgo tecnológicos para su hija, que probablemente se presentará contra Scott Wiener para un escaño en la Cámara de Representantes.

Por qué la SB 1047 es tan importante

Puede parecer extraño que la legislación de un solo estado de EE. UU. genere tanta inquietud entre la gente, pero recuerden: California no es un estado cualquiera. Es donde tienen su sede varias de las principales empresas de inteligencia artificial del mundo.

Y lo que sucede allí es especialmente importante porque, a nivel federal, los legisladores han estado dilatando el proceso de regulación de la IA. Entre la vacilación de Washington y la inminente elección, la aprobación de nuevas leyes está en manos de los estados. El proyecto de ley de California, si Newsom le da luz verde, sería una gran pieza de ese rompecabezas y marcaría la dirección para Estados Unidos en general.

El resto del mundo también está observando. “Los países de todo el mundo están estudiando estos borradores en busca de ideas que puedan influir en sus decisiones sobre las leyes de inteligencia artificial”, dijo Victoria Espinel, directora ejecutiva de Business Software Alliance, un grupo de presión que representa a las principales empresas de software, al New York Times en junio.

Incluso China —a menudo invocada como el fantasma de las conversaciones estadounidenses sobre el desarrollo de la IA (porque “no queremos perder una carrera armamentista con China”)— está mostrando señales de preocuparse por la seguridad, no solo de querer adelantarse. Proyectos de ley como el SB 1047 podrían transmitir a otros que a los estadounidenses también les importa la seguridad.

Francamente, es reconfortante ver que los legisladores se dan cuenta de la táctica favorita del mundo tecnológico: afirmar que puede autorregularse. Esta afirmación puede haber prevalecido en la era de las redes sociales, pero se ha vuelto cada vez más insostenible. Necesitamos regular a las grandes empresas tecnológicas. Eso significa no solo zanahorias, sino también palos.

Newsom tiene la oportunidad de hacer algo histórico. ¿Y si no lo hace? Bueno, se enfrentará a sus propios castigos. La encuesta del AI Policy Institute muestra que el 60 por ciento de los votantes están dispuestos a culparlo por futuros incidentes relacionados con la inteligencia artificial si veta la SB 1047. De hecho, lo castigarían en las urnas si se postulara para un cargo más alto: el 40 por ciento de los votantes de California dicen que sería menos probable que votaran por Newsom en una futura elección primaria presidencial si veta el proyecto de ley.