Nota del editor, 28 de agosto, 7:50 p.m. ET: Esta historia se publicó originalmente el 19 de julio de 2024 y se actualizó para reflejar la noticia de que la SB 1047 se aprobó esta semana.
El senador estatal de California Scott Wiener (demócrata de San Francisco) es generalmente conocido por sus incansables proyectos de ley sobre vivienda y seguridad pública, un historial legislativo que lo convirtió en uno de los legisladores favoritos de la industria tecnológica.
Sin embargo, su presentación del proyecto de ley “Innovación segura y protegida para modelos de inteligencia artificial de vanguardia” provocó la ira de esa misma industria, y los pesos pesados del capital riesgo Andreessen-Horowitz e Y Combinator condenaron públicamente el proyecto de ley. Conocida como SB 1047, la legislación exige que las empresas capaciten a “modelos de vanguardia” que cuestan más de 100 millones de dólares para realizar pruebas de seguridad y poder apagar sus modelos en caso de un incidente de seguridad.
El martes, el proyecto de ley fue aprobado por la legislatura estatal de California por 41 votos a favor y 9 en contra, aunque con enmiendas que suavizaron un poco su influencia. Para que se convierta en ley estatal, necesita la firma del gobernador Gavin Newsom.
Hablé con Wiener en julio sobre la SB 1047 y sus críticos; nuestra conversación se encuentra a continuación (condensada para mayor extensión y claridad).
Kelsey Piper: Quería presentarles algunos de los desafíos que he escuchado sobre la SB 1047 y darles la oportunidad de responderlos. Creo que una categoría de preocupación aquí es que el proyecto de ley prohibiría usar un modelo públicamente, o ponerlo a disposición del público, si representa un riesgo irrazonable de daño crítico.
¿Qué es un riesgo irrazonable? ¿Quién decide qué es razonable? Gran parte de Silicon Valley es muy escéptica con respecto a los reguladores, por lo que no confía en que se utilice la discreción y no se abuse de ella.
Senador Scott Wiener: Para mí, la SB 1047 es un proyecto de ley de poca importancia en muchos sentidos. Es un proyecto de ley serio, es un proyecto de ley importante. Creo que es un proyecto de ley de gran impacto, pero no es radical. El proyecto de ley no exige una licencia. Hay personas, incluidos algunos directores ejecutivos, que han dicho que debería haber un requisito de licencia. Yo lo rechacé.
Hay gente que piensa que debería haber una responsabilidad estricta. Esa es la regla para la mayoría de las responsabilidades por productos. Yo la rechacé. (Las empresas de IA) no tienen que obtener permiso de una agencia para publicar el (modelo). Tienen que hacer las pruebas de seguridad que todas dicen que están haciendo actualmente o que tienen intención de hacer. Y si esas pruebas de seguridad revelan un riesgo significativo (y nosotros definimos esos riesgos como catastróficos), entonces hay que implementar medidas de mitigación. No para eliminar el riesgo, sino para tratar de reducirlo.
Hoy en día ya existen normas legales que establecen que si un desarrollador lanza un modelo y luego ese modelo termina siendo utilizado de una manera que daña a alguien o algo, se le puede demandar y probablemente se aplicará un criterio de negligencia sobre si actuó razonablemente. Es mucho, mucho más amplio que la responsabilidad que creamos en el proyecto de ley. En el proyecto de ley, solo el Fiscal General puede demandar, mientras que bajo la ley de responsabilidad civil cualquiera puede demandar. Los desarrolladores de modelos ya están sujetos a una responsabilidad potencial que es mucho más amplia que esto.
Sí, he visto algunas objeciones al proyecto de ley que parecen girar en torno a malentendidos sobre la legislación en materia de responsabilidad civil, como gente que dice: «Esto sería como hacer responsables a los fabricantes de motores de los accidentes automovilísticos».
Y lo son. Si alguien choca un automóvil y hubo algo en el diseño del motor que contribuyó a esa colisión, entonces se puede demandar al fabricante del motor. Habría que demostrar que cometió alguna negligencia.
He hablado sobre esto con fundadores de empresas emergentes, con capitalistas de riesgo y con gente de grandes empresas tecnológicas, y nunca he escuchado una refutación de la realidad de que la responsabilidad existe hoy en día y que la responsabilidad que existe hoy en día es profundamente más amplia.
Definitivamente escuchamos contradicciones. Algunas personas que se oponían decían: “Todo esto es ciencia ficción, cualquiera que se centre en la seguridad forma parte de una secta, no es real, las capacidades son muy limitadas”. Por supuesto que eso no es cierto. Estos son modelos poderosos con un enorme potencial para hacer del mundo un lugar mejor. Estoy muy entusiasmado con la IA. No soy un agorero en ningún sentido. Y luego dicen: “No podemos ser responsables si ocurren estas catástrofes”.
Otro desafío al proyecto de ley es que los desarrolladores de código abierto se han beneficiado mucho de que Meta haya lanzado Llama (el modelo de IA de código abierto, a veces llamado con licencia generosa) y, comprensiblemente, tienen miedo de que este proyecto de ley haga que Meta esté menos dispuesta a hacer lanzamientos en el futuro, por temor a la responsabilidad. Por supuesto, si un modelo es realmente extremadamente peligroso, nadie quiere que se lance. Pero la preocupación es que las preocupaciones podrían hacer que las empresas sean demasiado conservadoras.
En lo que respecta al código abierto, incluido Llama, pero no limitado a él, me he tomado muy en serio las críticas de la comunidad de código abierto. Interactuamos con personas de la comunidad de código abierto e hicimos modificaciones en respuesta directa a la comunidad de código abierto.
El requisito de la disposición de cierre (una disposición en el proyecto de ley que requiere que los desarrolladores de modelos tengan la capacidad de decretar un cierre total de un modelo cubierto, para poder «desenchufarlo» si las cosas van mal) estaba muy arriba en la lista de cosas que preocupaban a persona tras persona.
Hemos hecho una enmienda para dejar en claro que una vez que el modelo no está en tu posesión, no eres responsable de poder apagarlo. Las personas que usan código abierto para abrir un modelo no son responsables de poder apagarlo.
Y luego, la otra cosa que hicimos fue introducir una enmienda sobre las personas que estaban haciendo ajustes. Si se hacen más que cambios mínimos al modelo, o cambios significativos al modelo, entonces en algún momento se convierte efectivamente en un nuevo modelo y el desarrollador original ya no es responsable. Y hay algunas otras enmiendas menores, pero esas son las más importantes que hicimos en respuesta directa a la comunidad de código abierto.
Otro desafío que he escuchado es: ¿Por qué se centran en esto y no en todos los problemas más urgentes de California?
Cuando trabajas en cualquier tema, escuchas a la gente decir: «¿No tienes cosas más importantes en las que trabajar?» Sí, trabajo incesantemente en materia de vivienda. Trabajo en salud mental y tratamiento de adicciones. Trabajo incesantemente en seguridad pública. Tengo un proyecto de ley sobre robos en automóviles y un proyecto de ley sobre personas que venden bienes robados en las calles. Y también estoy trabajando en un proyecto de ley para asegurarnos de que fomentemos la innovación en inteligencia artificial y lo hagamos de manera responsable.
Como responsable de la formulación de políticas, he sido un firme defensor de la tecnología. Soy un defensor de nuestro entorno tecnológico, que a menudo se ve atacado. He apoyado la ley de neutralidad de la red de California, que promueve una Internet abierta y libre.
Pero también he visto que, con la tecnología, no logramos adelantarnos a problemas que a veces son muy obvios. Lo hicimos con la privacidad de los datos. Finalmente, aquí en California, logramos aprobar una ley de privacidad de datos y, para que conste, la oposición a esa ley decía lo mismo: que destruiría la innovación y que nadie querría trabajar aquí.
Mi objetivo aquí es crear un montón de espacio para la innovación y, al mismo tiempo, promover la implementación, la capacitación y la liberación responsables de estos modelos. Este argumento de que esto va a aplastar la innovación, de que va a expulsar a las empresas de California, lo escuchamos nuevamente en casi todos los proyectos de ley. Pero creo que es importante entender que este proyecto de ley no solo se aplica a las personas que desarrollan sus modelos en California, sino a todos los que hacen negocios en California. Por lo tanto, puedes estar en Miami, pero a menos que vayas a desconectarte de California, y no lo harás, tienes que hacerlo.
Quería hablar de uno de los elementos interesantes del debate sobre este proyecto de ley, que es el hecho de que es muy popular en todas partes, excepto en Silicon Valley. Fue aprobado por el Senado estatal por 32 votos a favor y uno en contra, con aprobación bipartidista. El 77 por ciento de los californianos está a favor según una encuesta, y más de la mitad está firmemente a favor.
Pero la gente que lo odia está en San Francisco. ¿Cómo es que esto terminó siendo tu proyecto de ley?
En cierto modo, soy el mejor autor de este proyecto de ley, en representación de San Francisco, porque estoy rodeado e inmerso en la IA. La historia del origen de este proyecto de ley fue que comencé a hablar con un grupo de tecnólogos de IA de primera línea, fundadores de empresas emergentes. Esto fue a principios de 2023, y comencé a tener una serie de salones y cenas con gente de IA. Y algunas de estas ideas comenzaron a tomar forma. Entonces, en cierto modo, soy el mejor autor porque tengo acceso a personas increíblemente brillantes en tecnología. En otro sentido, soy el peor autor porque tengo gente en San Francisco que no está contenta.
Hay algo con lo que lucho como periodista, que es transmitir a las personas que no están en San Francisco, que no participan en esas conversaciones, que la IA es algo muy, muy grande, de mucho riesgo.
Es muy emocionante, porque cuando uno empieza a intentar imaginarse, ¿podríamos tener una cura para el cáncer? ¿Podríamos tener tratamientos altamente efectivos para una amplia gama de virus? ¿Podríamos tener avances en energía limpia que nadie hubiera imaginado? Hay muchas posibilidades emocionantes.
Pero toda tecnología poderosa conlleva riesgos. (Este proyecto de ley) no tiene como objetivo eliminar los riesgos. La vida es un asunto de riesgos. Pero, ¿cómo podemos asegurarnos de que al menos tengamos los ojos bien abiertos? De que entendamos ese riesgo y de que, si hay una manera de reducirlo, la asumamos.
Eso es todo lo que pedimos con este proyecto de ley, y creo que la gran mayoría de la gente lo apoyará.