¿Cómo sabríamos si la IA se volviera rebelde?

A medida que la frontera de la inteligencia artificial avanza a un ritmo vertiginoso, el gobierno de Estados Unidos lucha por mantenerse al día. Como trabajo en políticas de IA en Washington, DC, puedo decirles que antes de que podamos decidir cómo gobernar los sistemas de IA de vanguardia, primero debemos verlos con claridad. En este momento, estamos navegando en la niebla.

Mi función como investigadora de políticas de IA en la Federación de Científicos Estadounidenses (FAS) implica desarrollar ideas bipartidistas para mejorar la capacidad del gobierno de analizar los sistemas actuales y futuros. En este trabajo, interactúo con expertos del gobierno, la academia, la sociedad civil y la industria de la IA. Lo que he aprendido es que no hay un amplio consenso sobre cómo gestionar los riesgos potenciales de los sistemas de IA innovadores sin obstaculizar la innovación. Sin embargo, hay un amplio acuerdo en que el gobierno de los EE. UU. necesita mejor información sobre las tecnologías y prácticas de las empresas de IA, y más capacidad para responder a los riesgos tanto catastróficos como más insidiosos a medida que surgen. Sin un conocimiento detallado de las últimas capacidades de la IA, los responsables de las políticas no pueden evaluar eficazmente si las regulaciones actuales son suficientes para prevenir usos indebidos y accidentes, o si las empresas necesitan tomar medidas adicionales para salvaguardar sus sistemas.

En lo que respecta a la energía nuclear o la seguridad de las aerolíneas, el gobierno federal exige información oportuna a las empresas privadas de esos sectores para garantizar el bienestar público. Necesitamos la misma información en el campo emergente de la inteligencia artificial. De lo contrario, esta brecha de información podría dejarnos vulnerables a riesgos imprevistos para la seguridad nacional o dar lugar a políticas excesivamente restrictivas que sofoquen la innovación.

Es alentador que el Congreso esté logrando avances graduales en la mejora de la capacidad del gobierno para comprender y responder a los nuevos avances en materia de IA. Desde el debut de ChatGPT a fines de 2022, los legisladores de ambos partidos y ambas cámaras del Capitolio han tomado la IA más en serio. La Cámara de Representantes formó un grupo de trabajo bipartidista sobre IA con una directiva para equilibrar la innovación, la seguridad nacional y la protección. El líder de la mayoría del Senado, Chuck Schumer (demócrata por Nueva York), organizó una serie de foros de información sobre IA para recopilar información externa y sentar las bases para la política de IA. Estos eventos sirvieron de base para la hoja de ruta de IA del grupo de trabajo bipartidista del Senado, que describió áreas de consenso, incluido el «desarrollo y la estandarización de metodologías y mecanismos de evaluación y prueba de riesgos» y un Centro de análisis e intercambio de información centrado en la IA.

Se han presentado varios proyectos de ley que mejorarían el intercambio de información sobre IA y reforzarían las capacidades de respuesta del gobierno. La Ley de Investigación, Innovación y Responsabilidad en IA del Senado, de carácter bipartidista, exigiría a las empresas que presentaran evaluaciones de riesgos al Departamento de Comercio antes de implementar sistemas de IA que puedan afectar a la infraestructura crítica, la justicia penal o la identificación biométrica. Otro proyecto de ley bipartidista, la Ley VET AI (que el FAS respaldó), propone un sistema para que evaluadores independientes auditen y verifiquen el cumplimiento de las directrices establecidas por parte de las empresas de IA, de forma similar a las prácticas existentes en la industria financiera. Estos proyectos de ley fueron aprobados por el comité de Comercio del Senado en julio y podrían recibir una votación en el pleno del Senado antes de las elecciones de 2024.

También se han producido avances prometedores en otras partes del mundo. En mayo, los gobiernos del Reino Unido y Corea anunciaron que la mayoría de las principales empresas de IA del mundo habían acordado un nuevo conjunto de compromisos voluntarios de seguridad en la Cumbre de IA de Seúl. Estos compromisos incluyen la identificación, evaluación y gestión de los riesgos asociados con el desarrollo de los modelos de IA más avanzados, basándose en las Políticas de Escala Responsable de las empresas, iniciadas el año pasado, que proporcionan una hoja de ruta para la mitigación de riesgos futuros a medida que se desarrollan las capacidades de IA. Los desarrolladores de IA también acordaron proporcionar transparencia sobre sus enfoques para la seguridad de la IA de frontera, incluido «compartir información más detallada que no se puede compartir públicamente con actores de confianza, incluidos sus respectivos gobiernos de origen».

Sin embargo, estos compromisos carecen de mecanismos de cumplimiento y de requisitos de presentación de informes estandarizados, lo que dificulta evaluar si las empresas los cumplen o no.

Incluso algunos líderes de la industria han expresado su apoyo a una mayor supervisión gubernamental. Sam Altman, director ejecutivo de OpenAI, enfatizó este punto a principios del año pasado en un testimonio ante el Congreso, al afirmar: “Creo que si esta tecnología sale mal, puede salir muy mal, y queremos ser francos al respecto. Queremos trabajar con el gobierno para evitar que eso suceda”. Dario Amodei, director ejecutivo de Anthropic, ha llevado ese sentimiento un paso más allá; después de la publicación de la Política de Escala Responsable de Anthropic, expresó su esperanza de que los gobiernos conviertan los elementos de la política en “regímenes de prueba y auditoría bien diseñados con rendición de cuentas y supervisión”.

A pesar de estas señales alentadoras de Washington y del sector privado, el gobierno estadounidense sigue teniendo importantes lagunas en su capacidad para comprender y responder a los rápidos avances en la tecnología de la IA. En concreto, tres áreas críticas requieren atención inmediata: la protección de la investigación independiente sobre la seguridad de la IA, los sistemas de alerta temprana para mejorar las capacidades de la IA y los mecanismos integrales de notificación de incidentes de IA en el mundo real. Abordar estas lagunas es fundamental para proteger la seguridad nacional, fomentar la innovación y garantizar que el desarrollo de la IA favorezca el interés público.

Un puerto seguro para la investigación independiente sobre seguridad de la IA

Las empresas de IA suelen desalentar o incluso amenazar con prohibir el uso de sus productos a los investigadores que identifican fallas de seguridad, lo que crea un efecto amedrentador sobre la investigación independiente esencial. Esto deja al público y a los responsables de las políticas en la ignorancia sobre los posibles peligros de los sistemas de IA ampliamente utilizados, incluidas las amenazas a la seguridad nacional de Estados Unidos. La investigación independiente es vital porque proporciona un control externo de las afirmaciones realizadas por los desarrolladores de IA, lo que ayuda a identificar riesgos o limitaciones que pueden no ser evidentes para las propias empresas.

Una propuesta importante para abordar esta cuestión es que las empresas deberían ofrecer un puerto seguro legal e incentivos financieros para la investigación de buena fe sobre la seguridad y la fiabilidad de la IA. El Congreso podría ofrecer recompensas por “errores” a los investigadores de seguridad de la IA que identifiquen vulnerabilidades y ampliar las protecciones legales a los expertos que estudien plataformas de IA, similares a las propuestas para los investigadores de las redes sociales en la Ley de Responsabilidad y Transparencia de las Plataformas. En una carta abierta a principios de este año, más de 350 investigadores y defensores destacados pidieron a las empresas que otorgaran esas protecciones a los investigadores de seguridad, pero ninguna empresa lo ha hecho todavía.

Con estas protecciones e incentivos, miles de investigadores estadounidenses podrían tener la capacidad de realizar pruebas de estrés a los sistemas de IA, lo que permitiría realizar evaluaciones en tiempo real de los productos y sistemas de IA. El Instituto de Seguridad de la IA de Estados Unidos ha incluido protecciones similares para los investigadores de IA en sus directrices preliminares sobre “Gestión del riesgo de uso indebido de los modelos básicos de doble uso”, y el Congreso debería considerar la posibilidad de codificar estas mejores prácticas.

Un sistema de alerta temprana para mejoras en la capacidad de la IA

El enfoque del gobierno estadounidense para identificar y responder a las capacidades potencialmente peligrosas de los sistemas de IA de vanguardia es limitado y es poco probable que pueda seguir el ritmo de las nuevas capacidades de IA si continúan aumentando rápidamente. La brecha de conocimiento dentro de la industria deja a los responsables de las políticas y a las agencias de seguridad sin preparación para abordar los riesgos emergentes de la IA. Peor aún, las posibles consecuencias de esta asimetría se agravarán con el tiempo a medida que los sistemas de IA se vuelvan más riesgosos y se utilicen más ampliamente.

El establecimiento de un sistema de alerta temprana de inteligencia artificial proporcionaría al gobierno la información que necesita para anticiparse a las amenazas de la inteligencia artificial. Un sistema de este tipo crearía un canal formal para que los desarrolladores de inteligencia artificial, los investigadores y otras partes pertinentes informen al gobierno sobre las capacidades de inteligencia artificial que tienen aplicaciones tanto civiles como militares (como la mejora de la investigación de armas biológicas o los delitos cibernéticos). La Oficina de Industria y Seguridad del Departamento de Comercio podría servir como centro de intercambio de información, recibiendo, clasificando y enviando estos informes a otras agencias pertinentes.

Este enfoque proactivo proporcionaría a las partes interesadas del gobierno información actualizada sobre las últimas capacidades de la IA, lo que les permitiría evaluar si las regulaciones actuales son suficientes o si se necesitan nuevas salvaguardas. Por ejemplo, si los avances en los sistemas de IA plantearan un mayor riesgo de ataques con armas biológicas, se alertaría rápidamente a las partes pertinentes del gobierno, lo que permitiría una respuesta rápida para salvaguardar el bienestar público.

Mecanismos de notificación de incidentes de IA en el mundo real

Actualmente, el gobierno de Estados Unidos carece de una comprensión integral de los incidentes adversos en los que los sistemas de IA han causado daños, lo que dificulta su capacidad de identificar patrones de uso riesgoso, evaluar las directrices gubernamentales y responder a las amenazas de manera eficaz. Este punto ciego deja a los responsables de las políticas mal equipados para diseñar medidas de respuesta oportunas e informadas.

La creación de un centro nacional de notificación voluntaria de incidentes de IA crearía un canal estandarizado para que las empresas, los investigadores y el público informen de forma confidencial sobre incidentes de IA, incluidos fallos del sistema, accidentes, uso indebido y posibles peligros. Este centro estaría ubicado en el Instituto Nacional de Normas y Tecnología, y aprovecharía la experiencia existente en materia de notificación de incidentes y establecimiento de normas, evitando al mismo tiempo las obligaciones, lo que fomentaría la participación colaborativa de la industria.

La combinación de estos datos del mundo real sobre incidentes adversos de IA con capacidades prospectivas de generación de informes y protección de investigadores permitiría al gobierno desarrollar respuestas políticas mejor informadas a los problemas emergentes de IA y empoderar aún más a los desarrolladores para comprender mejor las amenazas.

Estas tres propuestas logran un equilibrio entre la supervisión y la innovación en el desarrollo de la IA. Al incentivar la investigación independiente y mejorar la visibilidad del gobierno sobre las capacidades y los incidentes de IA, podrían respaldar tanto la seguridad como el avance tecnológico. El gobierno podría fomentar la confianza pública y potencialmente acelerar la adopción de la IA en todos los sectores, al tiempo que evitaría la reacción regulatoria que podría seguir a incidentes prevenibles de alto perfil. Los responsables de las políticas podrían elaborar regulaciones específicas que aborden riesgos específicos (como las amenazas cibernéticas potenciadas por la IA o el posible uso indebido en infraestructura crítica), al tiempo que preservan la flexibilidad necesaria para la innovación continua en campos como el diagnóstico de la atención médica y el modelado climático.

Para aprobar leyes en estas áreas se requiere la cooperación bipartidista en el Congreso. Las partes interesadas de la industria, el mundo académico y la sociedad civil deben abogar por este proceso y participar en él, ofreciendo su experiencia para perfeccionar e implementar estas propuestas. Hay un breve margen de acción en lo que queda del 118.º Congreso, con la posibilidad de incorporar algunas políticas de transparencia en materia de IA a leyes que deben aprobarse obligatoriamente, como la Ley de Autorización de Defensa Nacional. El tiempo avanza y una acción rápida y decisiva ahora podría sentar las bases para una mejor gobernanza de la IA en los próximos años.

Imaginemos un futuro en el que nuestro gobierno tenga las herramientas para comprender y guiar responsablemente el desarrollo de la IA y un futuro en el que podamos aprovechar el potencial de la IA para resolver grandes desafíos y, al mismo tiempo, protegernos de los riesgos. Este futuro está a nuestro alcance, pero solo si actuamos ahora para aclarar la situación y agudizar nuestra visión colectiva de cómo se desarrolla y se utiliza la IA. Al mejorar nuestra comprensión y supervisión colectivas de la IA, aumentamos nuestras posibilidades de dirigir esta poderosa tecnología hacia resultados beneficiosos para la sociedad.