La IA es poderosa, peligrosa y controvertida. ¿Qué hará Donald Trump con ello?

En 2020, cuando Joe Biden ganó la Casa Blanca, la IA generativa todavía parecía un juguete inútil, no una nueva tecnología que cambiaría el mundo. El primer gran generador de imágenes de IA, DALL-E, no se lanzaría hasta enero de 2021, y ciertamente no dejaría a ningún artista sin trabajo, ya que todavía tenía problemas para generar imágenes básicas. Aún faltaban más de dos años para el lanzamiento de ChatGPT, que popularizó la IA de la noche a la mañana. Los resultados de búsqueda de Google basados ​​en inteligencia artificial que, nos guste o no, ahora son inevitables, habrían parecido inimaginables.

En el mundo de la IA, cuatro años es toda una vida. Ésa es una de las cosas que hace que las políticas y la regulación de la IA sean tan difíciles. Los engranajes de la política tienden a funcionar lentamente. Y cada cuatro u ocho años, avanzan a la inversa, cuando una nueva administración llega al poder con prioridades diferentes.

Eso funciona tolerablemente, por ejemplo, para nuestra regulación de alimentos y medicamentos, u otras áreas donde el cambio es lento y existe más o menos consenso bipartidista sobre políticas. Pero al regular una tecnología que es básicamente demasiado joven para ir al jardín de infantes, los responsables de las políticas enfrentan un difícil desafío. Y esto es aún más cierto cuando experimentamos un cambio brusco en quiénes son esos responsables de la formulación de políticas, como ocurrirá en Estados Unidos después de la victoria de Donald Trump en las elecciones presidenciales del martes.

Esta semana me acerqué a la gente para preguntarles: ¿Cómo será la política de IA bajo la administración Trump? Sus conjeturas estaban por todos lados, pero el panorama general es el siguiente: a diferencia de tantos otros temas, Washington aún no se ha polarizado completamente en la cuestión de la IA.

Entre los partidarios de Trump se incluyen miembros de la derecha tecnológica aceleracionista, liderada por el capitalista de riesgo Marc Andreessen, que se oponen ferozmente a la regulación de una nueva y apasionante industria.

Pero justo al lado de Trump está Elon Musk, quien apoyó la SB 1047 de California para regular la IA, y ha estado preocupado durante mucho tiempo de que la IA provoque el fin de la raza humana (una posición que es fácil de descartar como la clásica locura de Musk). pero en realidad es bastante común).

La primera administración de Trump fue caótica y contó con el ascenso y caída de varios jefes de gabinete y altos asesores. Muy pocas de las personas que estaban cerca de él al comienzo de su mandato todavía estaban allí en el amargo final. El rumbo de la política de IA en su segundo mandato puede depender de quién esté atento en los momentos cruciales.

La posición de la nueva administración respecto de la IA

En 2023, la administración Biden emitió una orden ejecutiva sobre la IA que, si bien en general modesta, marcó un esfuerzo temprano del gobierno para tomar en serio el riesgo de la IA. La plataforma de campaña de Trump dice que la orden ejecutiva “obstaculiza la innovación en IA e impone ideas radicales de izquierda sobre el desarrollo de esta tecnología” y ha prometido derogarla.

“Es probable que el primer día se derogue la orden ejecutiva de Biden sobre IA”, me dijo Samuel Hammond, economista senior de la Fundación para la Innovación Estadounidense, aunque añadió que “es incierto qué la reemplazará”. El Instituto de Seguridad de IA creado durante el gobierno de Biden, señaló Hammond, tiene “un amplio apoyo bipartidista”, aunque será responsabilidad del Congreso autorizarlo y financiarlo adecuadamente, algo que pueden y deben hacer este invierno.

Según se informa, hay borradores en la órbita de Trump de una propuesta de orden ejecutiva de reemplazo que creará un “Proyecto Manhattan” para la IA militar y construirá agencias lideradas por la industria para la evaluación y seguridad de modelos.

Más allá de eso, sin embargo, es difícil adivinar qué sucederá porque la coalición que llevó a Trump al poder está, de hecho, muy dividida en cuanto a la IA.

«La forma en que Trump aborde la política de IA ofrecerá una ventana a las tensiones en la derecha», dijo Hammond. “Hay gente como Marc Andreessen que quiere pisar el acelerador, y gente como Tucker Carlson a la que le preocupa que la tecnología ya avance demasiado rápido. JD Vance es un pragmático en estos temas y ve la IA y las criptomonedas como una oportunidad para romper el monopolio de las grandes tecnologías. Elon Musk quiere acelerar la tecnología en general y al mismo tiempo tomar en serio los riesgos existenciales de la IA. Todos están unidos contra la IA ‘despertada’, pero su agenda positiva sobre cómo manejar los riesgos de la IA en el mundo real es menos clara”.

El propio Trump no ha comentado mucho sobre la IA, pero cuando lo hizo (como lo hizo en una entrevista con Logan Paul a principios de este año) parecía familiarizado tanto con la perspectiva de “acelerar la defensa contra China” como con los temores de los expertos sobre la fatalidad. «Tenemos que estar a la vanguardia», afirmó. “Va a suceder. Y si eso va a suceder, tenemos que tomar la delantera sobre China”.

En cuanto a si se desarrollará una IA que actúe de forma independiente y tome el control, dijo: “Sabes, hay gente que dice que se apodera de la raza humana. Es algo realmente poderoso, la IA. Así que veamos cómo funciona todo”.

En cierto sentido, es una actitud increíblemente absurda sobre la posibilidad literal del fin de la raza humana (no se llega a ver cómo “funciona” una amenaza existencial), pero en otro sentido, Trump en realidad está adoptando una actitud bastante visión general aquí.

Muchos expertos en IA piensan que la posibilidad de que la IA se apodere de la raza humana es realista y que podría suceder en las próximas décadas, y también piensan que todavía no sabemos lo suficiente sobre la naturaleza de ese riesgo para formular políticas efectivas. a su alrededor. Así que, implícitamente, mucha gente tiene la política de “podría matarnos a todos, ¿quién sabe? Supongo que veremos qué pasa”, y Trump, como tantas veces demuestra serlo, es inusual sobre todo por simplemente salir y decirlo.

No podemos permitirnos la polarización. ¿Podemos evitarlo?

Ha habido muchos idas y venidas en torno a la IA, y los republicanos calificaron de tonterías las preocupaciones por la equidad y el sesgo, pero como observó Hammond, también hay bastante consenso bipartidista. Nadie en el Congreso quiere ver a Estados Unidos quedarse atrás militarmente o estrangular una nueva tecnología prometedora en su cuna. Y nadie quiere que se desarrollen armas extremadamente peligrosas sin la supervisión de empresas tecnológicas aleatorias.

El científico jefe de IA de Meta, Yann LeCun, quien es un crítico abierto de Trump, también es un crítico abierto de las preocupaciones sobre la seguridad de la IA. Musk apoyó el proyecto de ley de regulación de la IA de California, que era bipartidista y vetado por un gobernador demócrata, y, por supuesto, Musk también respaldó con entusiasmo a Trump para la presidencia. En este momento, es difícil trasladar las preocupaciones sobre la extremadamente poderosa IA al espectro político.

Pero eso es realmente algo bueno y sería catastrófico si eso cambiara. Con una tecnología en rápido desarrollo, el Congreso necesita poder formular políticas con flexibilidad y empoderar a una agencia para llevarlas a cabo. El partidismo hace que eso sea casi imposible.

Más que cualquier tema específico en la agenda, la mejor señal sobre la política de inteligencia artificial de la administración Trump será si continúa siendo bipartidista y centrada en las cosas en las que todos los estadounidenses, demócratas o republicanos, están de acuerdo, como eso que no queremos Todos mueren a manos de una IA superinteligente. Y la peor señal sería si las complejas cuestiones políticas que plantea la IA se redondearan a una visión general de que «la regulación es mala» o «el ejército es bueno», que pasa por alto los detalles.

Hammond, por su parte, se mostró optimista en cuanto a que la administración se está tomando la IA con la debida seriedad. «Están pensando en las cuestiones adecuadas a nivel de objeto, como las implicaciones para la seguridad nacional de que AGI esté dentro de unos años», dijo. Queda por ver si eso los llevará a adoptar las políticas correctas, pero también habría sido muy incierto en una administración de Harris.