Es posible que haya escuchado la idea de que la IA es un «loro estocástico», que nos repite mecánicamente nuestras palabras sin realmente entenderlas. Pero Shannon Vallor, filósofa de la tecnología de la Universidad de Edimburgo, cree que hay una metáfora mejor: la IA, dice, es un espejo.
Después de todo, un loro es otra mente; no exactamente como la nuestra, pero sí una mente sensible. Un modelo de lenguaje grande como ChatGPT no lo es. Nos refleja nuestras propias imágenes, palabras y cualquier otra cosa que hayamos incluido en sus datos de entrenamiento. Cuando nos involucramos con él, nos parecemos mucho a Narciso, el niño mítico que ve su hermoso reflejo en el agua y queda paralizado por él, pensando que es otra persona.
En su nuevo libro El espejo de la IAVallor sostiene que es nuestra tendencia a percibir erróneamente la IA como una mente -y a pensar que puede incluso tener la capacidad de ser más moral que nosotros porque es más «objetiva» y «racional»- lo que plantea un riesgo existencial real para la humanidad, no cualquier cosa que la propia IA pueda hacer.
Hablé con Vallor sobre qué cree exactamente que es el riesgo, qué cree que le está haciendo a la agencia humana y cómo alimenta el transhumanismo, el movimiento que dice que los humanos deberían usar la tecnología de manera proactiva para aumentar y evolucionar nuestra especie. Aquí hay una transcripción de nuestra conversación, editada para mayor extensión y claridad.
No eres el tipo de persona que se mantiene despierta por la noche por temor a que la IA se convierta en una mente consciente que decida maliciosamente esclavizarnos a todos. Pero usted sostiene que la IA plantea un riesgo existencial real. ¿Qué es?
El riesgo del que hablo es existencial en el sentido filosófico de atacar realmente el núcleo de los seres humanos y nuestra capacidad de darle sentido a nuestra existencia. Uno de los desafíos fundamentales de ser un ser humano, pero también lo que a menudo atesoramos, es que no estamos atrapados en un conjunto de reflejos o respuestas sin sentido; que, de hecho, podemos usar la cognición para romper con nuestros hábitos. y los guiones sociales a los que estamos acostumbrados, y optamos por avanzar en nuevas direcciones. Podemos elegir nuevos patrones morales para la sociedad, nuevas estructuras o normas políticas.
En cada punto de la historia de la humanidad vemos momentos en los que individuos o comunidades optaron por alterar el patrón. Pero eso requiere confianza en nosotros mismos, en los demás, en el poder de la acción humana para lograrlo. Y también una especie de reivindicación moral sobre nuestro derecho a tener ese poder.
Una cosa que escucho en todos los países a los que viajo para hablar sobre la IA es: ¿Son los humanos realmente diferentes de la IA? ¿No somos, al fin y al cabo, sólo máquinas de texto predictivo? ¿Alguna vez estamos haciendo algo más que comparar y generar patrones?
Esa estrategia retórica es en realidad lo que me asusta. No son las máquinas en sí. Es la retórica de la IA actual la que trata de obligar a los humanos a entregar su propio poder y su propia confianza en su agencia y libertad. Esa es la amenaza existencial, porque eso es lo que permitirá a los humanos sentir que podemos quitar las manos del volante y dejar que la IA conduzca.
Y en algunos sectores la retórica no es sólo que podemos, sino que debería Dejemos que la IA piense detenidamente y tome las grandes decisiones, porque la IA es supuestamente más racional, más objetivo.
Exactamente, y que de alguna manera no logras ser eficiente, no cooperas con el progreso, no logras permitir la innovación, si no estás de acuerdo con esto.
Cuando escribes sobre esta pérdida de confianza en la acción humana, recurres a los existencialistas, quienes argumentan que no hay un significado intrínseco en la vida: es algo que los humanos deben elegir cómo crear. Se basa especialmente en José Ortega y Gasset, un filósofo español de principios del siglo XX, y su noción de “autofabricación.” ¿Por qué es esta una idea clave para usted en el contexto de la IA?
Ortega pensó en el problema central del significado humano, que es que tenemos que crearlo nosotros mismos. Y eso es lo que quiso decir con autofabricación, que literalmente significa simplemente autofabricación. Dijo que ésta es la condición humana fundamental: hacernos a nosotros mismos una y otra vez. El trabajo nunca se detiene, porque nuestro equipo cognitivo tiene la capacidad de llevarnos a un reino de autoconciencia tal que podemos ver lo que estamos haciendo y decidir cambiarlo.
Esa libertad también es, desde un punto de vista existencial, una especie de carga, ¿verdad? La autofabricación es algo que requiere bastante coraje y fuerza, porque lo más fácil es dejar que otra persona te diga que el guión es definitivo y que no puedes cambiarlo, así que lo mejor es seguirlo y luego no. No tienes que cargarte con la responsabilidad de decidir cómo será el futuro para ti o para cualquier otra persona.
Entonces, lo que nos dice esa retórica en torno a la IA es que renunciemos a nuestra libertad humana, y para mí eso es una violación tan profunda de lo bueno de ser humano. La idea de que deberíamos renunciar a eso significaría renunciar a la posibilidad de crecimiento artístico, de crecimiento político, de crecimiento moral, y no creo que debamos hacer eso.
Una de las formas en que aparece esta retórica es en el campo de la “ética de las máquinas”: el esfuerzo por construir Máquinas morales que pueden servir como nuestros asesores éticos.. Los transhumanistas son especialmente optimistas acerca de este proyecto. El filósofo Eric Dietrich incluso argumenta que deberíamos construir “los mejores robots de nuestra naturaleza” (máquinas que puedan superarnos moralmente) y luego entregar el mundo al “homo sapiens 2.0”. ¿Cuál es tu lectura sobre eso?
He sido escéptico sobre el proyecto de las máquinas morales, porque por lo general termina simplemente tratando de generar juicios morales de forma colectiva (y entrenar a la IA en esas intuiciones humanas), ¡pero el punto es que la multitud no siempre tiene la razón! Por lo tanto, es muy peligroso recurrir a juicios morales mediante crowdsourcing. Si estuvieras utilizando una máquina moral de colaboración colectiva que estuviera agregando juicios morales en la Alemania nazi y luego intentaras automatizar decisiones en otros lugares con eso, estarías contribuyendo a la expansión de una empresa moralmente criminal.
El crowdsourcing parece un enfoque problemático, pero si no nos basamos en lo que piensa la población general, ¿qué estamos haciendo? ¿Estamos proponiendo seguir a unos cuantos reyes filósofos, en cuyo caso puede haber preocupaciones de que eso sea antidemocrático?
Creo que siempre ha habido un camino mejor: que la moralidad siga siendo un territorio en disputa. Tiene que estar abierto al desafío. Comprender lo que es vivir bien con los demás y lo que nos debemos unos a otros: esa conversación nunca puede detenerse. Por eso soy muy reacio a seguir desarrollando máquinas diseñadas para encontrar una respuesta óptima y detenerme allí.
Correcto, simplemente operar dentro de lo que la gente dice sobre las normas morales hoy en día parece muy diferente de lo que usted llama «estar en el espacio de las razones morales». Explica lo que quieres decir con eso.
El “espacio de razones” fue un concepto desarrollado por el filósofo Wilfrid Sellars. Es el ámbito en el que podemos explorar las razones de cada uno para creer en algo, donde podemos justificarnos y buscar la justificación unos de otros. Posteriormente, otros filósofos adaptaron su idea del espacio lógico de las razones para poder pensar en el espacio moral de las razones, porque también hacemos esto en la moralidad: cuando hacemos reclamos morales unos sobre otros, especialmente si son nuevos y desconocidos, tenemos que justificarlos. Nuestras razones tienen que ser accesibles unos a otros, para que podamos descubrir lo que reconocemos y aceptamos conjuntamente.
Creo que si tuviéramos una máquina verdaderamente moral, sería capaz de estar en ese espacio con nosotros. Sería capaz de articular razones y apreciar nuestras razones, y negociar esas razones con nosotros de una manera que no reflejara simplemente el consenso que ya habíamos alcanzado. Porque cualquier máquina que simplemente vaya a reflejar el patrón moral familiar puede meterse en problemas si terminamos en una situación en la que el entorno ha cambiado o es nuevo de alguna manera.
Esto me recuerda una virtud particular sobre la que escribes mucho: sabiduría práctica o phrónesispara usar el término griego antiguo. ¿Qué es eso y por qué es tan crucial?
Aristóteles escribió que construimos virtudes, como la honestidad, mediante la práctica y la habituación. Mentir es mucho más fácil y consigue lo que quieres, pero una vez que adquieres el hábito de decir la verdad, puedes desarrollar un carácter en el que ser sincero es lo que resulta fácil, e incluso es posible que tengas que luchar en el raro caso de que necesitas decir una mentira.
Pero hay momentos en los que depender de esos hábitos que has adquirido en realidad puede resultar perjudicial, porque algo en la situación es nuevo y es posible que tu antiguo hábito no se adapte bien a la situación actual. La sabiduría es la virtud intelectual que te permite reconocer eso y cambiar tu respuesta cultivada por algo mejor. Por ejemplo, en el movimiento por los derechos civiles, la gente podía decir: normalmente, seguir la ley es lo moral, pero ahora nos damos cuenta de que no lo es y, de hecho, la desobediencia civil en este contexto es moralmente necesaria.
La sabiduría práctica se construye con la práctica al igual que todas las demás virtudes, por lo que si no tienes la oportunidad de razonar y no tienes práctica para deliberar sobre ciertas cosas, no podrás deliberar bien más adelante. Necesitamos mucho ejercicio cognitivo para desarrollar la sabiduría práctica y retenerla. Y hay motivos para preocuparse de que la automatización cognitiva nos prive de la oportunidad de desarrollar y retener esos músculos cognitivos. Ése es el riesgo de una pérdida de habilidades intelectuales y morales. Ya está sucediendo y creo que tenemos que resistirlo.
Cuando intento ofrecer una lectura benéfica sobre la tendencia transhumanista que estamos viendo, creo que la emoción central subyacente es vergüenza por la condición humana. Y después de dos guerras mundiales, el uso de armas nucleares, una crisis climática, etc., tiene sentido que la humanidad sienta esta vergüenza. Entonces puedo entender psicológicamente cómo podría haber un impulso de huir de toda esa humanidad y avanzar hacia máquinas que creemos que serán más objetivas, aunque no esté de acuerdo con ello.
Y creo que el lugar donde lucho es: ¿cómo sabemos hasta qué punto tiene sentido transformarnos usando la tecnología, sin hundirnos en un profundo antihumanismo?
Hay una especie de vacío en el transhumanismo en el sentido de que no sabe lo que tenemos que desear, sólo desea el poder de crear algo más: crear libertad a partir de nuestros cuerpos, de la muerte, de nuestras limitaciones. Pero siempre es libertad de, pero nunca libertad para. ¿Libertad para qué? ¿Cuál es la visión positiva hacia la que queremos avanzar?
Tengo un profundo optimismo sobre la condición humana. Creo que la moralidad no está impulsada sólo por el miedo: está impulsada aún más por el amor, por la experiencia del cuidado mutuo y la solidaridad. Nuestra primera experiencia del bien es ser cuidado por otra persona, ya sea una madre, un padre o una enfermera. Para mí, todo lo demás se trata simplemente de intentar lograrlo en formas nuevas y más amplias. Entonces para mí hay una libertad. paray tiene sus raíces en lo que significa ser un animal humano.
¿Podría haber otras criaturas mejores que nosotros? De hecho, creo que es una pregunta que no tiene sentido. ¿Mejor que qué? Puede que sean mejores siendo lo que son, pero creo que la moralidad tiene sus raíces en una forma particular de existencia que tienes. Existimos como un tipo particular de animal social, vulnerable e interdependiente con un exceso de energía cognitiva. Todas esas cosas influyen en lo que es ser moral como ser humano. Para mí, esta abstracción (la idea de una moralidad universal pura de que criaturas que son completamente diferentes a nosotros podrían de alguna manera hacerlo mejor que nosotros) creo que simplemente malinterpreta fundamentalmente qué es la moralidad.