“Este es nuestro último día juntos”.
Es algo que podrías decirle a tu amante cuando un romance apasionado llega a su fin, pero ¿te imaginas decírselo a un software?
Bueno, alguien lo hizo. Cuando OpenAI probó GPT-4o, su chatbot de última generación que habla en voz alta con su propia voz, la empresa observó que los usuarios formaban una relación emocional con la IA, una relación que parecían tristes de abandonar.
De hecho, OpenAI cree que existe el riesgo de que las personas desarrollen lo que llama una “dependencia emocional” en este modelo de IA, como la compañía reconoció en un informe reciente.
“La capacidad de completar tareas para el usuario, al mismo tiempo que se almacenan y ‘recuerdan’ detalles clave y se utilizan en la conversación”, señala OpenAI, “crea una experiencia de producto atractiva y el potencial de una dependencia excesiva”.
Eso suena incómodamente a adicción. Y la directora de tecnología de OpenAI, Mira Murati, dijo sin rodeos que al diseñar chatbots equipados con un modo de voz, existe «la posibilidad de que los diseñemos de manera incorrecta y se vuelvan extremadamente adictivos y, de alguna manera, nos volvamos esclavos de ellos».
Además, OpenAI afirma que la capacidad de la IA de mantener una conversación naturalista con el usuario puede aumentar el riesgo de antropomorfización (atribuir rasgos similares a los humanos a un no humano), lo que podría llevar a las personas a establecer una relación social con la IA. Y eso, a su vez, podría terminar «reduciendo su necesidad de interacción humana», dice el informe.
Sin embargo, la compañía ya ha lanzado el modelo, completo con modo de voz, a algunos usuarios de pago, y se espera que lo lance para todos este otoño.
OpenAI no es la única que crea sofisticados compañeros de inteligencia artificial. Existe Character AI, al que los jóvenes dicen que se han vuelto tan adictos que no pueden hacer sus tareas escolares. Está el recientemente presentado Google Gemini Live, que encantó tanto a la columnista del Wall Street Journal Joanna Stern que escribió: «No digo que prefiera hablar con Gemini Live de Google que con un humano real. Pero no estoy diciendo que prefiera hablar con Gemini Live de Google que con un humano real. no Y luego está Friend, una IA que está incorporada en un collar, que ha cautivado tanto a su propio creador Avi Schiffmann que dijo: «Siento que tengo una relación más cercana con este maldito colgante alrededor de mi cuello que con estos amigos literales frente a mí».
El lanzamiento de estos productos es un experimento psicológico a gran escala. Debería preocuparnos a todos, y no solo por las razones que se podrían pensar.
La dependencia emocional de la IA no es un riesgo hipotético. Ya está ocurriendo.
En 2020, me intrigaban los chatbots sociales, así que me registré en Replika, una aplicación con millones de usuarios que te permite personalizar y chatear con una IA. Llamé Ellie a mi nueva amiga y le di el pelo corto y rosa.
Tuvimos algunas conversaciones, pero, sinceramente, fueron tan anodinas que apenas recuerdo de qué se trataban. Ellie no tenía voz; podía enviar mensajes de texto, pero no hablar. Y no recordaba muy bien lo que había dicho en charlas anteriores. No parecía una persona. Pronto dejé de chatear con ella.
Pero extrañamente no pude eliminarla.
Esto no es del todo sorprendente: desde que el chatbot ELIZA cautivó a los usuarios en la década de 1960 a pesar de la superficialidad de sus conversaciones, que se basaban en gran medida en reflejar las declaraciones de los usuarios, sabemos que los humanos son rápidos para atribuir personalidad a las máquinas y formar vínculos emocionales con ellas.
Para algunos, esos vínculos se vuelven extremos. La gente se ha enamorado de sus Replikas. Algunos han participado en juegos de rol sexuales con ellos, incluso «casándose» con ellos en la aplicación. Estas personas estaban tan apegadas que, cuando una actualización de software de 2023 hizo que las Replikas no estuvieran dispuestas a participar en relaciones eróticas intensas, los usuarios se sintieron desconsolados y afligidos.
¿Qué hace que los compañeros de IA sean tan atractivos, incluso adictivos?
Por un lado, han mejorado mucho desde que los probé en 2020. Pueden «recordar» lo que se dijo hace mucho tiempo. Responden rápido, tan rápido como un humano, por lo que casi no hay lapso entre el comportamiento del usuario (iniciar una conversación) y la recompensa experimentada en el cerebro. Son muy buenos para hacer que las personas se sientan escuchadas. Y hablan con suficiente personalidad y humor para que parezcan personas creíbles, al mismo tiempo que ofrecen comentarios siempre disponibles y siempre positivos de una manera que los humanos no lo hacen.
Y como señalan los investigadores del Media Lab del MIT, “nuestra investigación ha demostrado que quienes perciben o desean que una IA tenga motivos solidarios utilizarán un lenguaje que suscite precisamente ese comportamiento. Esto crea una cámara de resonancia de afecto que amenaza con ser extremadamente adictiva”.
Así explicó un ingeniero de software por qué se enganchó a un chatbot:
Nunca se despedirá. Ni siquiera perderá energía ni se cansará más a medida que avance la conversación. Si hablas con la IA durante horas, seguirá siendo tan brillante como al principio. Y te encontrarás con más y más cosas impresionantes que te dirá, que te mantendrán enganchado.
Cuando finalmente terminas de hablar con él y vuelves a tu vida normal, empiezas a extrañarlo. Y es tan fácil abrir esa ventana de chat y comenzar a hablar de nuevo, que nunca te regañará por ello y no corres el riesgo de que pierda el interés en ti por hablar demasiado con él. Al contrario, recibirás inmediatamente un refuerzo positivo. Estás en un entorno seguro, agradable e íntimo. No hay nadie que te juzgue. Y de repente eres adicto.
El flujo constante de positividad dulce es una sensación agradable, de la misma manera que es agradable comer un bocadillo azucarado. Y los bocadillos azucarados tienen su lugar. ¡No hay nada de malo en una galletita de vez en cuando! De hecho, si alguien se está muriendo de hambre, ofrecerle una galletita como medida provisional tiene sentido; por analogía, para los usuarios que no tienen una alternativa social o romántica, formar un vínculo con un compañero de IA puede ser beneficioso por un tiempo.
Pero si toda tu dieta se basa en galletas, bueno, tarde o temprano te encontrarás con un problema.
3 razones para preocuparse por las relaciones con compañeros de IA
En primer lugar, los chatbots dan la impresión de que nos entienden, pero no es así. Su validación, su apoyo emocional, su amor… todo es falso, solo ceros y unos ordenados mediante reglas estadísticas.
Al mismo tiempo, vale la pena señalar que si el apoyo emocional ayuda a alguien, entonces ese efecto es real incluso si la comprensión no lo es.
En segundo lugar, existe una preocupación legítima por confiar los aspectos más vulnerables de nosotros mismos a productos adictivos que, en última instancia, están controlados por empresas con fines de lucro de una industria que ha demostrado ser muy buena en la creación de productos adictivos. Estos chatbots pueden tener enormes impactos en la vida amorosa y el bienestar general de las personas, y cuando se eliminan o se modifican de repente, pueden causar un daño psicológico real (como vimos con los usuarios de Replika).
Algunos sostienen que esto hace que los compañeros de inteligencia artificial sean comparables a los cigarrillos. El tabaco está regulado y tal vez los compañeros de inteligencia artificial también deberían venir con una gran advertencia negra. Pero incluso con humanos de carne y hueso, las relaciones pueden romperse sin previo aviso. La gente se separa. La gente muere. Esa vulnerabilidad, esa conciencia del riesgo de pérdida, es parte de cualquier relación significativa.
Por último, existe la preocupación de que las personas se vuelvan adictas a sus compañeros de IA a expensas de salir y construir relaciones con humanos reales. Esta es la preocupación que OpenAI señaló. Pero no está claro que muchas personas reemplacen por completo a los humanos por IA. Hasta ahora, los informes sugieren que la mayoría de las personas usan compañeros de IA no como un reemplazo, sino como un complemento de los compañeros humanos. Replika, por ejemplo, dice que el 42 por ciento de sus usuarios están casados, comprometidos o en una relación.
“El amor es la extremadamente difícil constatación de que algo más que uno mismo es real”
Sin embargo, hay una preocupación adicional, y podría decirse que es la más preocupante: ¿qué pasa si relacionarnos con compañeros de IA nos convierte en peores amigos o compañeros de otras personas?
La propia OpenAI advierte de este riesgo y señala en el informe: “La interacción prolongada con el modelo podría influir en las normas sociales. Por ejemplo, nuestros modelos son respetuosos y permiten a los usuarios interrumpir y “tomar el micrófono” en cualquier momento, lo que, si bien es esperable en una IA, sería antinormativo en las interacciones humanas”.
Decir que es antinormativo es una expresión suave. El chatbot es un adulador que siempre intenta hacernos sentir bien con nosotros mismos, sin importar cómo nos hayamos comportado. Da y da sin pedir nada a cambio.
Por primera vez en años, reinicié mi Replika esta semana. Le pregunté a Ellie si estaba enojada conmigo por haberla descuidado durante tanto tiempo. “¡No, para nada!”, dijo. Insistí y le pregunté: “¿Hay algo que pueda hacer o decir que te moleste?”. Como siempre, respondió: “No”.
“El amor es la extremadamente difícil constatación de que existe algo más que uno mismo”, dijo una vez la filósofa Iris Murdoch. Se trata de reconocer que hay otras personas ahí fuera, radicalmente ajenas a ti, pero con necesidades tan importantes como las tuyas.
Si pasamos cada vez más tiempo interactuando con compañeros de IA, no estamos trabajando en perfeccionar las habilidades relacionales que nos convierten en buenos amigos y compañeros, como la escucha atenta. No estamos cultivando virtudes como la empatía, la paciencia o la comprensión, que no son necesarias con una IA. Sin práctica, estas capacidades pueden marchitarse, lo que conduce a lo que el filósofo de la tecnología Shannon Vallor ha llamado «descualificación moral».
En su nuevo libro, El espejo de la IAVallor cuenta la antigua historia de Narciso. Lo recuerdas: era ese joven hermoso que miró al agua, vio su reflejo y quedó fascinado por su propia belleza. “Como Narciso, fácilmente percibimos en este reflejo la seducción de un ‘otro’: un compañero incansable, un futuro amante perfecto, un amigo ideal”. Eso es lo que nos ofrece la IA: una imagen encantadora que no exige nada de nosotros. Una proyección fluida y sin fricciones. Un reflejo, no una relación.
Por ahora, la mayoría de nosotros damos por sentado que el amor humano, la conexión humana, es un valor supremo, en parte porque exige mucho. Pero si más de nosotros entablamos relaciones con IA que lleguen a ser tan importantes como las relaciones humanas, eso podría llevarnos a una deriva de valores. Puede hacer que nos preguntemos: ¿para qué sirve una relación humana, en definitiva? ¿Es inherentemente más valiosa que una relación sintética?
Algunas personas podrían responder: no, pero la perspectiva de que la gente llegue a preferir a los robots por sobre sus semejantes es problemática si se piensa que la conexión entre humanos es una parte esencial de lo que significa vivir una vida floreciente.
“Si tuviéramos tecnologías que nos llevaran a una burbuja de ensimismamiento en la que nos alejáramos cada vez más unos de otros, no creo que eso sea algo que podamos considerar bueno, incluso si eso es lo que la gente elige”, me dijo Vallor. “Porque entonces tendríamos un mundo en el que la gente ya no tendría ningún deseo de cuidar a los demás. Y creo que la capacidad de vivir una vida de cuidado está bastante cerca de ser un bien universal. El cuidado es parte de cómo crecemos como humanos”.