El surgimiento de los «amigos» de chatbot

¿Puedes realmente ser amigo de un chatbot?

Si te encuentras haciendo esa pregunta, probablemente sea demasiado tarde. En un hilo de Reddit hace un año, un usuario escribió que los amigos de IA son «maravillosos y significativamente mejores que los verdaderos amigos (…) que su amigo AI nunca te rompería ni traicionaría». Pero también está el joven de 14 años que murió por suicidio después de apegarse a un chatbot.

El hecho de que algo ya está sucediendo hace que sea aún más importante tener una idea más nítida de lo que exactamente está sucediendo cuando los humanos se enredan con estas herramientas de «IA social» o «IA conversacional».

¿Son estas relaciones reales de chatbot que a veces salen mal (lo que, por supuesto, también sucede con las relaciones de humanos a humanos)? ¿O alguien que se sienta conectado con Claude inherentemente engañado?

Para responder a esto, recurcemos a los filósofos. Gran parte de la investigación es sobre los robots, pero la vuelvo a aplicar aquí a los chatbots.

El caso contra los amigos de chatbot

El caso en contra es más obvio, intuitivo y, francamente, fuerte.

Es común que los filósofos definan la amistad basándose en la teoría de Aristóteles de la verdadera (o «virtud») amistad, que generalmente requiere mutualidad, vida compartida e igualdad, entre otras condiciones.

«Tiene que haber algún tipo de mutualidad, algo que está sucediendo (entre) ambos lados de la ecuación», según Sven Nyholm, profesor de ética de IA en la Universidad Ludwig Maximilian de Munich. «Un programa de computadora que está operando con relaciones estadísticas entre las entradas en sus datos de capacitación es algo bastante diferente a un amigo que nos responde de ciertas maneras porque se preocupan por nosotros».

El chatbot, al menos hasta que se vuelve sapiente, solo puede simular No es posible la verdadera amistad, y por lo tanto, la verdadera amistad. (Por lo que vale, mi editor consultó ChatGpt sobre esto y está de acuerdo en que los humanos no pueden ser amigos de eso).

Esta es la clave para Ruby Hornsby, un candidato a doctorado en la Universidad de Leeds que estudia amistades de IA. No es que los amigos de IA no sean útiles: Hornsby dice que ciertamente pueden ayudar con la soledad, y no hay nada inherentemente incorrecto si las personas prefieren los sistemas de IA sobre los humanos, pero «queremos mantener la integridad de nuestras relaciones». Fundamentalmente, un intercambio unidireccional equivale a un juego altamente interactivo.

¿Qué pasa con las emociones muy reales que sienten las personas hacia los chatbots? Todavía no es suficiente, según Hannah Kim, filósofa de la Universidad de Arizona. Ella compara la situación con la «paradoja de la ficción», que pregunta cómo es posible tener emociones reales hacia los personajes ficticios.

Las relaciones «son una actividad imaginativa muy involucrada mentalmente», por lo que no es particularmente sorprendente encontrar personas que se apegen a los personajes ficticios, dice Kim.

Pero si alguien dijo que estaban en un relación con un personaje ficticio o chatbot? Entonces la inclinación de Kim sería decir: «No, creo que estás confundido sobre lo que es una relación: lo que tienes es un compromiso imaginativo unidireccional con una entidad que podría dar la ilusión de que es real.«

Problemas de privacidad y manipulación de sesgo y datos, especialmente a escala

Los chatbots, a diferencia de los humanos, son construidos por empresas, por lo que los temores sobre el sesgo y la privacidad de los datos que persiguen otras tecnologías se aplican aquí también. Por supuesto, los humanos pueden ser parciales y manipuladores, pero es más fácil entender el pensamiento de un humano en comparación con la «caja negra» de la IA. Y los humanos no se despliegan a escala, como lo son, lo que significa que estamos más limitados en nuestra influencia y potencial de daño. Incluso el ex más sociópático solo puede destruir una relación a la vez.

Los humanos están «entrenados» por padres, maestros y otros con diferentes niveles de habilidad. Los chatbots pueden ser diseñados por equipos de expertos que intentan programarlos para que sean lo más receptivos y empáticos posible: la versión psicológica de los científicos que diseñan el Dorito perfecto que destruye cualquier intento de autocontrol.

Y es más probable que estos chatbots sean utilizados por aquellos que ya están solos, en otras palabras, presas más fáciles. Un estudio reciente de OpenAI encontró que el uso de ChatGPT mucho «se correlaciona con un aumento de los indicadores de dependencia autoinformados». Imagine que está deprimido, así que construye una relación con un chatbot, y luego comienza a golpearlo para las donaciones de la campaña de Nancy Pelosi.

¿Sabes cómo algunos temen que los hombres agregados por la pornografía ya no puedan interactuar con mujeres reales? «Deskilling» es básicamente esa preocupación, pero con todas las personas, para otras personas reales.

«Podríamos preferir la IA en lugar de las parejas humanas y descuidar a otros humanos solo porque la IA es mucho más conveniente», dice Anastasiia Babash de la Universidad de Tartu. «(Podríamos exigir) exigir que otras personas se comporten como la IA se está comportando: podríamos esperar que siempre estén aquí o nunca estén en desacuerdo con nosotros. (…) Cuanto más interactuamos con la IA, más nos acostumbramos a una pareja que no siente emociones para que podamos hablar o hacer lo que queramos».

En un artículo de 2019, Nyholm y la filósofa Lily Eva Frank ofrecen sugerencias para mitigar estas preocupaciones. (Su artículo era sobre robots sexuales, así que me estoy ajustando por el contexto de chatbot). Por ejemplo, trate de hacer de los chatbots una útil «transición» o una herramienta de entrenamiento para personas que buscan amistades de la vida real, no un sustituto del mundo exterior. Y haga obvio que el chatbot no es una persona, tal vez haciendo que recuerde a los usuarios que es un modelo de idioma grande.

Aunque la mayoría de los filósofos piensan actualmente que la amistad con IA es imposible, uno de los contraargumentos más interesantes proviene del filósofo John Danaher. Comienza desde la misma premisa que muchas otras: Aristóteles. Pero agrega un giro.

Claro, los amigos de chatbot no encajan perfectamente como la igualdad y la vida compartida, escribe, pero, de nuevo, tampoco muchos amigos humanos.

«Tengo capacidades y habilidades muy diferentes en comparación con algunos de mis amigos más cercanos: algunos de ellos tienen mucha más destreza física que yo, y la mayoría son más sociables y extrovertidas», escribe. «También rara vez me relaciono, me encuentro o interactúo con ellos en toda la gama de sus vidas. (…) Todavía creo que es posible ver estas amistades como amistades de virtud, a pesar de la igualdad y la diversidad imperfectas».

Estos son requisitos de ideal Amistad, pero si incluso las amistades humanas no pueden vivir, ¿por qué los chatbots deberían mantenerse a ese estándar? (Provocativamente, cuando se trata de «mutualidad» o intereses compartidos y buena voluntad, Danaher argumenta que esto se cumple siempre que haya «actuaciones consistentes» de estas cosas, lo que los chatbots pueden hacer).

Helen Ryland, filósofa de la Universidad Abierta, dice que ahora podemos ser amigas de los chatbots, siempre y cuando apliquemos un marco de «grados de amistad». En lugar de una larga lista de condiciones que deben cumplirse todas, el componente crucial es «buena voluntad mutua», según Ryland, y las otras partes son opcionales. Tome el ejemplo de las amistades en línea: a estos les faltan algunos elementos, pero, como muchas personas pueden dar fe, eso no significa que no sean reales o valiosos.

Tal marco se aplica a las amistades humanas, hay grados de amistad con el «amigo laboral» frente al «viejo amigo», y también a los amigos de chatbot. En cuanto a la afirmación de que los chatbots no muestran buena voluntad, ella sostiene que a) ese es el sesgo anti-robot en la conversación de ficción distópica, y b) la mayoría de los robots sociales están programados para evitar dañar a los humanos.

Más allá de «para» y «contra»

«Debemos resistir el determinismo tecnológico o suponer que, inevitablemente, la IA social conducirá al deterioro de las relaciones humanas», dice el filósofo Henry Shevlin. Es muy consciente de los riesgos, pero también queda mucho que considerar: preguntas sobre el efecto de desarrollo de los chatbots, cómo los chatbots afectan ciertos tipos de personalidad y ¿qué reemplazan incluso?

Aún más debajo hay preguntas sobre la naturaleza misma de las relaciones: cómo definirlas y para qué están.

En un artículo del New York Times sobre una mujer «enamorada del chatgpt», la terapeuta sexual Marianne Brandon afirma que las relaciones son «solo neurotransmisores» dentro de nuestros cerebros.

«Tengo esos neurotransmisores con mi gato», dijo a The Times. «Algunas personas los tienen con Dios. Va a suceder con un chatbot. Podemos decir que no es una relación humana real. No es recíproco. Pero esos neurotransmisores son realmente lo único que importa, en mi mente».

Ciertamente no es así como la mayoría de los filósofos lo ven, y no estuvieron de acuerdo cuando mencioné esta cita. Pero tal vez es hora de revisar viejas teorías.

Las personas deberían estar «pensando en estas ‘relaciones’, si desea llamarlas, en sus propios términos y realmente familiarizarse con el tipo de valor que brindan a las personas», dice Luke Brunning, filósofo de las relaciones en la Universidad de Leeds.

Para él, preguntas que son más interesantes que «¿qué pensaría Aristóteles?» Incluir: ¿Qué significa tener una amistad tan asimétrica en términos de información y conocimiento? ¿Qué pasa si es hora de reconsiderar estas categorías y alejarse de términos como «amigo, amante, colega»? ¿Cada AI es una entidad única?

«Si algo puede convertir nuestras teorías de amistad en su cabeza, eso significa que nuestras teorías deben ser desafiadas, o al menos podemos verlo con más detalle», dice Brunning. «La pregunta más interesante es: ¿estamos viendo el surgimiento de una forma única de relación de la que no tenemos una comprensión real?»