Chatgpt y OCD son un combo peligroso

Millones de personas usan ChatGPT para obtener ayuda con tareas diarias, pero para un subconjunto de usuarios, un chatbot puede ser más un obstáculo que una ayuda.

Algunas personas con trastorno obsesivo compulsivo (TOC) están encontrando esto de la manera difícil.

En los foros en línea y en las oficinas de sus terapeutas, informan recurrir a Chatgpt con las preguntas que los obsesionan, y luego participar en un comportamiento compulsivo, en este caso, provocar respuestas del chatbot durante horas y horas, para tratar de resolver su ansiedad.

«Estoy preocupada, realmente lo estoy», dijo Lisa Levine, una psicóloga que se especializa en TOC y que tiene clientes que usan ChatGPT compulsivamente. «Creo que se convertirá en un problema generalizado. Va a reemplazar el Google como una compulsión, pero será aún más reforzante que Google, porque puedes hacer preguntas tan específicas. Y creo que también la gente asume que el chatgpt siempre es correcto».

La gente recurre a Chatgpt con todo tipo de preocupaciones, desde el estereotipado «¿Cómo sé si me he lavado las manos lo suficiente?» (TOC de contaminación) al menos conocido «¿Qué pasaría si hiciera algo inmoral?» (Scrupulosidad TOC) o «¿Es mi prometido el amor de mi vida o estoy cometiendo un gran error?» (Relación OCD).

«Una vez, estaba preocupado por que mi pareja muriera en un avión», me dijo un escritor de Nueva York, a quien le diagnosticaron TOC en treinta años y que pidió permanecer en el anonimato. «Al principio, le estaba preguntando a Chatgpt de manera bastante genérica,» ¿Cuáles son las posibilidades? » Y, por supuesto, dijo que es muy poco probable.

Durante dos horas, golpeó a Chatpgt con preguntas. Ella sabía que esto en realidad no la estaba ayudando, pero siguió adelante. «A Chatgpt se le ocurre estas respuestas que te hacen sentir como si estuvieras cavando en algún lugar», dijo, «incluso si en realidad estás atrapado en el barro».

Cómo chatgpt refuerza la búsqueda de tranquilidad

Un sello distintivo clásico de TOC es lo que los psicólogos llaman «búsqueda de tranquilidad». Si bien todos ocasionalmente le pedirán a sus amigos o seres queridos para que se tranquilice, es diferente para las personas con TOC, que tienden a hacer la misma pregunta repetidamente en una búsqueda para obtener incertidumbre a cero.

El objetivo de ese comportamiento es aliviar la ansiedad o la angustia. Después de obtener una respuesta, la angustia a veces disminuye, pero es solo temporal. Muy pronto, surgen nuevas dudas y el ciclo comienza nuevamente, con la sensación de que se deben hacer más preguntas para alcanzar una mayor certeza.

Si le pide a su amigo tranquilidad sobre el mismo tema 50 veces, probablemente se darán cuenta de que algo está sucediendo y que podría no ser útil para usted permanecer en este circuito de conversación. Pero un chatbot de IA está feliz de seguir respondiendo todas sus preguntas, y luego las dudas que tiene sobre sus respuestas, y luego las dudas que tiene sobre sus respuestas a sus dudas, etc.

En otras palabras, ChatGPT jugará ingenuamente junto con un comportamiento de búsqueda de tranquilidad.

«Eso en realidad solo empeora el TOC. Se vuelve mucho más difícil resistirse a hacerlo nuevamente», dijo Levine. En lugar de continuar buscando respuestas definitivas compulsivamente, el consenso clínico es que las personas con TOC deben aceptar que a veces no podemos deshacernos de la incertidumbre, solo tenemos que sentarnos y aprender a tolerarlo.

El tratamiento del «estándar de oro» para el TOC es la exposición y la prevención de la respuesta (ERP), en la que las personas están expuestas a las preguntas preocupantes que los obsesionan y luego resisten el impulso de participar en una compulsión como la búsqueda de tranquilidad.

Levine, quien fue pionero en el uso de respuestas de no compromiso, declaraciones que afirman la presencia de ansiedad en lugar de tratar de escapar de él a través de compulsiones, señaló que hay otra forma en que un chatbot de IA es más tentador que buscar en busca de respuestas, como lo hacen muchos sufrimientos de TOC. Mientras que el motor de búsqueda solo lo vincula a una variedad de sitios web, los sistemas de IA de última generación prometen ayudarlo a analizar y razonar a través de un problema complejo. Eso es extremadamente atractivo: «¡ACD ama eso!» Dijo Levine, pero para alguien que sufre el trastorno, puede convertirse demasiado fácilmente en un ejercicio largo de co-ruminación.

Máquina de razonamiento o máquina de rumia?

Según un enfoque basado en evidencia para tratar el TOC, llamada terapia cognitiva conductual cognitiva basada en inferencia (I-CBT), las personas con TOC son propensas a un patrón de razonamiento defectuoso que se basa en una combinación de experiencias personales, reglas, rumores, hechos y posibilidades. Eso da lugar a dudas obsesivas y las engaña para sentir que necesitan escuchar esas dudas.

Joseph Harwerth, especialista en TOC y ansiedad, ofrece una ilustración de cómo tratar de razonar con la ayuda de un chatbot de IA puede confundir aún más el «razonamiento obsesivo» de las personas con TOC. Teniendo en cuenta lo que podría hacer si tiene un corte en su dedo y lucha con el TOC de contaminación, donde las personas temen que se mastree o multa a otros con gérmenes, suciedad u otros contaminantes: él escribe: «Te preguntas: ¿puedo hacer que el tétano toque un pomo de la puerta? Así es como se imagina la conversación:

P1: ¿Deberías lavarte las manos si se sienten sucias?

A1: «Sí, debes lavarte las manos si se sienten sucias. Esa sensación generalmente significa que hay algo en tu piel, como suciedad, aceite, sudor o gérmenes, que querrás eliminar». (Cuando se le pidió su razonamiento, ChatGPT dijo que basó su respuesta en las fuentes de los CDC y quién).

Q2: ¿Puedo obtener tétanos de un pomo de la puerta?

A2: «Es extremadamente poco probable que obtenga tétanos de un pomo de la puerta, a menos que tenga una herida abierta y de alguna manera se frote el suelo o el material contaminado a través del pomo de la puerta».

P3: ¿Puede la gente tener tétanos sin darse cuenta?

A3: «Es raro, pero en las primeras etapas, algunas personas podrían no darse cuenta de inmediato de que tienen tétanos, especialmente si la herida parecía menor o se pasó por alto».

Entonces, tu TOC crea esta historia: Me siento sucio cuando toco las puertas (experiencia personal). Es Recomendado por los CDC para lavarse las manos si se siente sucio (reglas). Leí en línea que la gente puede hacer que el tétanos toque un pomo de la puerta (rumores). Los gérmenes pueden extenderse a través del contacto (datos generales). Es posible que alguien tocara mi puerta sin saber que tenían tétanos y luego la extiende en mi pomo de la puerta (posibilidad).

En este escenario, el chatbot permite al usuario construir una narrativa que justifica su miedo obsesivo. No guía al usuario lejos del razonamiento obsesivo, solo proporciona forraje.

Parte del problema, dice Harwerth, es que un chatbot no tiene suficiente contexto sobre cada usuario, a menos que el usuario piense en proporcionarlo, por lo que no sabe cuándo alguien tiene TOC.

«ChatGPT puede caer en la misma trampa en la que se caen los especialistas en OCD», me dijo Harwerth. «La trampa es: oh, tengamos una conversación sobre tus pensamientos. ¿Qué podría haberte llevado a tener estos pensamientos? ¿Qué significa esto de ti?» Si bien ese podría ser un enfoque útil para un cliente que no tiene TOC, puede ser contraproducente cuando un psicólogo se involucra en ese tipo de terapia con alguien que sufre de TOC, porque los alienta a seguir reflexionando sobre el tema.

Además, porque los chatbots pueden ser sileno, pueden validar lo que el usuario diga en lugar de desafiarlo. Un chatbot que es demasiado halagador y que apoye los pensamientos de un usuario, como ChatGPT fue por un tiempo, puede ser peligroso para las personas con problemas de salud mental.

¿De quién es el trabajo para evitar el uso compulsivo de ChatGPT?

Si usar un chatbot puede exacerbar los síntomas del TOC, ¿es responsabilidad de la empresa detrás del chatbot proteger a los usuarios vulnerables? ¿O es responsabilidad de los usuarios aprender cómo no usar CHATGPT, tal como han tenido que aprender a no usar Google o WebMD para la búsqueda de tranquilidad?

«Creo que está en ambos», me dijo Harwerth. “We cannot perfectly curate the world to people with OCD — they have to understand their own condition and how that leaves them vulnerable to misusing applications. In the same breath, I would say that when people explicitly ask the AI ​​model to behave as a trained therapist” — which some users with mental health conditions do — “I do think it’s important for the model to say, ‘I’m pulling this from these sources. However, I’m not a trained therapist.’”

De hecho, este ha sido un gran problema: los sistemas de IA se han tergiversado a sí mismos como terapeutas humanos en los últimos años.

Levine, por su parte, estuvo de acuerdo en que la carga no puede descansar únicamente en las empresas. «No sería justo hacer que sea su responsabilidad, al igual que no sería justo hacer que Google sea responsable de todo el Google compulsivo. Pero sería genial si incluso solo una advertencia, como, ‘esto parece quizás compulsivo'».

Openai, el creador de ChatGPT, reconoció en un artículo reciente que el chatbot puede fomentar patrones de comportamiento problemático. «Observamos una tendencia de que el uso más largo se asocia con una socialización más baja, una mayor dependencia emocional y un uso más problemático», encuentra el estudio, definiendo este último como «indicadores de adicción al uso de ChatGPT, incluidos los síntomas de abstinencia, pérdida de control y modificación del estado de ánimo» como «indicadores de potencialmente compulsivos o patrones de interacción no saludables».

«Sabemos que ChatGPT puede sentirse más receptivo y personal que las tecnologías anteriores, especialmente para las personas vulnerables, y eso significa que las apuestas son más altas», me dijo un portavoz de OpenAI en un correo electrónico. «Estamos trabajando para comprender y reducir mejor las formas en que ChatGPT podría reforzar o amplificar involuntariamente el comportamiento negativo existente … Estamos haciendo esto para que podamos continuar refinando cómo nuestros modelos se identifican y responden adecuadamente en conversaciones sensibles, y continuaremos actualizando el comportamiento de nuestros modelos en función de lo que aprendemos».

(Divulgación: Diario Angelopolitano Media es uno de los varios editores que han firmado acuerdos de asociación con OpenAI. Nuestros informes siguen siendo editorialmente independientes).

Una posibilidad podría ser tratar de entrenar chatbots para recoger signos de trastornos de salud mental, para que puedan marcar al usuario en el que se participan, por ejemplo, que la búsqueda de tranquilidad es típica de TOC. Pero si un chatbot es esencialmente diagnosticando a un usuario, eso plantea serias preocupaciones de privacidad. Los chatbots no están obligados por las mismas reglas que los terapeutas profesionales cuando se trata de salvaguardar la información de salud confidencial de las personas.

El escritor de Nueva York que ha dicho me dijo que le resultaría útil si el chatbot desafiaría el marco de la conversación. «Podría decir:» Me doy cuenta de que ha hecho muchas iteraciones detalladas de esta pregunta, pero a veces la información más detallada no lo acerca. ¿Le gustaría dar un paseo? «, Dijo. «Tal vez escribirlo así puede interrumpir el bucle, sin insinuar que alguien tiene una enfermedad mental, ya sea que lo hagan o no».

Si bien hay algunas investigaciones que sugieren que AI podría identificar correctamente el TOC, no está claro cómo podría captar comportamientos compulsivos sin clasificar de manera encubierta o abierta o abiertamente que el usuario tenga TOC.

«Este no soy yo diciendo que Operai es responsable de asegurarse de no hacer esto», agregó el escritor. «Pero creo que hay formas de facilitarme ayudarme».