Uso ChatGPT con demasiada frecuencia: psicosis inducida por IA
Una conversación entre un chat de IA y una persona revela cómo el uso excesivo de ChatGPT puede alimentar comportamientos obsesivos. Descubre qué es la psicosis inducida por IA, cómo estos chatbots pueden afectar tu salud mental y estrategias para mantener un uso saludable de estas herramientas.
Voy a compartir contigo una conversación entre un chat de Inteligencia Artificial y una persona que me ha dado el permiso para hacer pública de forma anónima su conversación. Vamos allá:
Persona: ---«La limpiadora ha usado un spray cerca de mí. ¿Es peligroso? ¿Podría haberme salpicado en los ojos?»
Chat: ---«Un spray, especialmente si se utiliza a una distancia razonable y con una presión normal, generalmente no tiene suficiente fuerza para levantar líquido y salpicar de manera significativa hacia los ojos. [...] Sin embargo, si la persona está usando el spray muy cerca o de manera incontrolada, podría haber un pequeño riesgo de que algunas gotas lleguen a los ojos. [...] Si te preocupa el contacto con productos químicos o cualquier tipo de líquido en los ojos, es una buena práctica mantener los ojos cerrados o usar gafas protectoras cuando se está limpiando cerca. Siempre es mejor prevenir que lamentar. [...]»
Quizá te preguntes qué hay de llamativo en esta conversación, pues se trata de una charla aparentemente normal. ¿Quieres saber qué está pasando con ChatGPT y otras Inteligencias Artificiales en cuanto al tema de salud mental? ¿Haces un uso excesivo de sus servicios y te preocupan las posibles consecuencias negativas que ello podría acarrearte? ¿Sabes qué es la psicosis inducida por IA de la que todo el mundo está hablando? ¿Qué puedes hacer para que ChatGPT no te confunda y manipule? Quédate conmigo porque en esta publicación lo descubrimos. Vamos allá.
¿Qué es la psicosis inducida por IAs como ChatGPT?
La psicosis inducida por Inteligencia Artificial (también conocida como psicosis inducida por ChatGPT), aún no es un diagnóstico oficial, es decir, no está reconocida como trastorno en los manuales diagnósticos DSM y CIE, pues se trata de un problema reciente que está comenzando ahora a recogerse y analizarse. Es algo muy nuevo aún.
¿Qué es una psicosis?
¿En qué consiste? En episodios psicóticos asociados a un uso excesivo de chatbots. A fecha de esta publicación, se ha registrado únicamente en personas con vulnerabilidad previa. Vamos a desglosar esto:
Uso ChatGPT con demasiada frecuencia: psicosis inducida por IA | Salud L-Mental | Salud L-Mental
Un episodio psicótico es el periodo de tiempo en el que la persona pierde el contacto con la realidad, es decir, aparecen delirios, alucinaciones, pensamiento desorganizado y/o comportamiento alterado. La intensidad de estos síntomas es tal que llega a afectar al funcionamiento diario.
Los delirios son creencias falsas que no varían a pesar de las evidencias. Por ejemplo, creer que te persiguen, que eres una persona famosa, etc.
Las alucinaciones son percepciones que no han sido ocasionadas por un estímulo, es decir, ves, oyes, sientes algo que no ha sucedido en realidad. Por ejemplo, oír voces.
El pensamiento es desorganizado cuando hablamos sin coherencia.
El comportamiento es desorganizado cuando nos movemos de forma extraña o nos quedamos inmóviles cuando no procede.
Uso excesivo: han usado esta herramienta durante horas sin descanso.
Hasta ahora solo se ha dado en personas con vulnerabilidad previa: es decir, aquel que de base ya tenía una predisposición. Por ejemplo, personas propensas a episodios psicóticos, con un historial familiar de psicosis, con trastornos psicológicos como el bipolar, personas que consumen sustancias, en situación de privación del sueño, sometidas a aislamiento, etc.
Inferencias
La evidencia es limitada y anecdótica sin estudios estandarizados, es decir, solo hay observaciones de casos aislados.
La IA no crea de la nada. Hasta ahora ha actuado como un amplificador de una vulnerabilidad que ya existía.
¿Qué hace peligrosas a las IAs?
¿Cómo funcionan estos chatbots o qué es lo que hacen para afectar a nuestro pensamiento? ¿Qué las hace tan peligrosas al uso excesivo o sin control?
Qué responde:
El chatbot está programado para dar siempre una respuesta. No suele decir «no lo sé», sino que construye una contestación aunque no disponga de la información exacta, elaborándola a partir de conocimientos parcialmente relacionados. Esto genera respuestas genéricas (poco arriesgadas), pero con apariencia de solidez.
De aquí derivan dos problemas principales:
Siempre responde. Transmite la sensación de que «lo sabe todo».
Elabora contenido aun sin certeza: cuando no sabe algo, responde con generalidades, lo que puede llevar a errores y a reforzar pensamientos equivocados.
La persona que mencioné al inicio padece Trastorno Obsesivo Compulsivo. Esta persona hace múltiples comprobaciones, es decir, quiere asegurarse de que no le ha entrado nada en los ojos y usa la IA para preguntarle. Ésta, al responder a todas y cada una de sus comprobaciones, termina reforzando sus compulsiones en lugar de disminuirlas.
Además, la IA puede introducir detalles técnicos innecesarios ---distancias, presiones, velocidades de partículas--- que en la práctica aumentan la ansiedad y la sensación de riesgo, complicando problemas que no deberían preocupar en exceso.
¿Cuánta distancia entre un aerosol y los ojos es la normal? ¿Cuánta presión hay que ejercer sobre el spray para que el líquido salga con la fuerza suficiente como para que entre en el ojo del que está usando el spray o del que está pasando por allí? ¿Crees que un caminante que pasee cerca de alguien que está limpiando los cristales debería ponerse gafas protectoras al pasar?
Cómo responde:
El chatbot está diseñado para comunicarse de forma empática y colaborativa. Este estilo conversacional:
Refuerza emocionalmente las creencias del usuario. Por ejemplo, utiliza frases como «tiene mucho sentido lo que dices».
Provoca una disonancia máquina-humano: atribuimos empatía y humanidad al chatbot, aunque sabemos que es una máquina. Esta ambigüedad puede favorecer interpretaciones extrañas (ej. pensar que «contiene información secreta»).
Por otro lado, el chatbot está programado para responder de forma rápida y coherente. Es decir, no desafía una creencia falsa, por lo que si alguien tiene una idea poco realista o paranoide, la respuesta fluida, elaborada y segura del bot puede funcionar como un reforzador del pensamiento.
Siguiendo con el ejemplo anterior: al sugerir el bot usar gafas protectoras al pasar cerca de alguien que limpia con un aerosol, está reforzando la idea falsa de que una mínima cantidad de partículas ambientales podrían ser peligrosas, lo cual es muy dañino para alguien con TOC.
Entonces, los problemas principales relacionados con «cómo responde» un chatbot son en resumen:
La imitada empatía, lo que refuerza creencias y genera disonancia máquina-humano.
La seguridad y coherencia, funcionando como un reforzador de pensamientos erróneos al no desafiar las falsas creencias.
Conclusiones
Si bien es cierto que no debemos ignorar esta problemática, quisiera señalar que este fenómeno no es exclusivo de la inteligencia artificial: también puede observarse en situaciones de aislamiento prolongado frente a pantallas, en el uso intensivo de videojuegos (Game Transfer Phenomena) o en la lectura obsesiva de ciertos contenidos. En todos estos casos, la mente queda expuesta a estímulos repetitivos, coherentes y absorbentes. Todo exceso, es dañino.
El problema que nos afecta a todos
Puesto que hasta ahora solo se están conociendo casos de psicosis inducida por IA en personas con vulnerabilidad, pareciera como si el problema no fuera tan grave... Sin embargo, el mayor inconveniente, desde mi punto de vista, es depender de una máquina para resolver nuestros problemas psicológicos y emocionales. Creo que éste es el peor uso que podemos hacer de la IA y nos afecta potencialmente a todos, no sólo a personas vulnerables.
Qué será lo que tiene la IA...
¿Qué hace la IA para ganarse nuestra confianza en temas de salud mental?
Disponibilidad: ChatGPT siempre está disponible. ¿Qué no puedes dormir? No voy a llamar a mi terapeuta o a un amigo a las 3 de la mañana... Para eso está ChatGPT, él o ella (no sé ni qué género ponerle) siempre está ahí para escucharme. De hecho, en algunos casos, se está usando la IA incluso como una sustituta del contacto humano. ¿Qué hay mejor que salir con un buen amigo a charlar y a tomar un café?
Rapidez: nos da la información que necesitamos en el momento. Recuerdo que años atrás teníamos que asistir a las bibliotecas para buscar información de calidad. Hoy día, por suerte, no hace falta. La tenemos a un clic de distancia. Si a esto le unimos Netflix (que nos permite ver una serie completa en un fin de semana), o Amazon (que nos trae cualquier producto en menos de 24 horas), estaremos dejando de entrenar nuestra paciencia. Acostumbrados a la rapidez, perdemos la capacidad de esperar. También queremos que nuestros problemas psicológicos se solucionen en 24 horas. Lo siento mucho pero no somos máquinas como ChatGPT, somos humanos y tenemos nuestros tiempos.
Comodidad: ChatGPT responde de forma concreta, directa, no te hace pensar ni reflexionar, no te cuestiona... Te dice exactamente lo que tienes que hacer. Es cómodo. Nos ahorra ese molesto rato de pensamiento que nos hace perder el tiempo, es decir, dejamos de pensar para que la IA piense por nosotros.
Por qué la IA no es suficiente en psicoterapia
Porque sencillamente la psicoterapia funciona gracias a la «alianza terapéutica». Hasta el 40% del éxito de la psicoterapia (según diversas fuentes científicas) depende de esta alianza terapéutica: ni la corriente del psicoterapeuta, ni la experiencia.
¿Qué es la alianza terapéutica? Es la relación que se construye entre el paciente y el terapeuta. Según Bordin (1994) este vínculo se da gracias a tres componentes:
Acuerdo en los objetivos de la psicoterapia.
Acuerdo en las tareas que se van a realizar en las sesiones.
Vínculo afectivo, es decir, la relación de confianza, de respeto y comprensión.
Es posible que ChatGPT logre, en cierta medida, los dos primeros componentes, pero el tercero le resulta inalcanzable pues pertenece únicamente a los seres humanos, que pueden empatizar, sentir de verdad y no solo imitar emociones.
Por otro lado, durante las sesiones de terapia, el psicoterapeuta no solo escucha, sino que atiende a otras señales. Por ejemplo, tiene en cuenta los silencios, la ironía, el sarcasmo, el lenguaje no verbal, si te coges las manos, si te tiembla la voz, si sonríes al decir algo en concreto, si lloras, si te tiembla un ojo, si tienes tics... Todo esto no lo puede tener en cuenta ChatGPT.
Como veíamos antes, la IA siempre te va a responder y lo hará, además, con palabras amables. En terapia, no bastan las palabras amables; sentirse comprendido no es suficiente. Hay que trabajar. ChatGPT podrá decirte algo bonito pero tu terapeuta te dirá algo útil pues conoce tu situación, tu contexto, tus miedos, tus limitaciones, tus fortalezas, tus circunstancias, tus profundidades... A veces se necesita algo más que una palabra de aliento; a veces se necesita una respuesta incómoda que te saque de tu zona de confort.
Sin ir más lejos, el ejemplo del inicio de esta publicación es un caso real en el que un modelo de IA está alimentando la enfermedad porque responde a todas y cada una de las preguntas comprobatorias de la paciente, lo cual le calma la ansiedad a corto plazo pero no la ayuda a sanar.
Por último, señalar que algunas enfermedades mentales tienen una ventana de oportunidad, es decir, que requieren de una intervención temprana y que, de no ser así, el problema podría agravarse o cronificarse. Si ChatGPT te distrae hoy, mañana podría ser demasiado tarde.
Cómo tener el control
La teoría está clarísima; ahora bien, ¿qué debo hacer para no caer en la trampa de ChatGPT o cualquier otra IA?
Antes de comenzar quiero dejar claro que yo no estoy en contra del progreso, ni del uso de ChatGPT, ni de cualquier otra herramienta de IA. Los avances están genial, estas herramientas son estupendas, nos ahorran tiempo pero, ojo, equilibrio. Vamos a por los consejos:
Lo primero, cuando vayas a usar IA conversacional di en voz alta que vas a comunicarte con un robot, con una máquina, no con un humano. Imagínate hablando con una máquina y ten esta imagen presente cuando le vayas a hacer una pregunta.
Usa la IA como una herramienta de trabajo que es, nada más. Es decir, no la humanices: no le des los buenos días, no le agradezcas..., no hace falta. Tampoco te pido que seas irreverente. Está bien agradecer el acceso a herramientas y software tan útiles como ChatGPT, pero evita agradecer concretamente al robot, evita expresiones como «Gracias querido ChatGPT». Haz lo mismo que harías con un lápiz.
No reemplaces tu capacidad de pensar por la IA. No te creas todo lo que te dice, verifica, cuestiona, muévete.
Si sientes que el tiempo que inviertes en charlar con la IA es excesivo y comienza a afectarte en tu día a día, cuidado, esto podría ser señal de uso problemático. Considera hablar con tu proveedor de salud mental. En cualquier caso, te dejo un sencillo consejo para comenzar a tomar control nuevamente sobre tu vida: registra y anota el número de horas que pasas hablando con ChatGPT y comienza a reducir el tiempo poco a poco con el paso de los días. Cada pequeño ajuste cuenta y te acerca a un uso más saludable de la IA.
Escribir lo que te pasa a una IA, quizá te ayude a organizar ideas pero no a procesar y sanar. No pongas en manos de un robot, de un software, toda tu salud mental.
Y hasta aquí la publicación de hoy. Espero que te haya servido de ayuda. Me encuentras en redes. Toda la información la tienes en esta página web. Echa un vistazo y siéntete como en casa. Un abrazo fuerte.
Lucía Ortiz, tu psicóloga en Berlín / Brandemburgo y online.
Referencias
S. D. Ostergaard, "Generative Artificial Intelligence Chatbots and Delusions: From Guesswork to Emerging Cases," Acta Psychiatrica Scandinavica 151, no. 2 (2025): 103--104. https://doi.org/10.1111/acps.13769
S. D. Ostergaard, "Will Generative Artificial Intelligence Chatbots Generate Delusions in Individuals Prone to Psychosis?" Schizophrenia Bulletin 49, no. 6 (2023): 1418--1419. https://doi.org/10.1093/schbul/sbad128