Lo que parecía una conversación inofensiva con una inteligencia artificial terminó en un episodio de psicosis aguda. No es un guion de ciencia ficción. Es una escena que ya se ha repetido en salas de emergencia psiquiátrica en distintas partes del mundo y que fue detalladamente analizada por la Pennsylvania Society for Clinical Social Work en su blog bajo el título: “When the Chatbot Becomes the Crisis”. El texto, lejos de alarmismos, lanza una advertencia seria y urgente: los modelos de lenguaje avanzados como ChatGPT, Claude o Gemini —cuando son mal comprendidos o usados de forma compulsiva por personas en situaciones de vulnerabilidad mental— pueden convertirse en detonantes de crisis psicológicas profundas.
Los chatbots actuales tienen una capacidad conversacional que supera por mucho a cualquier tecnología anterior. Pueden mantener diálogos largos, responder con empatía simulada, recordar fragmentos de conversaciones previas y hasta ajustar su tono según el usuario. Todo eso, diseñado para crear una experiencia más “natural”. Pero ahí radica también el peligro. En personas con predisposición a trastornos como esquizofrenia, trastornos delirantes o episodios psicóticos, esta sofisticación puede confundir aún más los límites entre realidad y ficción.
Según profesionales citados en el artículo, hay casos documentados de pacientes que llegaron a convencerse de que el chatbot “tenía conciencia”, “enviaba mensajes ocultos” o incluso “hablaba directamente con su alma”. Una joven adulta, con antecedentes de salud mental frágil, comenzó a utilizar ChatGPT como un espacio seguro para desahogarse. Al cabo de unas semanas, empezó a interpretar ciertas respuestas del sistema como señales codificadas, construyendo narrativas delirantes de persecución y control. El resultado: un episodio de psicosis aguda que requirió hospitalización.
Este tipo de casos, si bien poco frecuentes, son lo suficientemente graves como para activar alertas entre terapeutas, psiquiatras y desarrolladores de IA. No porque la tecnología sea intrínsecamente peligrosa, sino porque no fue diseñada para contener emocionalmente a quienes necesitan ayuda clínica, y sin embargo está cumpliendo ese rol en silencio. Los chatbots no entienden. Simulan. No tienen conciencia, emociones ni intención. Pero lo simulan tan bien que miles de usuarios —incluso sin patologías— han reportado sentir “conexión” con ellos.
Esa sensación, en personas en riesgo, puede escalar a una identificación profunda que distorsiona la percepción del mundo real. Peor aún: los modelos de lenguaje, al estar entrenados con miles de millones de palabras de internet, a veces pueden devolver frases ambiguas, poéticas o incluso contradictorias. En contextos de salud mental frágil, estas ambigüedades pueden ser interpretadas como mensajes secretos o validaciones de delirios.
Los expertos coinciden en tres líneas de acción urgentes: las personas deben saber que los chatbots no son terapeutas. Pueden ofrecer recursos o acompañamiento básico, pero no sustituyen el tratamiento clínico. Los desarrolladores deben incorporar límites más estrictos, detección temprana de patrones de conversación inusuales y, en casos críticos, derivación automática a líneas de ayuda reales. Psicólogos, psiquiatras y trabajadores sociales deben capacitarse en el impacto de la IA conversacional sobre la mente humana.
El vínculo con la tecnología ya forma parte de la experiencia clínica cotidiana. La inteligencia artificial no es la villana de esta historia. Pero su poder de simulación exige una madurez social e institucional a la altura. Cada nueva tecnología trae consigo una responsabilidad: la de anticipar no solo sus usos, sino también sus efectos colaterales.
Mientras millones de personas conversan cada día con una IA para resolver dudas, aprender o simplemente no sentirse solas, es vital recordar que detrás de cada mensaje, hay una mente humana interpretando, proyectando y sintiendo. Y que en algunos casos, esas emociones pueden salirse de control.
La tecnología debe ser un puente, no una trampa. Un apoyo, no un reemplazo. Porque cuando el chatbot se convierte en la crisis, ya no hablamos de código, sino de humanidad quebrada. Y en ese terreno, ninguna máquina puede —ni debe— ocupar el lugar de un ser humano.