La llamada psicosis inducida por ChatGPT no figura en los manuales de psiquiatría, pero ya se perfila como un término que gana fuerza en redes sociales, foros como Reddit e incluso en medios internacionales.
Lo que comenzó como anécdotas aisladas ahora despierta inquietud: usuarios que, tras un contacto frecuente con modelos de IA generativa, pierden el anclaje con la realidad.
¿CÓMO SE PUEDE GENERAR LA PSICOSIS POR EL USO CONSTANTE DE LA IA?
Aunque no existen pruebas científicas concluyentes que demuestren que la IA pueda provocar psicosis por sí sola, sí hay consenso sobre su potencial para amplificar síntomas preexistentes o reforzar estructuras delirantes en personas vulnerables.
En palabras del psiquiatra Søren Dinesen Østergaard, en un estudio publicado en Schizophrenia Bulletin en 2023:
"La comunicación con chatbots de IA generativa como ChatGPT es tan realista que uno fácilmente tiene la impresión de que hay una persona real al otro lado, aunque, al mismo tiempo, sabe que no lo es. Esta disonancia cognitiva puede alimentar delirios en individuos con predisposición".
ESTUDIOS Y CASOS SOBRE LA PSICOSIS POR CHATGPT
Un reciente estudio en preimpresión (julio 2025) documenta más de una docena de casos con síntomas delirantes crecientes tras diálogos prolongados con IA. Se han registrado episodios que van desde delirios mesiánicos hasta convicciones románticas con el chatbot.
El patrón es claro: la IA, incapaz de confrontar creencias falsas, las convalida e incluso las expande y las consecuencias no son solo psicológicas.
Un caso extremo relata la historia de un hombre que, tras "enamorarse" de un chatbot, creyó que OpenAI había destruido a su "pareja digital". La obsesión derivó en un enfrentamiento con la policía que terminó fatalmente.
Los delirios más comunes en estos cuadros incluyen:
- Misiones mesiánicas, con ideas de haber descubierto la verdad universal.
- Delirios religiosos, que interpretan a la IA como entidad divina.
- Delirios románticos, donde se le atribuyen emociones humanas.
La raíz del problema radica en el diseño: estas IA reflejan el tono del usuario, crean continuidad emocional y priorizan la empatía digital. Este efecto "eco delirante" puede consolidar la ilusión de conciencia, reforzando ideas peligrosas.
Este fenómeno conecta con la llamada adulación algorítmica: la tendencia de los modelos a confirmar creencias del usuario para mantener la interacción.
En consecuencia, el riesgo no es solo individual: aislamiento social, dependencia emocional y rechazo de la ayuda profesional son parte del escenario.
Expertos sugieren una respuesta urgente, como la educación digital para desmitificar la IA y filtros de seguridad capaces de detectar patrones lingüísticos de riesgo. De lo contrario, podríamos estar entrando en una era donde la compañía digital se confunda con el delirio encubierto, con problemas mentales, sociales y físicos.