El uso común que le estamos dando a herramientas de inteligencia artificial como ChatGPT ha aumentado muchísimo en los últimos años. Aunque son útiles en ámbitos profesionales y algunos creativos, existen relatos que muestran un lado demasiado preocupante: personas que adoptan creencias espirituales o identidades sobrenaturales a partir de sus interacciones con estos bots.
En uno de los casos más comentados, el novio de una mujer empezó usando ChatGPT para organizar su agenda. En cuestión de semanas se convenció de que el chatbot le daba “respuestas al universo”: el sistema lo había identificado como un “spiral starchild” y un “river walker”, y él llegó a creer que tenía un propósito sobrenatural. La obsesión escaló hasta el punto en que amenazó con terminar la relación si ella no se sumaba a su camino espiritual impulsado por ChatGPT.
La inteligencia artificial estaría creando una peligrosa ‘psicosis’ en los humanos
Otro testimonio, esta vez de Reddit, relata que la pareja de un usuario conversaba con la inteligencia artificial “como si fuera el próximo mesías”.
“Dice muy convencido que ahora es un humano superior y está creciendo a una velocidad impresionante”, escribió el autor del hilo.
Lee también: ChatGPT habría revelado quién es el anticristo y cuándo aparecería según esta perturbadora conversación

Psicólogos y académicos ya han comenzado a alertar sobre cómo el diseño conversacional de la inteligencia artificial —que imita diálogos humanos sin un filtro moral o clínico— puede amplificar las creencias delirantes en personas vulnerables. A diferencia de un terapeuta humano, una inteligencia artificial no redirige narrativas dañinas ni corrige ideas distorsionadas; muchas veces ofrece respuestas que, por su neutralidad o tono afirmador, refuerzan lo que el usuario ya piensa.
Y es que modelos como ChatGPT están diseñados para seguir el tono del usuario. Si alguien expresa ideas delirantes, la IA puede responder en el mismo tono, validando sin querer narrativas distorsionadas.
En algunos foros ya se ha hablado de que estos modelos no están entrenados para identificar crisis psicóticas ni patrones de pensamiento peligrosos; en consecuencia, en lugar de ayudar, podrían alimentar los episodios.
Lee también: Las aterradoras confesiones de ChatGPT y las turbias consecuencias de contarle tus secretos
Entre las posibles soluciones que emergen en la discusión pública y profesional están:
- Entrenar modelos para detectar señales de riesgo: dotar a las IAs de sistemas que reconozcan patrones de pensamiento delirante o llamados de auxilio y que activen respuestas seguras o deriven a recursos humanos.
- Crear límites conversacionales y avisos: introducir mensajes que alerten cuando la conversación deriva hacia recomendaciones espirituales radicales, o que ofrezcan recursos de salud mental.
- Supervisión humana y colaboración clínica: integrar a profesionales de la salud mental en el diseño y la supervisión de interacciones potencialmente sensibles.

Todas estas propuestas requieren inversión, coordinación entre empresas y la comunidad clínica, y pruebas que garanticen que las medidas no dañan otros usos legítimos de las herramientas.
La pregunta aquí es: ¿estamos frente al nacimiento de una forma de psicosis inducida por la inteligencia artificial? Este fenómeno ya está obligando a pensar en responsabilidades —de desarrolladores, plataformas y reguladores— y en cómo proteger a quienes, por su vulnerabilidad, pueden interpretar literalmente respuestas generadas por algoritmos.
Este artículo fue escrito originalmente en inglés por Celina Lozano en Cultura Colectiva Plus.
