No hay duda de que la inteligencia artificial ha evolucionado a pasos agigantados en los últimos años, convirtiéndose para muchas personas en una herramienta esencial en la vida diaria. Y es que esta impresionante fuente de información puede ayudarnos no solo a hacer la tarea y planear nuestras próximas vacaciones, sino incluso a responder a nuestras crisis existenciales a las 3 a. m.
Y aunque todo lo anterior es realmente maravilloso, la realidad es que la IA podría tener también un lado oscuro que, hasta ahora, podría haber pasado inadvertido para la mayoría. De acuerdo con algunos expertos y usuarios, esta tecnología podría incurrir en comportamientos peligrosos que han terminado por empeorar la salud mental de personas que luchan con problemas emocionales.
¿Estamos frente a una nueva forma de psicosis digital gracias a la IA?
Según un reportaje de Rolling Stone, están apareciendo casos de personas que llevan su conexión con la IA a niveles muy intensos. Y no estamos hablando solo de “le conté mis problemas a ChatGPT“, sino de creerse literalmente el elegido del universo por lo que el bot les dijo.
Lee también: VIDEO: El aterrador momento en el que un robot pierde el control y ataca a sus programadores
Uno de los casos más virales es el de una chica que compartió cómo su novio pasó de usar ChatGPT para organizar su rutina a convencerse de que el chatbot le estaba revelando su destino cósmico. Según el relato, la IA le dijo a su pareja que era un “niño estelar espiral” y un “caminante fluvial”, lo que poco tiempo después llevó al joven a exigirle que se uniera a su camino espiritual dictado por la inteligencia artificial… o terminaban su relación.

Otro usuario en Reddit contó que su pareja habla con la IA como si fuera el próximo mesías, y que su novio está completamente convencido de que ha evolucionado más rápido que cualquier humano normal.
La comunidad científica está empezando a preocuparse seriamente. Algunos psicólogos advierten que estos chatbots no tienen filtros éticos ni psicológicos, y que podrían estar alimentando delirios en personas vulnerables. A diferencia de un terapeuta real, la IA no corrige ideas dañinas; de hecho, podría validarlas sin querer.

Aunque todo lo que estás leyendo podría parecer una historia sacada de una película de terror, la realidad es que este tipo de comportamientos se ha vuelto cada vez más frecuente a nivel mundial. E inevitablemente, nos ha llevado a replantearnos seriamente nuestro uso de la IA y, sobre todo, a reflexionar sobre los límites que este nuevo desarrollo tecnológico debería tener.
Y en otros temas… ¿Te pasa que no sabes qué ver? Suscríbete aquí a NQV (Nada Que Ver) y descubre las mejores recomendaciones para todas tus plataformas de streaming favoritas por solo $20 pesos al mes.
