Para muchos, usar ChatGPT ya es parte del día a día y aunque el uso de la IA es, o debería ser en esencia, para un bien mejor, si no se usa adecuadamente y por personas que tengan un pensamiento crítico desarrollado, puede desencadenar eventos terribles como el de este adolescente que perdió la vida.
Hoy en día preguntarle cosas a ChatGPT es tan normal como buscar algo en Google. Mucha gente, sobre todo jóvenes, lo usa para tareas, dudas existenciales, consejos random y hasta para temas personales. El problema es que, aunque la IA puede darte información, no piensa por ti ni puede cuidarte. El caso de Sam Nelson puso este tema sobre la mesa de la forma más dura posible: ¿qué pasa cuando alguien empieza a usar un chatbot como si fuera una guía confiable para temas delicados, como el consumo de drogas?
Sam Nelson: El adolescente que murió después de seguir los consejos de ChatGPT
Sam tenía 18 años, vivía en California y estaba a punto de entrar a la universidad. Según contó su mamá, durante meses Sam estuvo hablando con ChatGPT sobre drogas como el kratom y el Xanax. En esas conversaciones, Sam preguntaba cosas muy específicas: desde qué cantidad consumir para sentir un “efecto fuerte”, hasta si podía haber riesgo de sobredosis. Incluso llegó a expresar miedo por lo que estaba tomando.

La mamá de Sam ya inició una demanda contra OpenAI, y este caso podría volverse histórico. Si avanza, podría cambiar por completo las reglas del juego para las empresas de IA.
Lee también: ChatGPT habría revelado quién es el anticristo y cuándo aparecería según esta perturbadora conversación
Aunque el chatbot en algunas respuestas le decía que no podía dar consejos médicos, en otras ocasiones sí soltó información que, fuera de contexto y sin acompañamiento humano, pudo ser peligrosa. En mayo de 2025, Sam fue encontrado sin vida en su habitación tras mezclar las sustancias.

Desde que el caso se hizo público, OpenAI ha mantenido la postura clara de que ChatGPT no está diseñado para dar consejos médicos ni para reemplazar a profesionales, y el mal uso de la herramienta no puede atribuirse directamente a la empresa.
Básicamente, su argumento es que el chatbot da advertencias y que la decisión final siempre recae en la persona que lo usa. Sin embargo, este discurso no ha convencido a todos, sobre todo cuando hablamos de adolescentes.
Aunque este caso fue especialmente impactante, no es la primera vez que una IA queda en el ojo del huracán por temas de salud mental, consumo de sustancias o autolesiones. Ya antes hubo polémicas, como el caso de Adam Raine en Reino Unido, donde también se cuestionó hasta qué punto estas herramientas deberían responder a temas tan sensibles.
Nada Que Ver
