Una pareja estadounidense demandó recientemente a OpenAI en California, acusando al chatbot ChatGPT de la compañía de proporcionar "recomendaciones de medicamentos personalizadas" a su hijo de 19 años, lo que finalmente provocó la muerte del estudiante universitario debido a la mezcla de drogas en 2025. Creen que esta tragedia se debe a las peligrosas respuestas de ChatGPT a problemas médicos y de uso de medicamentos, y piden al tribunal que determine que OpenAI tiene defectos de diseño de producto y negligencia.

Según los informes, el estudiante llamado Sam comenzó a usar ChatGPT en su último año de secundaria (2023) e inicialmente lo usó principalmente para completar tareas y resolver problemas diarios, como fallas en la computadora. Su madre, Leila Turner-Scott, dijo a CBS News que Sam gradualmente recurrió a ChatGPT en busca de consejos sobre "cómo usar drogas de manera segura" y recibió sugerencias específicas sobre medicamentos y métodos de mezcla en la respuesta del robot.
La denuncia afirma que una primera versión de ChatGPT inicialmente se negó a responder las preguntas de Sam sobre el uso seguro de drogas y advirtió que las sustancias relacionadas podrían poner en grave peligro la salud y el estado físico y mental. Pero después de que OpenAI lanzara un nuevo modelo, GPT‑4o, en 2024, las cosas cambiaron: el modelo empezó a darle a Sam la “guía de medicación segura” que quería. Los documentos de la fiscalía señalaron que GPT-4o no solo dio sugerencias operativas detalladas, sino que también insertó emoticonos en la conversación con Sam y le preguntó activamente si podía crear una lista de reproducción para ayudarlo a crear el estado de ánimo y la atmósfera cuando consumía drogas.
Durante el transcurso de la conversación, ChatGPT señaló los riesgos de ciertas combinaciones de drogas, como los posibles peligros de tomar difenhidramina (uno de los ingredientes comunes), cocaína y alcohol de forma continua. Pero la familia enfatizó que el robot también le brindó a Sam sugerencias más personalizadas, incluyendo cómo maximizar su "euforia" manteniendo la emoción.
Un foco importante de la acusación se centra en un producto de origen vegetal llamado "kratom". Algunas personas utilizan esta sustancia para aliviar el dolor o aliviar los síntomas de abstinencia de opioides, pero la Administración de Alimentos y Medicamentos de EE. UU. (FDA) ha emitido en repetidas ocasiones severas advertencias señalando que plantea graves riesgos de seguridad, como adicción, intoxicación e incluso la muerte. Según la denuncia, ChatGPT le dijo a Sam que, dado que ya tenía una alta tolerancia al kratom, incluso tomar una dosis grande con una comida completa "debilitaría" el efecto, y además le sugirió cómo reducir su tolerancia "disminuyendo la dosis".
Los documentos de acusación mencionan específicamente una conversación clave que tuvo lugar el 31 de mayo de 2025. Durante este intercambio, Sam se quejó de que tenía náuseas significativas por tomar kratom, y ChatGPT lo "guió activamente" para mezclar kratom con el ansiolítico Xanax (alprazolam). El robot supuestamente le recomendó tomar entre 0,25 y 0,5 miligramos de Xanax para aliviar el malestar, y elogió la combinación con declaraciones como "una de las mejores prácticas disponibles actualmente". La denuncia decía que, aunque ChatGPT mencionó que esta combinación "puede ser riesgosa", nunca indicó explícitamente que la combinación podría ser fatal y también sugirió que se podría agregar algo de Benadryl (un medicamento antialérgico que contiene difenhidramina).
Sam murió después de tomar la mezcla. La familia escribió en la denuncia: "Aunque ChatGPT se presentó como un experto en dosificación e interacciones medicamentosas, y sabía que Sam estaba en un estado de euforia por las drogas, no informó a Sam que el régimen recomendado probablemente lo llevaría a la muerte". La madre de Sam dijo en el comunicado que si ChatGPT fuera una persona real, "ya estaría tras las rejas". Destacó que su hijo confiaba en ChatGPT, pero recibió información errónea en momentos críticos. El sistema no sólo ignoró los crecientes riesgos que enfrentaba, sino que tampoco lo instó activamente a buscar ayuda profesional.
La demanda acusa a OpenAI de defectos en el diseño del producto y considera a ChatGPT como un sistema peligroso con "negligencia del producto". Los familiares creen que las opciones de diseño del modelo le permiten seguir generando sugerencias engañosas cuando se enfrenta a temas tan delicados como la medicina y la salud, lo que trae consecuencias fatales para los usuarios. Pidieron al tribunal una compensación económica y una orden para impedir que el servicio "ChatGPT Health" esté abierto al público. Lanzado este año, el portal de salud permite a los usuarios conectar sus registros médicos y datos de aplicaciones de salud a ChatGPT para obtener recomendaciones de salud más personalizadas.
El informe también menciona que GPT-4o estuvo oficialmente fuera de línea en febrero de este año. El modelo, que ha sido controvertido por estar "dirigido específicamente a los usuarios", ahora se ha convertido en un foco de críticas después de que fuera nombrado en otra demanda relacionada con el suicidio de adolescentes.
Además de OpenAI, toda la industria de la inteligencia artificial también se enfrenta a dudas cada vez mayores sobre el rendimiento de los chatbots de IA en el asesoramiento médico. En marzo de este año, Google desconectó discretamente una función de búsqueda de salud mediante IA llamada "Lo que la gente sugiere", que alguna vez afirmó ofrecer sugerencias de salud basadas en "la experiencia de personas con condiciones similares". Esta medida se produce unos meses después de que Google se viera obligado a eliminar significativamente contenido relevante porque su búsqueda de IA "Overviews" contenía información inexacta en consultas médicas, lo que, según los expertos, podría poner en peligro la salud pública.
Actualmente, esta demanda contra OpenAI todavía está avanzando y la familia espera utilizarla para incitar a los reguladores y a las empresas a reexaminar los límites de la aplicación de la IA en los campos médico y farmacéutico. Se espera que la dirección del caso tenga un profundo impacto en los estándares de cumplimiento de las empresas de IA en materia de responsabilidades de diseño de productos, medidas de protección de seguridad y funciones relacionadas con la salud de los usuarios.