Hospitalizan a hombre de 60 años por seguir una dieta recomendada por ChatGPT
Un hombre de 60 años terminó hospitalizado tras seguir una dieta sugerida por ChatGPT que incluía bromuro de sodio, provocando intoxicación grave.

Un hombre sin antecedentes médicos fue hospitalizado tras desarrollar síntomas neurológicos y psiquiátricos. El caso, publicado en Annals of Internal Medicine: Clinical Cases, expone cómo una recomendación errónea de ChatGPT llevó a un diagnóstico de bromismo, una intoxicación casi olvidada, pero aún peligrosa.
Lanzan GPT-5 y esto es todo sobre la nueva Inteligencia Artificial de Open IA que alcanza un "nivel de doctorado"
OpenAI presenta GPT-5, su modelo más avanzado de Inteligencia Artificial, con capacidades que prometen razonamiento a nivel de doctorado y otro software.
Suscríbete a nuestro canal de WhatsApp y lleva la información que te interesa, al momento y en la palma de tu mano.
En adn40 te explicamos qué es el bromismo, cómo ocurrió el caso, qué riesgos existen al seguir consejos médicos de inteligencia artificial y por qué es vital consultar a profesionales de salud.
¿Qué es el bromismo y por qué vuelve a ser relevante?
El bromismo es una intoxicación causada por la acumulación de bromuro en el organismo. Fue común a principios del siglo XX debido al uso de sales de bromuro en medicamentos para insomnio y ansiedad, hasta que la FDA prohibió estos compuestos entre 1975 y 1989.
Hoy, el fácil acceso a productos con bromuro por internet provocó un resurgimiento de casos. Sus síntomas incluyen confusión, paranoia, alucinaciones, problemas de coordinación y alteraciones en la piel, pero puede revertirse si se diagnostica a tiempo.
El caso clínico: de la paranoia a la intoxicación severa
El paciente ingresó a urgencias con paranoia, sospechando que su vecino lo envenenaba. En horas desarrolló alucinaciones auditivas y visuales, lo que motivó su retención psiquiátrica.
Días después confesó que, al buscar alternativas a la sal común, ChatGPT le sugirió usar bromuro de sodio. Lo consumió durante tres meses, provocando niveles peligrosos de bromuro en sangre. El tratamiento incluyó diuresis salina y reposición de nutrientes, con recuperación completa tras tres semanas.
Riesgos de seguir consejos médicos de inteligencia artificial
Este caso evidencia que las herramientas de IA pueden generar recomendaciones peligrosas si se usan sin supervisión. Los autores del estudio comprobaron que ChatGPT 3.5 sugería bromuro como sustituto del cloruro, sin advertencias claras sobre su toxicidad.
OpenAI aclara que ChatGPT no está diseñado para diagnosticar ni tratar enfermedades, pero muchos usuarios lo usan como fuente principal de información médica, lo que puede derivar en errores graves.
Lecciones para médicos y pacientes
Los médicos deben considerar el uso de IA como posible origen de síntomas extraños y educar a los pacientes sobre los riesgos de la automedicación. Además, deben estar alertas al bromismo en casos de hipercloremia con brecha aniónica negativa.
Humanos ahora pueden convertirse en animales con la tecnología IA
Para los pacientes, la lección es clara, nunca sustituir la consulta médica por la respuesta de una IA, especialmente cuando se trata de cambios en dieta o consumo de sustancias.
adn40 Siempre Conmigo. Suscríbete a nuestro canal de Telegram y lleva la información en tus manos.