Pide ayuda a ChatGPT para mejorar su dieta y acaba en el hospital con una enfermedad típica del siglo XIX

Un hombre termina hospitalizado tras seguir una recomendación de ChatGPT: OpenAI advierte que su herramienta no sustituye a profesionales sanitarios

Un hombre de 60 años en Estados Unidos fue ingresado de urgencia tras pasar tres meses siguiendo una indicación obtenida a través de ChatGPT. El paciente sustituyó la sal común por bromuro de sodio, lo que provocó bromismo, una intoxicación rara hoy en día pero frecuente entre finales del siglo XIX y principios del XX, cuando este compuesto formaba parte de medicamentos de venta libre y con receta.

El caso, publicado en la revista Annals of Internal Medicine Clinical Cases, comenzó cuando el hombre buscaba reducir su consumo de cloruro sódico. Según relató, la herramienta de inteligencia artificial le sugirió el uso de bromuro, un compuesto que antiguamente se empleaba como sedante y que fue retirado por sus riesgos para la salud. Convencido de que era una alternativa segura, compró bromuro de sodio por internet y lo incorporó a todas sus comidas.

Semanas después, desarrolló síntomas neurológicos y psiquiátricos como paranoia, alucinaciones, insomnio y problemas de coordinación, que motivaron su traslado al hospital.

Diagnóstico y tratamiento
Las pruebas iniciales mostraron niveles elevados de cloruro, aunque el resultado era erróneo debido a que el bromuro interfiere en este análisis. Tras consultar con toxicología, los médicos diagnosticaron bromismo crónico. El tratamiento incluyó hidratación, reposición de electrolitos y medicación antipsicótica. El paciente también presentó lesiones cutáneas, acné y protuberancias rojizas asociadas a la intoxicación. Tras estabilizarse, fue dado de alta y se mantuvo estable en las revisiones posteriores.

Los autores del informe subrayaron que ningún profesional médico recomendaría el bromuro como sustituto de la sal y advirtieron sobre el riesgo de seguir consejos sanitarios sin supervisión cualificada.

Ante consultas del medio Live Science, un portavoz de OpenAI recordó que ChatGPT no está diseñado para diagnosticar ni tratar enfermedades y que no debe usarse como única fuente de información médica, tal y como se especifica en sus condiciones de uso.

Scroll al inicio