Un hombre de 60 años experimentó un grave episodio de psicosis después de sustituir la sal común por bromuro de sodio, influenciado por consultas a ChatGPT. Preocupado por los efectos de la sal, buscó alternativas en el chatbot, que le sugirió el bromuro, sustancia tóxica en humanos. Tras tres meses de consumo, el hombre fue hospitalizado con paranoia, donde se le diagnosticó bromismo, una condición rara en la actualidad. Los médicos descubrieron altos niveles de bromuro en sangre, requiriendo tres semanas de sueroterapia para su recuperación. Este caso resalta los peligros de seguir consejos de inteligencia artificial sin supervisión médica y subraya la necesidad de verificar información médica con profesionales calificados. Los modelos más recientes de ChatGPT han mejorado, incluyendo advertencias sobre el uso de sustancias, pero el incidente advierte sobre los riesgos de la sobreinformación y el «hazlo tú mismo» en salud.