
Um homem desenvolveu doença rara após seguir conselho do ChatGPT para mudar sua dieta e cortar completamente o sal. O caso, registrado nos Estados Unidos, surpreendeu médicos e pesquisadores, já que envolveu uma recomendação perigosa feita por uma ferramenta de inteligência artificial.
O paciente, de 60 anos, queria substituir o sal de cozinha e perguntou ao Chat quais opções existiam. O ChatGPT respondeu sugerindo brometo de sódio, um composto químico atualmente evitado justamente por seus efeitos tóxicos. O homem seguiu a orientação sem consultar um médico, o que desencadeou uma sequência grave de problemas de saúde.
Após três meses consumindo brometo, ele apresentou sinais estranhos. Começou com paranoia, acreditando que um vizinho queria envenená-lo e, além disso, sofreu alucinações, insônia, sede constante e acne facial intensa. A situação se agravou a ponto de ele recusar água oferecida por outras pessoas.
Com a piora dos sintomas, a família decidiu levá-lo ao hospital. Lá, os médicos confirmaram o diagnóstico de bromismo: intoxicação causada por brometo. Essa condição era comum no início do século XX quando a substância era utilizada como sedativo, mas hoje é extremamente rara.
Em testes posteriores, os médicos verificaram que o ChatGPT continuava sugerindo brometo de sódio como substituto do sal, sem nenhum alerta sobre os riscos. Por isso, os especialistas destacam que qualquer mudança alimentar precisa de acompanhamento profissional. No caso do homem que desenvolveu doença rara após seguir conselho do ChatGPT, a ausência de supervisão médica contribuiu diretamente para o agravamento do quadro clínico.
Antes de alterar a dieta ou adotar qualquer recomendação online, é essencial confirmar a segurança da orientação. Assim, evita-se que uma decisão simples resulte em consequências graves para a saúde.
FONTE: FATOS DESCONHECIDOS