Worldsbeyondnft.com – Seorang pria berusia sekitar 60 tahun dirawat di rumah sakit setelah mengalami keracunan bromida. Ini adalah sebuah kasus langka yang menyoroti risiko besar penggunaan AI seperti ChatGPT untuk saran kesehatan tanpa pengawasan profesional. Insiden ini membuka diskusi luas mengenai batas aman penggunaan teknologi dalam bidang medis.
Daftar Isi:
Dari Salt Phobia ke Bromide Berbahaya
Awalnya, pria ini ingin mengurangi konsumsi garam (natrium klorida) karena membaca bahwa dampaknya buruk bagi kesehatan. Dia kemudian menanyakan alternatif untuk garam melalui ChatGPT. Pada akhirnya, ia mengikuti saran untuk menggantikan garam dengan sodium bromide, suatu senyawa yang dikenal beracun jika dikonsumsi. Setelah tiga bulan rutin mengganti garam dapur dengan sodium bromide yang diperolehnya secara daring, ia mulai menunjukkan gejala serius seperti paranoid, halusinasi, kebingungan, hingga gangguan motorik dan tidur.
Gejala Bromism: Psikosis hingga Gangguan Elektrolit
Setelah dirawat, dokter menemukan bahwa kadar bromida dalam tubuhnya jauh di atas batas aman—sekitar 233 kali lipat dari normal—kejadian yang disebut bromism. Kondisi ini memicu kebingungan, halusinasi visual dan auditori, hingga paranoia akut yang bahkan membuatnya menderita delusi bahwa tetangganya meracuninya. Sering disertai juga dengan gangguan kulit seperti kemerahan dan luka ringan.
Perubahan elektrolit juga terlihat, ditandai dengan “pseudohyperchloremia” hasil tes menunjukkan kadar klorida tinggi, padahal itu merupakan interferensi dari tingginya kadar bromida dalam darah.
Perawatan dan Pemulihan Bertahap
Dokter mengintervensi dengan pemberian cairan intravena dan elektrolit untuk menormalkan kadar garam tubuh. Pasien juga diberikan obat antipsikotik untuk menangani gejala psikosis. Selama perawatan sekitar tiga minggu, gejalanya mereda secara bertahap hingga ia stabil. Pada pemeriksaan lanjutan setelah keluar, ia sudah menunjukkan kondisi mental yang membaik.
Tanggapan dari OpenAI
Kasus ini menjadi peringatan serius bahwa AI besar seperti ChatGPT bisa memberikan informasi yang keliru atau berbahaya jika tidak didampingi konteks medis yang tepat. Model yang digunakan kemungkinan adalah versi GPT‑3.5 atau GPT‑4, yang memang masih rentan memberikan rekomendasi tanpa pemeriksaan klinis. Saat ini, OpenAI sudah menegaskan bahwa ChatGPT tidak dimaksudkan sebagai pengganti profesional kesehatan dan sedang melatih sistemnya agar lebih sering mengajak pengguna untuk berkonsultasi pada dokter.
Kesimpulan
Kasus ini menggarisbawahi fakta penting: meskipun AI seperti ChatGPT canggih dan mampu mengakses banyak informasi, ia bukan alat yang bisa diandalkan untuk nasihat kesehatan, terutama ketika menyangkut nutrisi dan obat-obatan. Penggunaan AI sejatinya harus dilakukan dengan hati-hati dan selalu disertai konsultasi profesional. Jika diperlukan, saya bisa bantu membuat versi SEO-friendly untuk blog atau media sosial yang menekankan kewaspadaan terhadap info kesehatan dari AI.