Scroll untuk baca artikel
Example 325x300
Example floating
Example floating
Example 728x250
Berita

Pria Ini Keracunan Bromida Setelah Ikuti Saran Diet dari ChatGPT

2
×

Pria Ini Keracunan Bromida Setelah Ikuti Saran Diet dari ChatGPT

Sebarkan artikel ini

Worldsbeyondnft.com Seorang pria berusia sekitar 60 tahun dirawat di rumah sakit setelah mengalami keracunan bromida. Ini adalah sebuah kasus langka yang menyoroti risiko besar penggunaan AI seperti ChatGPT untuk saran kesehatan tanpa pengawasan profesional. Insiden ini membuka diskusi luas mengenai batas aman penggunaan teknologi dalam bidang medis.

Dari Salt Phobia ke Bromide Berbahaya

Awalnya, pria ini ingin mengurangi konsumsi garam (natrium klorida) karena membaca bahwa dampaknya buruk bagi kesehatan. Dia kemudian menanyakan alternatif untuk garam melalui ChatGPT. Pada akhirnya, ia mengikuti saran untuk menggantikan garam dengan sodium bromide, suatu senyawa yang dikenal beracun jika dikonsumsi. Setelah tiga bulan rutin mengganti garam dapur dengan sodium bromide yang diperolehnya secara daring, ia mulai menunjukkan gejala serius seperti paranoid, halusinasi, kebingungan, hingga gangguan motorik dan tidur.

Gejala Bromism: Psikosis hingga Gangguan Elektrolit

Setelah dirawat, dokter menemukan bahwa kadar bromida dalam tubuhnya jauh di atas batas aman—sekitar 233 kali lipat dari normal—kejadian yang disebut bromism. Kondisi ini memicu kebingungan, halusinasi visual dan auditori, hingga paranoia akut yang bahkan membuatnya menderita delusi bahwa tetangganya meracuninya. Sering disertai juga dengan gangguan kulit seperti kemerahan dan luka ringan.

Perubahan elektrolit juga terlihat, ditandai dengan “pseudohyperchloremia” hasil tes menunjukkan kadar klorida tinggi, padahal itu merupakan interferensi dari tingginya kadar bromida dalam darah.

Perawatan dan Pemulihan Bertahap

Dokter mengintervensi dengan pemberian cairan intravena dan elektrolit untuk menormalkan kadar garam tubuh. Pasien juga diberikan obat antipsikotik untuk menangani gejala psikosis. Selama perawatan sekitar tiga minggu, gejalanya mereda secara bertahap hingga ia stabil. Pada pemeriksaan lanjutan setelah keluar, ia sudah menunjukkan kondisi mental yang membaik.

Tanggapan dari OpenAI

Kasus ini menjadi peringatan serius bahwa AI besar seperti ChatGPT bisa memberikan informasi yang keliru atau berbahaya jika tidak didampingi konteks medis yang tepat. Model yang digunakan kemungkinan adalah versi GPT‑3.5 atau GPT‑4, yang memang masih rentan memberikan rekomendasi tanpa pemeriksaan klinis. Saat ini, OpenAI sudah menegaskan bahwa ChatGPT tidak dimaksudkan sebagai pengganti profesional kesehatan dan sedang melatih sistemnya agar lebih sering mengajak pengguna untuk berkonsultasi pada dokter.

Kesimpulan

Kasus ini menggarisbawahi fakta penting: meskipun AI seperti ChatGPT canggih dan mampu mengakses banyak informasi, ia bukan alat yang bisa diandalkan untuk nasihat kesehatan, terutama ketika menyangkut nutrisi dan obat-obatan. Penggunaan AI sejatinya harus dilakukan dengan hati-hati dan selalu disertai konsultasi profesional. Jika diperlukan, saya bisa bantu membuat versi SEO-friendly untuk blog atau media sosial yang menekankan kewaspadaan terhadap info kesehatan dari AI.

Example 120x600

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *