Berita International

Ada-ada Saja! Lansia Masuk RS Gegara Ikuti Saran ChatGPT, Garam Diganti dengan Natrium Bromida

Seorang pria berusia 60 tahun atau lanjut usia (lansia) yang harus menjalani perawatan intensif di rumah sakit setelah mengikuti saran AI.

Editor: Saifullah
Dok CBS News
SARAN CHATGPT - Ilustrasi ChatGPT. Seorang pria 60 tahun dirawat di rumah sakit setelah mengganti garam dapur dengan natrium bromida selama tiga bulan usai mengikuti saran ChatGPT. Kasus ini menjadi peringatan bahaya mengandalkan AI untuk saran medis. 

Seorang pria berusia 60 tahun atau lanjut usia (lansia) yang harus menjalani perawatan intensif di rumah sakit setelah mengikuti saran AI.

SERAMBINEWS.COM, JAKARTA – Penggunaan Artificial Intelligence (AI) dalam kehidupan sehari-hari saat ini sudah sangat umum.

Hampir semua pengguna gadget atau handphone sekarang ini memanfaatkan AI dalam berbagai hal.

Bukan hanya dalam aspek pekerjaan atau informasi, dalam hal kesehatan pun, kadangkala saran dari AI cenderung diikuti.

Hanya saja, tidak semua yang disarankan AI tersebut berujung positif atau baik.

Malah ada yang hasilnya menjadi bumerang bagi orang yang mengikuti saran AI tersebut.

Hal seperti ini sebagaimana yang dialami seorang pria berusia 60 tahun atau lanjut usia (lansia) yang harus menjalani perawatan intensif di rumah sakit setelah mengikuti saran AI.

Baca juga: Lebih Pilih Curhat ke ChatGPT Daripada Manusia? Ini Alasan Remaja Jauh dari Orang Terdekat

Sebagaimana dilansir Kompas.com, lansia tersebut mengalami keracunan akibat mengganti garam dapur (natrium klorida) dengan natrium bromida selama tiga bulan.

Keputusan tersebut ia ambil setelah membaca saran dari chatbot kecerdasan buatan (AI) berupa ChatGPT, yang ia anggap sebagai alternatif informasi medis.

Kasus ini diungkap dalam laporan yang diterbitkan oleh American College of Physicians Journals pada Selasa (5/8/2025).

Tak pelak, kondisi ini menjadi sorotan internasional sebagai contoh nyata bahaya mengandalkan AI untuk saran medis tanpa konsultasi tenaga profesional.

Pasien tersebut mengalami gejala yang mengarah pada bromisme, yaitu keracunan bromida--kondisi yang sangat jarang terjadi di era modern.

Bromida sebelumnya digunakan dalam obat-obatan bebas untuk mengatasi insomnia, histeria, dan kecemasan.

Baca juga: Wow Serasa Punya ChatGPT Pribadi di HP! Aplikasi AI Edge Gallery Google Ini Bisa Jalan Offline

Namun penggunaannya telah lama dihentikan karena efek samping serius.

Dalam 24 jam pertama perawatan, pasien menunjukkan gejala kejiwaan seperti paranoia, halusinasi visual dan pendengaran, serta rasa haus yang ekstrem.

Menurut laporan yang dikutip dari The Independent, “Dia terlihat sangat haus, tetapi paranoid terhadap air yang ditawarkan,” tulis tim medis.

Setelah kondisinya membaik, pria tersebut mengaku bahwa ia membeli natrium bromida secara daring dan menggunakannya sebagai pengganti garam dapur.

Ia mengklaim bahwa informasi tersebut ia peroleh dari ChatGPT, yang menyebut bahwa bromida dapat digunakan sebagai alternatif klorida.

Berbekal latar belakang pendidikan di bidang gizi saat kuliah, ia memutuskan untuk melakukan eksperimen pribadi dengan menghilangkan klorida dari pola makannya.

Baca juga: Viral! Percaya ChatGPT Bisa Meramal Tasseografi? Wanita Yunani Ini Gugat Cerai Suaminya

Namun, laporan menyebut bahwa informasi yang ia dapat kemungkinan berasal dari konteks non-konsumsi.

Seperti penggunaan bromida untuk keperluan pembersihan atau industri, bukan untuk dikonsumsi manusia.

Pasien menerima terapi cairan dan elektrolit untuk menstabilkan kondisinya, sebelum akhirnya dipindahkan ke unit psikiatri rawat inap.

Selain gejala kejiwaan, ia juga mengalami jerawat di wajah dan munculnya cherry angiomas--bintik merah kecil pada kulit--yang memperkuat diagnosis bromisme.

Setelah menjalani perawatan selama tiga minggu, pasien akhirnya diperbolehkan pulang dengan kondisi yang sudah membaik.

Laporan tersebut memberikan peringatan keras terhadap penggunaan AI sebagai sumber informasi medis.

Penulis menekankan bahwa chatbot seperti ChatGPT dapat menghasilkan informasi yang tidak akurat secara ilmiah, tidak mampu melakukan verifikasi data, dan berpotensi menyebarkan misinformasi.

Baca juga: Mengenal DeepSeek, Teknologi AI asal Tiongkok yang Mampu Kalahkan ChatGPT di App Store

OpenAI, pengembang ChatGPT dalam syarat penggunaan telah menegaskan bahwa output dari chatbot “tidak selalu akurat”, sehingga tidak boleh dijadikan sebagai pengganti nasihat profesional.

“Layanan kami tidak dimaksudkan untuk diagnosis atau pengobatan kondisi kesehatan apa pun,” demikian tertulis dalam dokumen resmi perusahaan.

Kasus ini menjadi pengingat penting bahwa meskipun teknologi AI dapat membantu dalam banyak aspek kehidupan, penggunaannya untuk keputusan medis harus selalu disertai dengan konsultasi tenaga kesehatan yang kompeten.

Eksperimen pribadi tanpa dasar ilmiah yang kuat dan tanpa pengawasan medis dapat berujung pada konsekuensi serius, bahkan mengancam keselamatan jiwa.(*)

 

Sumber: Kompas.com
Berita Terkait
  • Ikuti kami di
    AA

    Berita Terkini

    © 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
    All Right Reserved