Berita International

Ada-ada Saja! Lansia Masuk RS Gegara Ikuti Saran ChatGPT, Garam Diganti dengan Natrium Bromida

Seorang pria berusia 60 tahun atau lanjut usia (lansia) yang harus menjalani perawatan intensif di rumah sakit setelah mengikuti saran AI.

Editor: Saifullah
Dok CBS News
SARAN CHATGPT - Ilustrasi ChatGPT. Seorang pria 60 tahun dirawat di rumah sakit setelah mengganti garam dapur dengan natrium bromida selama tiga bulan usai mengikuti saran ChatGPT. Kasus ini menjadi peringatan bahaya mengandalkan AI untuk saran medis. 

Menurut laporan yang dikutip dari The Independent, “Dia terlihat sangat haus, tetapi paranoid terhadap air yang ditawarkan,” tulis tim medis.

Setelah kondisinya membaik, pria tersebut mengaku bahwa ia membeli natrium bromida secara daring dan menggunakannya sebagai pengganti garam dapur.

Ia mengklaim bahwa informasi tersebut ia peroleh dari ChatGPT, yang menyebut bahwa bromida dapat digunakan sebagai alternatif klorida.

Berbekal latar belakang pendidikan di bidang gizi saat kuliah, ia memutuskan untuk melakukan eksperimen pribadi dengan menghilangkan klorida dari pola makannya.

Baca juga: Viral! Percaya ChatGPT Bisa Meramal Tasseografi? Wanita Yunani Ini Gugat Cerai Suaminya

Namun, laporan menyebut bahwa informasi yang ia dapat kemungkinan berasal dari konteks non-konsumsi.

Seperti penggunaan bromida untuk keperluan pembersihan atau industri, bukan untuk dikonsumsi manusia.

Pasien menerima terapi cairan dan elektrolit untuk menstabilkan kondisinya, sebelum akhirnya dipindahkan ke unit psikiatri rawat inap.

Selain gejala kejiwaan, ia juga mengalami jerawat di wajah dan munculnya cherry angiomas--bintik merah kecil pada kulit--yang memperkuat diagnosis bromisme.

Setelah menjalani perawatan selama tiga minggu, pasien akhirnya diperbolehkan pulang dengan kondisi yang sudah membaik.

Laporan tersebut memberikan peringatan keras terhadap penggunaan AI sebagai sumber informasi medis.

Penulis menekankan bahwa chatbot seperti ChatGPT dapat menghasilkan informasi yang tidak akurat secara ilmiah, tidak mampu melakukan verifikasi data, dan berpotensi menyebarkan misinformasi.

Baca juga: Mengenal DeepSeek, Teknologi AI asal Tiongkok yang Mampu Kalahkan ChatGPT di App Store

OpenAI, pengembang ChatGPT dalam syarat penggunaan telah menegaskan bahwa output dari chatbot “tidak selalu akurat”, sehingga tidak boleh dijadikan sebagai pengganti nasihat profesional.

“Layanan kami tidak dimaksudkan untuk diagnosis atau pengobatan kondisi kesehatan apa pun,” demikian tertulis dalam dokumen resmi perusahaan.

Kasus ini menjadi pengingat penting bahwa meskipun teknologi AI dapat membantu dalam banyak aspek kehidupan, penggunaannya untuk keputusan medis harus selalu disertai dengan konsultasi tenaga kesehatan yang kompeten.

Eksperimen pribadi tanpa dasar ilmiah yang kuat dan tanpa pengawasan medis dapat berujung pada konsekuensi serius, bahkan mengancam keselamatan jiwa.(*)

 

Sumber: Kompas.com
Berita Terkait
  • Ikuti kami di
    AA

    Berita Terkini

    © 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
    All Right Reserved