60 वर्षांची ही व्यक्ती, वाढत्या पॅरानोईया आणि श्रवण आणि दृश्य भ्रमांसह रुग्णालयात दाखल करण्यात आलं होतं. त्याला खूप तहान लागली होती, परंतु त्याला देण्यात येणाऱ्या पाण्याचीही भीती वाटत होती. त्याला मानसोपचार विभागात दाखल करण्यात आलं, जिथं त्याच्यावर पाणी आणि इलेक्ट्रोलाइट्सचा उपचार करण्यात आला. याव्यतिरिक्त त्याच्या चेहऱ्यावर नवीन पुरळ देखील निर्माण झाले.
advertisement
व्यक्तीला असं का झालं?
त्याने डॉक्टरांना सांगितलं की त्याने टेबल सॉल्ट वापरणं थांबवलं आहे. सोडियम क्लोराईडच्या नकारात्मक परिणामांबद्दल वाचलं आहे म्हणून तो सोडियम ब्रोमाइड घेत आहे. तो गेल्या तीन महिन्यांपासून ब्रोमाइड घेत होता. कॉलेजमध्ये डाएटचा अभ्यास केल्याच्या इतिहासाने प्रेरित होऊन त्याने त्याच्या आहारातून क्लोराईड काढून टाकण्याचा वैयक्तिक प्रयोग करण्याचा निर्णय घेतला.
चॅटजीपीटीने दिला होता सल्ला
या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. आर्टिफिशियल इंटेलिजेंस प्रोग्रामच्या सल्ल्यानुसार त्याने सोडियम क्लोराईड म्हणजेच टेबलसॉल्टऐवजी सोडियम ब्रोमाइड घेण्यास सुरुवात केली, ज्यामुळे तो ब्रोमिझम नावाच्या विषबाधेचा बळी ठरला आणि त्याला रुग्णालयात दाखल करावं लागलं.
OMG! मटणाने खाल्लं चिकन, आयुष्यात पाहिला नसेल असा VIDEO, पाहून डोळ्यांवर विश्वास बसणार नाही
अहवालानुसार त्या माणसाला ब्रोमिझम किंवा ब्रोमाइड विषबाधेचा त्रास झाला होता. ही स्थिती ब्रोमाइनच्या दीर्घकाळाच्या संपर्कामुळे उद्भवते. 1990 च्या दशकात निद्रानाश, उन्माद आणि चिंता यावर उपचार करण्यासाठी ओव्हर-द-काउंटर औषधांमध्ये सोडियम ब्रोमाइड होतं. पण नंतर न्यूरोसायकियाट्रिक आणि त्वचारोगांशी संबंधित असल्याने त्याचा वापर बंद करण्यात आला.
चॅटजीपीटीचा सल्ला धोकादायक ठरला
मिठाचं सेवन हृदयरोग, अवयवांचे नुकसान आणि उच्च रक्तदाब यासारख्या अनेक आरोग्य समस्यांशी जोडलेलं आहे. पण जर्नल्स ऑफ द अमेरिकन कॉलेज ऑफ फिजिशियन्समध्ये प्रकाशित झालेल्या एका नवीन वैद्यकीय केस स्टडीनुसार, या माणसाला ChatGPT ने सोडियम क्लोराईडऐवजी सोडियम ब्रोमाइड घेण्याचा सल्ला दिला होता, जो अत्यंत धोकादायक ठरला.
Plane Facts : प्लेनचे पायलट कधीच मारत नाहीत परफ्युम? काय आहे कारण?
त्या माणसाला तीन आठवडे रुग्णालयात ठेवण्यात आलं. अहवालाच्या लेखकांनी म्हटलं आहे की, ChatGPT आणि इतर AI प्रणाली वैज्ञानिक चुका निर्माण करू शकतात, निकालांवर तार्किक चर्चा करण्याची क्षमता कमी करू शकतात आणि शेवटी चुकीच्या माहितीचा प्रसार करण्यास प्रोत्साहन देऊ शकतात. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.