TRENDING:

ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला

Last Updated:

ChatGPT danger advice : या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.

impactshort
इम्पॅक्ट शॉटतुमचा गेटवे लेटेस्ट न्यूज
advertisement
नवी दिल्ली : सध्याचा जमाना एआयचा आहे. काहीही हवं ते एआयवर सहज मिळतं. कित्येक लोक एआयची मदत घेत आहेत. असं म्हटलं जातं की काही वर्षांत एआय म्हणजे कृत्रिम बुद्धिमत्ता मानवांना मागे टाकेल. एके दिवशी यंत्रे मानवांना त्यांचे गुलाम बनवतील आणि लवकरच किंवा नंतर ते मानवांना संपवून जगावर राज्य करतील. हे इतकं सोपं नसलं तरी वारंवार सिद्ध झालं आहे. नुकतंच असं एक प्रकरण समोर आलं आहे. ज्यात एका व्यक्तीने ChatGPT ला प्रश्न विचारला. त्याने दिलेल्या उत्तराचा त्याने अवलंब केला. त्यानंतर त्याच्यासोबत घडलं ते धक्कादायक आहे.
प्रतीकात्मक फोटो
प्रतीकात्मक फोटो
advertisement

60 वर्षांची ही व्यक्ती, वाढत्या पॅरानोईया आणि श्रवण आणि दृश्य भ्रमांसह रुग्णालयात दाखल करण्यात आलं होतं. त्याला खूप तहान लागली होती, परंतु त्याला देण्यात येणाऱ्या पाण्याचीही भीती वाटत होती. त्याला मानसोपचार विभागात दाखल करण्यात आलं, जिथं त्याच्यावर पाणी आणि इलेक्ट्रोलाइट्सचा उपचार करण्यात आला. याव्यतिरिक्त त्याच्या चेहऱ्यावर नवीन पुरळ देखील निर्माण झाले.

advertisement

व्यक्तीला असं का झालं?

त्याने डॉक्टरांना सांगितलं की त्याने टेबल सॉल्ट वापरणं थांबवलं आहे. सोडियम क्लोराईडच्या नकारात्मक परिणामांबद्दल वाचलं आहे म्हणून तो सोडियम ब्रोमाइड घेत आहे. तो गेल्या तीन महिन्यांपासून ब्रोमाइड घेत होता.  कॉलेजमध्ये डाएटचा अभ्यास केल्याच्या इतिहासाने प्रेरित होऊन त्याने त्याच्या आहारातून क्लोराईड काढून टाकण्याचा वैयक्तिक प्रयोग करण्याचा निर्णय घेतला.

advertisement

चॅटजीपीटीने दिला होता सल्ला

या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. आर्टिफिशियल इंटेलिजेंस प्रोग्रामच्या सल्ल्यानुसार त्याने सोडियम क्लोराईड म्हणजेच टेबलसॉल्टऐवजी सोडियम ब्रोमाइड घेण्यास सुरुवात केली, ज्यामुळे तो ब्रोमिझम नावाच्या विषबाधेचा बळी ठरला आणि त्याला रुग्णालयात दाखल करावं लागलं.

OMG! मटणाने खाल्लं चिकन, आयुष्यात पाहिला नसेल असा VIDEO, पाहून डोळ्यांवर विश्वास बसणार नाही

advertisement

अहवालानुसार त्या माणसाला ब्रोमिझम किंवा ब्रोमाइड विषबाधेचा त्रास झाला होता. ही स्थिती ब्रोमाइनच्या दीर्घकाळाच्या संपर्कामुळे उद्भवते. 1990 च्या दशकात निद्रानाश, उन्माद आणि चिंता यावर उपचार करण्यासाठी ओव्हर-द-काउंटर औषधांमध्ये सोडियम ब्रोमाइड होतं. पण नंतर न्यूरोसायकियाट्रिक आणि त्वचारोगांशी संबंधित असल्याने त्याचा वापर बंद करण्यात आला.

चॅटजीपीटीचा सल्ला धोकादायक ठरला

मिठाचं सेवन हृदयरोग, अवयवांचे नुकसान आणि उच्च रक्तदाब यासारख्या अनेक आरोग्य समस्यांशी जोडलेलं आहे. पण जर्नल्स ऑफ द अमेरिकन कॉलेज ऑफ फिजिशियन्समध्ये प्रकाशित झालेल्या एका नवीन वैद्यकीय केस स्टडीनुसार, या माणसाला ChatGPT ने सोडियम क्लोराईडऐवजी सोडियम ब्रोमाइड घेण्याचा सल्ला दिला होता, जो अत्यंत धोकादायक ठरला.

advertisement

Plane Facts : प्लेनचे पायलट कधीच मारत नाहीत परफ्युम? काय आहे कारण?

त्या माणसाला तीन आठवडे रुग्णालयात ठेवण्यात आलं. अहवालाच्या लेखकांनी म्हटलं आहे की, ChatGPT आणि इतर AI प्रणाली वैज्ञानिक चुका निर्माण करू शकतात, निकालांवर तार्किक चर्चा करण्याची क्षमता कमी करू शकतात आणि शेवटी चुकीच्या माहितीचा प्रसार करण्यास प्रोत्साहन देऊ शकतात. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.

मराठी बातम्या/Viral/
ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला
बातम्या
फोटो
व्हिडिओ
लोकल