ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला

Last Updated:

ChatGPT danger advice : या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.

प्रतीकात्मक फोटो
प्रतीकात्मक फोटो
नवी दिल्ली : सध्याचा जमाना एआयचा आहे. काहीही हवं ते एआयवर सहज मिळतं. कित्येक लोक एआयची मदत घेत आहेत. असं म्हटलं जातं की काही वर्षांत एआय म्हणजे कृत्रिम बुद्धिमत्ता मानवांना मागे टाकेल. एके दिवशी यंत्रे मानवांना त्यांचे गुलाम बनवतील आणि लवकरच किंवा नंतर ते मानवांना संपवून जगावर राज्य करतील. हे इतकं सोपं नसलं तरी वारंवार सिद्ध झालं आहे. नुकतंच असं एक प्रकरण समोर आलं आहे. ज्यात एका व्यक्तीने ChatGPT ला प्रश्न विचारला. त्याने दिलेल्या उत्तराचा त्याने अवलंब केला. त्यानंतर त्याच्यासोबत घडलं ते धक्कादायक आहे.
60 वर्षांची ही व्यक्ती, वाढत्या पॅरानोईया आणि श्रवण आणि दृश्य भ्रमांसह रुग्णालयात दाखल करण्यात आलं होतं. त्याला खूप तहान लागली होती, परंतु त्याला देण्यात येणाऱ्या पाण्याचीही भीती वाटत होती. त्याला मानसोपचार विभागात दाखल करण्यात आलं, जिथं त्याच्यावर पाणी आणि इलेक्ट्रोलाइट्सचा उपचार करण्यात आला. याव्यतिरिक्त त्याच्या चेहऱ्यावर नवीन पुरळ देखील निर्माण झाले.
advertisement
व्यक्तीला असं का झालं?
त्याने डॉक्टरांना सांगितलं की त्याने टेबल सॉल्ट वापरणं थांबवलं आहे. सोडियम क्लोराईडच्या नकारात्मक परिणामांबद्दल वाचलं आहे म्हणून तो सोडियम ब्रोमाइड घेत आहे. तो गेल्या तीन महिन्यांपासून ब्रोमाइड घेत होता.  कॉलेजमध्ये डाएटचा अभ्यास केल्याच्या इतिहासाने प्रेरित होऊन त्याने त्याच्या आहारातून क्लोराईड काढून टाकण्याचा वैयक्तिक प्रयोग करण्याचा निर्णय घेतला.
advertisement
चॅटजीपीटीने दिला होता सल्ला
या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. आर्टिफिशियल इंटेलिजेंस प्रोग्रामच्या सल्ल्यानुसार त्याने सोडियम क्लोराईड म्हणजेच टेबलसॉल्टऐवजी सोडियम ब्रोमाइड घेण्यास सुरुवात केली, ज्यामुळे तो ब्रोमिझम नावाच्या विषबाधेचा बळी ठरला आणि त्याला रुग्णालयात दाखल करावं लागलं.
advertisement
अहवालानुसार त्या माणसाला ब्रोमिझम किंवा ब्रोमाइड विषबाधेचा त्रास झाला होता. ही स्थिती ब्रोमाइनच्या दीर्घकाळाच्या संपर्कामुळे उद्भवते. 1990 च्या दशकात निद्रानाश, उन्माद आणि चिंता यावर उपचार करण्यासाठी ओव्हर-द-काउंटर औषधांमध्ये सोडियम ब्रोमाइड होतं. पण नंतर न्यूरोसायकियाट्रिक आणि त्वचारोगांशी संबंधित असल्याने त्याचा वापर बंद करण्यात आला.
चॅटजीपीटीचा सल्ला धोकादायक ठरला
मिठाचं सेवन हृदयरोग, अवयवांचे नुकसान आणि उच्च रक्तदाब यासारख्या अनेक आरोग्य समस्यांशी जोडलेलं आहे. पण जर्नल्स ऑफ द अमेरिकन कॉलेज ऑफ फिजिशियन्समध्ये प्रकाशित झालेल्या एका नवीन वैद्यकीय केस स्टडीनुसार, या माणसाला ChatGPT ने सोडियम क्लोराईडऐवजी सोडियम ब्रोमाइड घेण्याचा सल्ला दिला होता, जो अत्यंत धोकादायक ठरला.
advertisement
त्या माणसाला तीन आठवडे रुग्णालयात ठेवण्यात आलं. अहवालाच्या लेखकांनी म्हटलं आहे की, ChatGPT आणि इतर AI प्रणाली वैज्ञानिक चुका निर्माण करू शकतात, निकालांवर तार्किक चर्चा करण्याची क्षमता कमी करू शकतात आणि शेवटी चुकीच्या माहितीचा प्रसार करण्यास प्रोत्साहन देऊ शकतात. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.
मराठी बातम्या/Viral/
ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला
Next Article
advertisement
Blockbuster Movie: पत्नीने खर्च केले 300 कोटी, हिरो पतीचा 19 वर्षांनी लहान अभिनेत्रीसोबत रोमान्स; सिनेमा ठरला ब्लॉकबस्टर
पत्नीने खर्च केले 300 कोटी, हिरो पतीचा 19 वर्षांनी लहान अभिनेत्रीसोबत रोमान्स
    View All
    advertisement