ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला

Last Updated:

ChatGPT danger advice : या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.

प्रतीकात्मक फोटो
प्रतीकात्मक फोटो
नवी दिल्ली : सध्याचा जमाना एआयचा आहे. काहीही हवं ते एआयवर सहज मिळतं. कित्येक लोक एआयची मदत घेत आहेत. असं म्हटलं जातं की काही वर्षांत एआय म्हणजे कृत्रिम बुद्धिमत्ता मानवांना मागे टाकेल. एके दिवशी यंत्रे मानवांना त्यांचे गुलाम बनवतील आणि लवकरच किंवा नंतर ते मानवांना संपवून जगावर राज्य करतील. हे इतकं सोपं नसलं तरी वारंवार सिद्ध झालं आहे. नुकतंच असं एक प्रकरण समोर आलं आहे. ज्यात एका व्यक्तीने ChatGPT ला प्रश्न विचारला. त्याने दिलेल्या उत्तराचा त्याने अवलंब केला. त्यानंतर त्याच्यासोबत घडलं ते धक्कादायक आहे.
60 वर्षांची ही व्यक्ती, वाढत्या पॅरानोईया आणि श्रवण आणि दृश्य भ्रमांसह रुग्णालयात दाखल करण्यात आलं होतं. त्याला खूप तहान लागली होती, परंतु त्याला देण्यात येणाऱ्या पाण्याचीही भीती वाटत होती. त्याला मानसोपचार विभागात दाखल करण्यात आलं, जिथं त्याच्यावर पाणी आणि इलेक्ट्रोलाइट्सचा उपचार करण्यात आला. याव्यतिरिक्त त्याच्या चेहऱ्यावर नवीन पुरळ देखील निर्माण झाले.
advertisement
व्यक्तीला असं का झालं?
त्याने डॉक्टरांना सांगितलं की त्याने टेबल सॉल्ट वापरणं थांबवलं आहे. सोडियम क्लोराईडच्या नकारात्मक परिणामांबद्दल वाचलं आहे म्हणून तो सोडियम ब्रोमाइड घेत आहे. तो गेल्या तीन महिन्यांपासून ब्रोमाइड घेत होता.  कॉलेजमध्ये डाएटचा अभ्यास केल्याच्या इतिहासाने प्रेरित होऊन त्याने त्याच्या आहारातून क्लोराईड काढून टाकण्याचा वैयक्तिक प्रयोग करण्याचा निर्णय घेतला.
advertisement
चॅटजीपीटीने दिला होता सल्ला
या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. आर्टिफिशियल इंटेलिजेंस प्रोग्रामच्या सल्ल्यानुसार त्याने सोडियम क्लोराईड म्हणजेच टेबलसॉल्टऐवजी सोडियम ब्रोमाइड घेण्यास सुरुवात केली, ज्यामुळे तो ब्रोमिझम नावाच्या विषबाधेचा बळी ठरला आणि त्याला रुग्णालयात दाखल करावं लागलं.
advertisement
अहवालानुसार त्या माणसाला ब्रोमिझम किंवा ब्रोमाइड विषबाधेचा त्रास झाला होता. ही स्थिती ब्रोमाइनच्या दीर्घकाळाच्या संपर्कामुळे उद्भवते. 1990 च्या दशकात निद्रानाश, उन्माद आणि चिंता यावर उपचार करण्यासाठी ओव्हर-द-काउंटर औषधांमध्ये सोडियम ब्रोमाइड होतं. पण नंतर न्यूरोसायकियाट्रिक आणि त्वचारोगांशी संबंधित असल्याने त्याचा वापर बंद करण्यात आला.
चॅटजीपीटीचा सल्ला धोकादायक ठरला
मिठाचं सेवन हृदयरोग, अवयवांचे नुकसान आणि उच्च रक्तदाब यासारख्या अनेक आरोग्य समस्यांशी जोडलेलं आहे. पण जर्नल्स ऑफ द अमेरिकन कॉलेज ऑफ फिजिशियन्समध्ये प्रकाशित झालेल्या एका नवीन वैद्यकीय केस स्टडीनुसार, या माणसाला ChatGPT ने सोडियम क्लोराईडऐवजी सोडियम ब्रोमाइड घेण्याचा सल्ला दिला होता, जो अत्यंत धोकादायक ठरला.
advertisement
त्या माणसाला तीन आठवडे रुग्णालयात ठेवण्यात आलं. अहवालाच्या लेखकांनी म्हटलं आहे की, ChatGPT आणि इतर AI प्रणाली वैज्ञानिक चुका निर्माण करू शकतात, निकालांवर तार्किक चर्चा करण्याची क्षमता कमी करू शकतात आणि शेवटी चुकीच्या माहितीचा प्रसार करण्यास प्रोत्साहन देऊ शकतात. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.
view comments
मराठी बातम्या/Viral/
ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला
Next Article
advertisement
Bus fire: परत तीच अंधारी रात्र; ट्रॅव्हल्सच्या बसने घेतला पेट, 20 प्रवाशांचा होरपळून मृत्यू, काळजाचा थरकाप उडवणारा VIDEO
परत तीच अंधारी रात्र ट्रॅव्हल्सच्या बसने घेतला पेट, 20 प्रवाशांचा होरपळून मृत्यू
    View All
    advertisement