ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला

Last Updated:

ChatGPT danger advice : या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.

प्रतीकात्मक फोटो
प्रतीकात्मक फोटो
नवी दिल्ली : सध्याचा जमाना एआयचा आहे. काहीही हवं ते एआयवर सहज मिळतं. कित्येक लोक एआयची मदत घेत आहेत. असं म्हटलं जातं की काही वर्षांत एआय म्हणजे कृत्रिम बुद्धिमत्ता मानवांना मागे टाकेल. एके दिवशी यंत्रे मानवांना त्यांचे गुलाम बनवतील आणि लवकरच किंवा नंतर ते मानवांना संपवून जगावर राज्य करतील. हे इतकं सोपं नसलं तरी वारंवार सिद्ध झालं आहे. नुकतंच असं एक प्रकरण समोर आलं आहे. ज्यात एका व्यक्तीने ChatGPT ला प्रश्न विचारला. त्याने दिलेल्या उत्तराचा त्याने अवलंब केला. त्यानंतर त्याच्यासोबत घडलं ते धक्कादायक आहे.
60 वर्षांची ही व्यक्ती, वाढत्या पॅरानोईया आणि श्रवण आणि दृश्य भ्रमांसह रुग्णालयात दाखल करण्यात आलं होतं. त्याला खूप तहान लागली होती, परंतु त्याला देण्यात येणाऱ्या पाण्याचीही भीती वाटत होती. त्याला मानसोपचार विभागात दाखल करण्यात आलं, जिथं त्याच्यावर पाणी आणि इलेक्ट्रोलाइट्सचा उपचार करण्यात आला. याव्यतिरिक्त त्याच्या चेहऱ्यावर नवीन पुरळ देखील निर्माण झाले.
advertisement
व्यक्तीला असं का झालं?
त्याने डॉक्टरांना सांगितलं की त्याने टेबल सॉल्ट वापरणं थांबवलं आहे. सोडियम क्लोराईडच्या नकारात्मक परिणामांबद्दल वाचलं आहे म्हणून तो सोडियम ब्रोमाइड घेत आहे. तो गेल्या तीन महिन्यांपासून ब्रोमाइड घेत होता.  कॉलेजमध्ये डाएटचा अभ्यास केल्याच्या इतिहासाने प्रेरित होऊन त्याने त्याच्या आहारातून क्लोराईड काढून टाकण्याचा वैयक्तिक प्रयोग करण्याचा निर्णय घेतला.
advertisement
चॅटजीपीटीने दिला होता सल्ला
या व्यक्तीने मिठाचं प्रमाण कमी करण्यासाठी चॅटजीपीटीकडून सल्ला घेतला होता. आर्टिफिशियल इंटेलिजेंस प्रोग्रामच्या सल्ल्यानुसार त्याने सोडियम क्लोराईड म्हणजेच टेबलसॉल्टऐवजी सोडियम ब्रोमाइड घेण्यास सुरुवात केली, ज्यामुळे तो ब्रोमिझम नावाच्या विषबाधेचा बळी ठरला आणि त्याला रुग्णालयात दाखल करावं लागलं.
advertisement
अहवालानुसार त्या माणसाला ब्रोमिझम किंवा ब्रोमाइड विषबाधेचा त्रास झाला होता. ही स्थिती ब्रोमाइनच्या दीर्घकाळाच्या संपर्कामुळे उद्भवते. 1990 च्या दशकात निद्रानाश, उन्माद आणि चिंता यावर उपचार करण्यासाठी ओव्हर-द-काउंटर औषधांमध्ये सोडियम ब्रोमाइड होतं. पण नंतर न्यूरोसायकियाट्रिक आणि त्वचारोगांशी संबंधित असल्याने त्याचा वापर बंद करण्यात आला.
चॅटजीपीटीचा सल्ला धोकादायक ठरला
मिठाचं सेवन हृदयरोग, अवयवांचे नुकसान आणि उच्च रक्तदाब यासारख्या अनेक आरोग्य समस्यांशी जोडलेलं आहे. पण जर्नल्स ऑफ द अमेरिकन कॉलेज ऑफ फिजिशियन्समध्ये प्रकाशित झालेल्या एका नवीन वैद्यकीय केस स्टडीनुसार, या माणसाला ChatGPT ने सोडियम क्लोराईडऐवजी सोडियम ब्रोमाइड घेण्याचा सल्ला दिला होता, जो अत्यंत धोकादायक ठरला.
advertisement
त्या माणसाला तीन आठवडे रुग्णालयात ठेवण्यात आलं. अहवालाच्या लेखकांनी म्हटलं आहे की, ChatGPT आणि इतर AI प्रणाली वैज्ञानिक चुका निर्माण करू शकतात, निकालांवर तार्किक चर्चा करण्याची क्षमता कमी करू शकतात आणि शेवटी चुकीच्या माहितीचा प्रसार करण्यास प्रोत्साहन देऊ शकतात. या घटनेने पुन्हा एकदा आठवण करून दिली आहे की AI प्रणालींकडून आरोग्य सल्ला घेणं किती धोकादायक असू शकतं.
view comments
मराठी बातम्या/Viral/
ChatGPT ला काहीही विचारताना सांभाळूनच! व्यक्तीने विचारला असा प्रश्न, जीव जाता जाता वाचला
Next Article
advertisement
Eknath Shinde BJP: पक्षाची फोडाफोडी केली, वाद घातले... ठाणे-कडोंमपामध्ये महायुतीचं काय होणार, रविंद्र चव्हाणांनी एका वाक्यात सांगितलं....
पक्षाची फोडाफोडी केली, वाद घातले... ठाणे-कडोंमपामध्ये महायुतीचं काय होणार, रविंद
  • पक्षाची फोडाफोडी केली, वाद घातले... ठाणे-कडोंमपामध्ये महायुतीचं काय होणार, रविंद

  • पक्षाची फोडाफोडी केली, वाद घातले... ठाणे-कडोंमपामध्ये महायुतीचं काय होणार, रविंद

  • पक्षाची फोडाफोडी केली, वाद घातले... ठाणे-कडोंमपामध्ये महायुतीचं काय होणार, रविंद

View All
advertisement