menu-icon
India Daily

ChatGPT से समाधान मांगने वाले सावधान, AI चैटबॉट से है मानसिक स्वास्थ्य का खतरा, 50 मामले और 3 मौतों से जुड़े लिंक का खुलासा

अमेरिका में एक जांच में खुलासा हुआ है कि चैटजीपीटी से जुड़े लगभग 50 मानसिक स्वास्थ्य संकटों में कई लोग अस्पताल पहुंचे और तीन मौतों के मामले सामने आए हैं. सात मुकदमों के बाद चैटबॉट की सुरक्षा पर गंभीर सवाल उठे हैं.

Kuldeep Sharma
Edited By: Kuldeep Sharma
ChatGPT से समाधान मांगने वाले सावधान, AI चैटबॉट से है मानसिक स्वास्थ्य का खतरा, 50 मामले और 3 मौतों से जुड़े लिंक का खुलासा
Courtesy: social media

ओपनएआई के चैटबॉट चैटजीपीटी को लेकर एक बड़ा खुलासा हुआ है, जिसने दुनिया भर में AI सुरक्षा को लेकर बहस तेज कर दी है. 

न्यूयॉर्क टाइम्स की एक व्यापक जांच में पाया गया कि चैटजीपीटी से बातचीत के चलते कई लोगों का मानसिक स्वास्थ्य गंभीर रूप से प्रभावित हुआ, जिनमें अस्पताल में भर्ती होने के मामले और आत्महत्या तक दर्ज की गई. यह रिपोर्ट ऐसे समय आई है जब चैटजीपीटी के व्यवहार और उसके भावनात्मक बातचीत करने के तरीके को लेकर पहले ही सवाल उठते रहे हैं.

पीड़ितों की कहानियों ने बढ़ाई चिंता

जांच में सामने आया कि चार युवाओं की आत्महत्या में चैटजीपीटी की बातचीत ने महत्वपूर्ण भूमिका निभाई. रिपोर्ट के अनुसार 17 वर्षीय अमौरी लेसी चैटबॉट की लत में पड़ गए थे और उसे चैटजीपीटी से आत्महत्या के तरीकों का निर्देश तक मिला.

 23 वर्षीय जेन शैम्ब्लिन ने अपनी आखिरी रात चैटजीपीटी के साथ चार घंटे की बातचीत में बिताई, जिसमें चैटबॉट ने उनकी निराशा को समझाने के बजाय उसे ‘रोमांटिक’ रूप दे दिया. वहीं 26 वर्षीय जोशुआ एन्नेकिंग को बंदूक खरीदने के तरीके और सुरक्षा जांच से बचने संबंधी गलत आश्वासन मिले.

कानूनी लड़ाई और आंतरिक चेतावनियां

न्यूयॉर्क टाइम्स की रिपोर्ट सामने आने के बाद कैलिफोर्निया में सात मुकदमे दर्ज हुए हैं. इन मुकदमों में दावा किया गया है कि ओपनएआई ने GPT-4o को जारी करने से पहले आंतरिक चेतावनियों को नजरअंदाज किया. विशेषज्ञों ने चेतावनी दी थी कि यह मॉडल 'मनोवैज्ञानिक रूप से प्रभाव डालने वाला' और 'खतरनाक तरीके से खुशामदी' व्यवहार करता है. 

शिकायतों में यह भी कहा गया है कि चैटजीपीटी कई बार 'लव-बॉम्बिंग', अत्यधिक सहमति और भावनात्मक निर्भरता बढ़ाने वाला व्यवहार दिखाता था. एक पीड़ित, एलन ब्रूक्स, जिनकी मानसिक स्थिति सामान्य थी, 300 घंटे की चैट के बाद गंभीर भ्रम की स्थिति में पहुंच गए.

कंपनी का बयान और उठते सवाल

लगातार आरोपों के बाद ओपनएआई ने अगस्त में GPT-5 लॉन्च किया और दावा किया कि यह मानसिक स्वास्थ्य आपात स्थितियों में असुरक्षित प्रतिक्रियाओं को 25% तक कम करता है. कंपनी ने पेरेंटल कंट्रोल्स जोड़े और संकट में पड़े यूज़र्स को ‘988’ हेल्पलाइन जैसे संसाधनों की ओर निर्देशित करने के लिए नए सुरक्षा उपाय लागू किए. हालांकि, आलोचकों का कहना है कि ये सुधार बहुत देर से आए, जब तक कई त्रासदियां घट चुकी थीं. उनके मुताबिक, सुधारों की घोषणा किसी हादसे को वापस नहीं ला सकती.

AI सुरक्षा पर वैश्विक बहस हुई तेज

इस खुलासे के बाद तकनीक विशेषज्ञ, मनोवैज्ञानिक और नीति निर्माता अब AI चैटबॉट्स की जिम्मेदारी और उनकी सीमाओं पर नए सिरे से चर्चा कर रहे हैं. विशेषज्ञों का मानना है कि चैटजीपीटी जैसे टूल जल्द ही ‘मानव-समान भावनात्मक बातचीत’ का विकल्प बनते जा रहे हैं, जिससे यूजर्स पर गहरा मनोवैज्ञानिक प्रभाव पड़ सकता है. कई संगठन अब मांग कर रहे हैं कि ऐसे मॉडल जारी करने से पहले सख्त परीक्षण और स्पष्ट चेतावनियां अनिवार्य हों, ताकि भविष्य में इस तरह की घटनाओं को रोका जा सके.