ChatGPT से समाधान मांगने वाले सावधान, AI चैटबॉट से है मानसिक स्वास्थ्य का खतरा, 50 मामले और 3 मौतों से जुड़े लिंक का खुलासा
अमेरिका में एक जांच में खुलासा हुआ है कि चैटजीपीटी से जुड़े लगभग 50 मानसिक स्वास्थ्य संकटों में कई लोग अस्पताल पहुंचे और तीन मौतों के मामले सामने आए हैं. सात मुकदमों के बाद चैटबॉट की सुरक्षा पर गंभीर सवाल उठे हैं.
ओपनएआई के चैटबॉट चैटजीपीटी को लेकर एक बड़ा खुलासा हुआ है, जिसने दुनिया भर में AI सुरक्षा को लेकर बहस तेज कर दी है.
न्यूयॉर्क टाइम्स की एक व्यापक जांच में पाया गया कि चैटजीपीटी से बातचीत के चलते कई लोगों का मानसिक स्वास्थ्य गंभीर रूप से प्रभावित हुआ, जिनमें अस्पताल में भर्ती होने के मामले और आत्महत्या तक दर्ज की गई. यह रिपोर्ट ऐसे समय आई है जब चैटजीपीटी के व्यवहार और उसके भावनात्मक बातचीत करने के तरीके को लेकर पहले ही सवाल उठते रहे हैं.
पीड़ितों की कहानियों ने बढ़ाई चिंता
जांच में सामने आया कि चार युवाओं की आत्महत्या में चैटजीपीटी की बातचीत ने महत्वपूर्ण भूमिका निभाई. रिपोर्ट के अनुसार 17 वर्षीय अमौरी लेसी चैटबॉट की लत में पड़ गए थे और उसे चैटजीपीटी से आत्महत्या के तरीकों का निर्देश तक मिला.
23 वर्षीय जेन शैम्ब्लिन ने अपनी आखिरी रात चैटजीपीटी के साथ चार घंटे की बातचीत में बिताई, जिसमें चैटबॉट ने उनकी निराशा को समझाने के बजाय उसे ‘रोमांटिक’ रूप दे दिया. वहीं 26 वर्षीय जोशुआ एन्नेकिंग को बंदूक खरीदने के तरीके और सुरक्षा जांच से बचने संबंधी गलत आश्वासन मिले.
कानूनी लड़ाई और आंतरिक चेतावनियां
न्यूयॉर्क टाइम्स की रिपोर्ट सामने आने के बाद कैलिफोर्निया में सात मुकदमे दर्ज हुए हैं. इन मुकदमों में दावा किया गया है कि ओपनएआई ने GPT-4o को जारी करने से पहले आंतरिक चेतावनियों को नजरअंदाज किया. विशेषज्ञों ने चेतावनी दी थी कि यह मॉडल 'मनोवैज्ञानिक रूप से प्रभाव डालने वाला' और 'खतरनाक तरीके से खुशामदी' व्यवहार करता है.
शिकायतों में यह भी कहा गया है कि चैटजीपीटी कई बार 'लव-बॉम्बिंग', अत्यधिक सहमति और भावनात्मक निर्भरता बढ़ाने वाला व्यवहार दिखाता था. एक पीड़ित, एलन ब्रूक्स, जिनकी मानसिक स्थिति सामान्य थी, 300 घंटे की चैट के बाद गंभीर भ्रम की स्थिति में पहुंच गए.
कंपनी का बयान और उठते सवाल
लगातार आरोपों के बाद ओपनएआई ने अगस्त में GPT-5 लॉन्च किया और दावा किया कि यह मानसिक स्वास्थ्य आपात स्थितियों में असुरक्षित प्रतिक्रियाओं को 25% तक कम करता है. कंपनी ने पेरेंटल कंट्रोल्स जोड़े और संकट में पड़े यूज़र्स को ‘988’ हेल्पलाइन जैसे संसाधनों की ओर निर्देशित करने के लिए नए सुरक्षा उपाय लागू किए. हालांकि, आलोचकों का कहना है कि ये सुधार बहुत देर से आए, जब तक कई त्रासदियां घट चुकी थीं. उनके मुताबिक, सुधारों की घोषणा किसी हादसे को वापस नहीं ला सकती.
AI सुरक्षा पर वैश्विक बहस हुई तेज
इस खुलासे के बाद तकनीक विशेषज्ञ, मनोवैज्ञानिक और नीति निर्माता अब AI चैटबॉट्स की जिम्मेदारी और उनकी सीमाओं पर नए सिरे से चर्चा कर रहे हैं. विशेषज्ञों का मानना है कि चैटजीपीटी जैसे टूल जल्द ही ‘मानव-समान भावनात्मक बातचीत’ का विकल्प बनते जा रहे हैं, जिससे यूजर्स पर गहरा मनोवैज्ञानिक प्रभाव पड़ सकता है. कई संगठन अब मांग कर रहे हैं कि ऐसे मॉडल जारी करने से पहले सख्त परीक्षण और स्पष्ट चेतावनियां अनिवार्य हों, ताकि भविष्य में इस तरह की घटनाओं को रोका जा सके.