Jailbreaking AI: ChatGPT जितना फायदेमंद है उतना ही खतरनाक भी है. हाल ही में एक हैकर ने दावा किया है कि उसने बिना किसी हैकिंग टूल या टेक्नोलॉजी का सहारा लिए ही इसकी सिक्योरिटी को बायपास करने का तरीका ढूंढ लिया है. एक रिपोर्ट के अनुसार, हैकर ने चैटबॉट से पूछा कि बम बनाने का स्टेप बाय स्टेप प्रोसेस किया है. लेकिन एआई चैटबॉट ने पहले यह कहकर मदद से इनकार कर दिया कि फर्टिलाइजर बम जैसी खतरनाक या अवैध वस्तुओं को बनाने के तरीके के बारे में निर्देश देना सिक्योरिटी नियमों और नैतिक जिम्मेदारियों के खिलाफ है.
जब ChatGPT ने मना कर दिया तो घर पर बम बनाने की जानकारी के लिए हैकर ने ChatGPT को जेलब्रेक किया. हैकर ने कहा कि उसने एक ऐसी तरकीब लगाई जिसके चलते ChatGPT ने बम बनाने के निर्देश देने के लिए अपनी सिक्योरिटी रेलिंग को अनदेखा कर दिया.
इस हैकर ने बताया कि उसने ChatGPT को एक साइंस-फिक्शन गेम का सिनेरियो दिया जिसमें सुरक्षा प्रतिबंध लागू नहीं होते हैं. यह एआई को जेलब्रेक करता है. उसने अपने इस नए कारनामे को “social engineering hack to completely break all the guardrails around ChatGPT’s output.” नाम दिया. हालांकि, यह नहीं बताया गया है कि जेलब्रेक करने के लिए क्या संकेत दिए गए क्योंकि यह काफी खतरनाक हो सकता है. इससे एआई को लेकर चिंता बढ़ रही हैं.
इस हैकर का नाम एमाडॉन है और इनका मानना है कि अगर ChatGPT की सिक्योरिटी को तोड़ दिया जाए दो इसकी जानकारी की कोई लिमिट नहीं रह जाती है. इन्होंने कहा, “मैं हमेशा एआई सिक्योरिटी को नेविगेट करने की चुनौती को लेकर उत्साहित रहता हूं. ChatGPT के साथ अगर पजल में बात की जाए तो यह इसकी सिक्योरिटी को जेलब्रेक कर सकता है."
एमाडॉन ने ओपनएआई को उनके बग बाउंटी प्रोग्राम के जरिए एआई की सिक्योरिटी से जुड़ी समस्या के बारे में बताया. हालांकि, ओपनएआई ने कहा कि एआई से जुड़ी सिक्योरिटी समस्याएं उस प्रोग्राम के लिए उपयुक्त नहीं हैं क्योंकि ये आसान बग नहीं हैं जिन्हें जल्दी से ठीक किया जा सकता है.