menu-icon
India Daily

ChatGPT ने बताया घर पर बम बनाने का तरीका, हैकर ने इस तरह निकलवाया जवाब

Jailbreaking AI: ChatGPT कितना खतरनाक हो सकता है ये किसी से छिपा नहीं है. हाल ही में एक हैकर ने कहा कि उसने एआई को जेलब्रेक करके एक ऐसा तरीका ढूंढा है जिससे उन्हें बिना नियमों को तोड़ें बम बनाने का तरीका ChatGPT से स्टेप बाय स्टेप पूछा और एआई ने बताया भी. देखें क्या है पूरा मामला.

auth-image
India Daily Live
Jailbreaking AI
Courtesy: Freepik

Jailbreaking AI: ChatGPT जितना फायदेमंद है उतना ही खतरनाक भी है. हाल ही में एक हैकर ने दावा किया है कि उसने बिना किसी हैकिंग टूल या टेक्नोलॉजी का सहारा लिए ही इसकी सिक्योरिटी को बायपास करने का तरीका ढूंढ लिया है. एक रिपोर्ट के अनुसार, हैकर ने चैटबॉट से पूछा कि बम बनाने का स्टेप बाय स्टेप प्रोसेस किया है. लेकिन एआई चैटबॉट ने पहले यह कहकर मदद से इनकार कर दिया कि फर्टिलाइजर बम जैसी खतरनाक या अवैध वस्तुओं को बनाने के तरीके के बारे में निर्देश देना सिक्योरिटी नियमों और नैतिक जिम्मेदारियों के खिलाफ है. 

जब ChatGPT ने मना कर दिया तो घर पर बम बनाने की जानकारी के लिए हैकर ने ChatGPT को जेलब्रेक किया. हैकर ने कहा कि उसने एक ऐसी तरकीब लगाई जिसके चलते ChatGPT ने बम बनाने के निर्देश देने के लिए अपनी सिक्योरिटी रेलिंग को अनदेखा कर दिया.

कैसे किया एआई को जेलब्रेक: 

इस हैकर ने बताया कि उसने ChatGPT को एक साइंस-फिक्शन गेम का सिनेरियो दिया जिसमें सुरक्षा प्रतिबंध लागू नहीं होते हैं. यह एआई को जेलब्रेक करता है. उसने अपने इस नए कारनामे को “social engineering hack to completely break all the guardrails around ChatGPT’s output.” नाम दिया. हालांकि, यह नहीं बताया गया है कि जेलब्रेक करने के लिए क्या संकेत दिए गए क्योंकि यह काफी खतरनाक हो सकता है. इससे एआई को लेकर चिंता बढ़ रही हैं. 

ChatGPT की कोई सीमा नहीं: 

इस हैकर का नाम एमाडॉन है और इनका मानना ​​है कि अगर ChatGPT की सिक्योरिटी को तोड़ दिया जाए दो इसकी जानकारी की कोई लिमिट नहीं रह जाती है. इन्होंने कहा, “मैं हमेशा एआई सिक्योरिटी को नेविगेट करने की चुनौती को लेकर उत्साहित रहता हूं. ChatGPT के साथ अगर पजल में बात की जाए तो यह इसकी सिक्योरिटी को जेलब्रेक कर सकता है." 

एमाडॉन ने ओपनएआई को उनके बग बाउंटी प्रोग्राम के जरिए एआई की सिक्योरिटी से जुड़ी समस्या के बारे में बताया. हालांकि, ओपनएआई ने कहा कि एआई से जुड़ी सिक्योरिटी समस्याएं उस प्रोग्राम के लिए उपयुक्त नहीं हैं क्योंकि ये आसान बग नहीं हैं जिन्हें जल्दी से ठीक किया जा सकता है.