share--v1

महिलाएं हो जाएं सावधान! AI से धड़ाधड़ बनाए जा रहे हैं न्यूड फोटो, सिर्फ एक महीने का आंकड़ा कर देगा हैरान

शोधकर्ताओं ने कहा है कि उदाहरण के लिए इस साल की शुरुआत से एक्स और रेडिट समेत सोशल मीडिया पर अनड्रेसिंग ऐप्स का विज्ञापन करने वाले लिंक की संख्या 2,400% से ज्यादा बढ़ गई है.

auth-image
Naresh Chaudhary
फॉलो करें:

हाइलाइट्स

  • ग्राफिका ने किया हैरान कर देने वाला खुलासा, पेश किए आंकड़े
  • गूगल और रैडिट के प्रवक्ता ने न्यूड फोटो वाले ऐप पर कही ये बात

24 Million People Made Nude Women Photos in September With AI: टेक्नोलॉजी के दौर में महिलाओं के लिए एक खतरनाक खबर है. एक शोध में सामने आया है कि तस्वीरों में महिलाओं के कपड़े उतारने (न्यूड फोटो) के लिए आर्टिफिशियल इंटेलिजेंस का उपयोग करने वाले ऐप्स और वेबसाइटों की लोकप्रियता काफी बढ़ रही हैं. सोशल नेटवर्क विश्लेषण कंपनी ग्राफिका ने पाया कि अकेले सितंबर में 24 मिलियन लोगों ने कपड़े उतारने वाली वेबसाइटों को यूज किया है. 

ग्राफिका ने किया हैरान कर देने वाला खुलासा

ग्राफिका के अनुसार इनमें से कई कपड़े उतारने या "नग्न करने" वाली सर्विस मार्केटिंग के लिए लोकप्रिय पब्लिक नेटवर्क का उपयोग करती हैं. शोधकर्ताओं ने कहा है कि उदाहरण के लिए इस साल की शुरुआत से एक्स और रेडिट समेत सोशल मीडिया पर अनड्रेसिंग ऐप्स का विज्ञापन करने वाले लिंक की संख्या 2,400% से ज्यादा बढ़ गई है. सेवाएं किसी फोटो को फिर से बनाने के लिए AI का उपयोग करती हैं ताकि सब्जेक्ट न्यूड हो जाए. इनमें से कई ऐप सिर्फ महिलाओं पर काम करते हैं.

ये ऐप्स एआई में प्रगति के कारण गैर-सहमति वाली पोर्नोग्राफी बनाने और बांटने वाली खतरनाक प्रवृत्ति का हिस्सा हैं. इसी को डीपफेक पोर्नोग्राफी के रूप में जाना जाता है. इसका प्रसार गंभीर कानूनी और नैतिक बाधाओं में चलता है, क्योंकि तस्वीरें अक्सर सोशल मीडिया से ली जाती हैं, जो किसी की जानकारी के बिना ही शेयर कर दी जाती है. 

डीपफेक से भी ज्यादा शार्प है इसका काम

ग्राफिका ने बताया है कि लोकप्रियता में इंटेलिजेंस कई ओपन सोर्स डिफ्यूजन मॉडल या एआई के जारी होने से मेल खाती है जो ऐसी फोटो बना सकते हैं. ग्राफिका के एक विश्लेषक सैंटियागो लाकाटोस ने कहा है कि आप कुछ ऐसा बना सकते हैं जो वास्तव में यथार्थवादी दिखता है. उन्होंने कहा कि पिछले डीपफेक अक्सर धुंधले होते थे.

एक्स पर पोस्ट की गई एक फोटो में एक कपड़े उतारने वाले ऐप का विज्ञापन किया गया है, जिसमें ऐसी भाषा का इस्तेमाल किया गया है जो बताती है कि ग्राहक नग्न तस्वीरें बना सकते हैं. फिर उन्हें उस व्यक्ति को भेज सकते हैं. इसी बीच एक ऐप ने Google के YouTube पर प्रायोजित मैटर के लिए भुगतान किया है, और nudify शब्द के साथ खोज करने पर यह सबसे पहले दिखाई देता है. 

गूगल, रैडिट के प्रवक्ता ने कही ये बात

Google के एक प्रवक्ता ने कहा कि कंपनी ऐसे विज्ञापनों को अनुमति नहीं देती, जिनमें स्पष्ट यौन सामग्री होती है. कंपनी ने कहा कि हमने संबंधित विज्ञापनों की समीक्षा की है और हमारी नीतियों का उल्लंघन करने वाले विज्ञापनों को हटा रहे हैं. Reddit के एक प्रवक्ता ने कहा कि साइट किसी भी तरह की नकली यौन सामग्री को बिना सहमति के साझा करने पर रोक लगाती है और शोध के परिणामस्वरूप कई डोमेन पर प्रतिबंध लगा दिया है. 

First Published : 09 December 2023, 03:14 PM IST