share--v1

जेल के अंदर से चुनावी रैली, फर्जी वीडियो में हूबहू आवाज; आम चुनाव में AI और डीप फेक का कितना खतरा?

Lok Sabha Election 2024:देश और दुनिया में बढ़ती तकनीक से लोगों को सुविधा होती है, लेकिन आर्टिफिशियल इंटेलिजेंस दुनिया के लिए खतरा बन गया है. राजनीति में एआई के गलत इस्तेमाल को लेकर दुनिया चिंतित है.

auth-image
Pankaj Soni

Loksabha Chunav 2024 : लोकसभा चुनाव 2019 तक राजनीतिक दल अपना चुनावी अभियान सोशल मीडिया पर संचालित करते थे. लेकिन अब समय बदल गया है. तकनीक इतनी आगे हो गई है कि चुनावी पोस्टर बनाने और कंटेंट लिखने से लेकर नकली वीडियो बनाने और चुनाव प्रचार करने के लिए आर्टिफिशियल इंटेलिजेंस का इस्तेमाल किया जा रहा है. आर्टिफिशियल इंटेलिजेंस (AI) में खासकर डीप फेक वीडिया चुनाव में राजनीति की दिशा को बदलने की ताकत रखता है.

किसी भी नेता के डीप फेक वीडियो को एआई के माध्यम से बहुत ही कम समय में तैयार किया जा सकता है. चुनाव में इसके फायदे और नुकसान दोनों हैं. आज हम आपको डीप फेक वीडियो के खतरों के बारे में बेसिक जानकारी दे रहे हैं. 

पाकिस्तान लोकसभा चुनाव से समझें

पड़ोसी देश पाकिस्तान में फरवरी महीने में आम चुनाव संपन्न हुए. इस चुनाव के दौरान पाक के पूर्व प्रधानमंत्री इमरान खान जेल में बंद थे. उनके राजनीतिक दल का चुनाव आयोग ने निशान भी छीन लिया. इसके बाद इमरान के समर्थक निर्दलीय चुनाव लड़े. वहीं इमरान खान का एक आर्टिफिशियल इंटेलिजेंस (AI) से बना वीडियो पार्टी के सोशल मीडिया अकाउंट में अपलोड किया गया. वीडियो को विभिन्न माध्यमों से नजता तक पहुंचाया गया. वीडियो में इमरान खान जेल की कोठरी से जनता को संबोधित करते हुए दिख रहे थे. साथ ही लोगों सो वोट मांगते दिखे. इस वीडियो को देखकर लोग हैरान रह गए. आखिरकार पाकिस्तान में इमरान समर्थिकों की सीटे सबसे अधिक लेकिन बहुमत से कम 91 आईं. मतलब कि फर्जी वीडियो से अपील का चुनाव में यह असर हुआ.  

चेहरे के साथ आवाज का भी इस्तेमाल हो जाता है..

पाकिस्तान के पूर्व पीएम के वीडियो में इमरान खान की आवाज, उनका चेहरा और जेल की कोठरी सब कुछ रियल लग रहा था. एक और उदाहरण देखें तो इसी साल फरवरी में एआईएडीएमके के आधिकारिक हैंडल से जे. जयललिता की आवाज का उपयोग करते हुए एक संदेश शेयर किया गया. यह ध्यान रखा जाना चाहिए कि उनका 2016 में ही निधन हो गया था. इस वीडियो संदेश में लोगों से वर्तमान नेता एडापड्डी पलानीस्वामी का समर्थन करने का आग्रह किया गया था. 

पीएम मोदी के भी चेहरे और आवाज का हो चुका है इस्तेमाल

सोशल मीडिया पर प्रधानमंत्री नरेंद्र मोदी के चेहरे की डीपफेक तस्वीर शेयर साझा की जा चुकी है. इसमें एक गाने पर पीएम मोदी के चेहरे जैसा एक शख्स दिखाई दे रहा था. वीडियो में पीए की आवाज से मेल खाता ऑडियो डाला गया था. इसके बाद खुद पीएम मोदी में लोगों से डीपफेक से अलर्ट रहने की सलाह दी थी.

AI और डीपफेक का लोकसभा चुनावों में खतरा और चुनौतियां

 

गलत सूचना का निर्माण और प्रचार

AI का इस्तेमाल गलत सूचना गढ़ने और उसका प्रचार करने के लिए किया जा सकता है. ऐसे कंटेंट से मतदाताओं को गुमराह किया जा सकता है. डीपफेक का उपयोग करके, राजनेताओं के वीडियो या ऑडियो क्लिप बनाना आसान हो गया है. इसके इस्तेमाल राजनीतिक दल अपने विरोधी के खिलाफ कर सकते हैं. 

मतदाताओं को धमकाया जा सकता है

AI का उपयोग चुनाव में मतदाताओं को धमकाने और उत्पीड़न करने के लिए किया जा सकता है. खासकर उन लोगों को धमकाया जा सकता है जो किसी विशेष उम्मीदवार या पार्टी का समर्थन करते हैं. डीपफेक का उपयोग करके, मतदाताओं को डराने या उन्हें वोट न देने के लिए धमकाने के लिए वीडियो या ऑडियो क्लिप बनाए जा सकते हैं.

चुनावी प्रक्रिया में बाहरी हस्तक्षेप का खतरा

AI और डीपफेक का उपयोग विदेशी शक्तियों द्वारा चुनावी प्रक्रिया में हस्तक्षेप किया जा सकता है. यह काम भारतीय लोकतंत्र को कमजोर कर सकता है. हालांकि भारत में चुनाव आयोग बहुत ही सही से नियमों का क्रियान्वयन कर रहा है, ऐसे में भारत में यह मुश्किल होगा.

लोगों को इसके बारे में कैसे समझा सकते हैं?

मतदाता को शिक्षित करना होगा: मतदाताओं को AI और डीपफेक के खतरों के बारे में शिक्षित करना होगा ताकि वे गलत सूचना और प्रचार के प्रति सावधान रह सकें.

तकनीकी समाधान चाहिए: AI और डीपफेक का पता लगाने और उनका मुकाबला करने के लिए तकनीकी समाधान विकसित करना होगा. 

कानूनी ढांचे की जरूरत: AI और डीपफेक के दुरुपयोग को रोकने के लिए कानूनी ढांचा विकसित करना  जरूरी है. सरकार ने इस संबंध में नए नियम भी बनाएं हैं. 

गलत जानकारी से बचने के लिए मतदाता क्या करें?

1. केवल विश्वसनीय स्रोतों से जानकारी प्राप्त करें, जैसे कि मुख्यधारा के समाचार संगठन और सरकारी वेबसाइटें.
2. किसी चीज को सोशल मीडिया पर साझा करने से पहले उसमें दी गई जानकारी के बारे में जांच कर लें. 
3. AI और डीप फेक के बारे में जागरूक रहें और उनसे बचाव करें.
4. अगल आपको किसी चीज में कोई संदेह है, तो रिपोर्ट करें. कोई गलत सूचना या प्रचार फैला रहा है, तो इसे रिपोर्ट करें.

Also Read