Loksabha Chunav 2024 : लोकसभा चुनाव 2019 तक राजनीतिक दल अपना चुनावी अभियान सोशल मीडिया पर संचालित करते थे. लेकिन अब समय बदल गया है. तकनीक इतनी आगे हो गई है कि चुनावी पोस्टर बनाने और कंटेंट लिखने से लेकर नकली वीडियो बनाने और चुनाव प्रचार करने के लिए आर्टिफिशियल इंटेलिजेंस का इस्तेमाल किया जा रहा है. आर्टिफिशियल इंटेलिजेंस (AI) में खासकर डीप फेक वीडिया चुनाव में राजनीति की दिशा को बदलने की ताकत रखता है.
किसी भी नेता के डीप फेक वीडियो को एआई के माध्यम से बहुत ही कम समय में तैयार किया जा सकता है. चुनाव में इसके फायदे और नुकसान दोनों हैं. आज हम आपको डीप फेक वीडियो के खतरों के बारे में बेसिक जानकारी दे रहे हैं.
पड़ोसी देश पाकिस्तान में फरवरी महीने में आम चुनाव संपन्न हुए. इस चुनाव के दौरान पाक के पूर्व प्रधानमंत्री इमरान खान जेल में बंद थे. उनके राजनीतिक दल का चुनाव आयोग ने निशान भी छीन लिया. इसके बाद इमरान के समर्थक निर्दलीय चुनाव लड़े. वहीं इमरान खान का एक आर्टिफिशियल इंटेलिजेंस (AI) से बना वीडियो पार्टी के सोशल मीडिया अकाउंट में अपलोड किया गया. वीडियो को विभिन्न माध्यमों से नजता तक पहुंचाया गया. वीडियो में इमरान खान जेल की कोठरी से जनता को संबोधित करते हुए दिख रहे थे. साथ ही लोगों सो वोट मांगते दिखे. इस वीडियो को देखकर लोग हैरान रह गए. आखिरकार पाकिस्तान में इमरान समर्थिकों की सीटे सबसे अधिक लेकिन बहुमत से कम 91 आईं. मतलब कि फर्जी वीडियो से अपील का चुनाव में यह असर हुआ.
पाकिस्तान के पूर्व पीएम के वीडियो में इमरान खान की आवाज, उनका चेहरा और जेल की कोठरी सब कुछ रियल लग रहा था. एक और उदाहरण देखें तो इसी साल फरवरी में एआईएडीएमके के आधिकारिक हैंडल से जे. जयललिता की आवाज का उपयोग करते हुए एक संदेश शेयर किया गया. यह ध्यान रखा जाना चाहिए कि उनका 2016 में ही निधन हो गया था. इस वीडियो संदेश में लोगों से वर्तमान नेता एडापड्डी पलानीस्वामी का समर्थन करने का आग्रह किया गया था.
सोशल मीडिया पर प्रधानमंत्री नरेंद्र मोदी के चेहरे की डीपफेक तस्वीर शेयर साझा की जा चुकी है. इसमें एक गाने पर पीएम मोदी के चेहरे जैसा एक शख्स दिखाई दे रहा था. वीडियो में पीए की आवाज से मेल खाता ऑडियो डाला गया था. इसके बाद खुद पीएम मोदी में लोगों से डीपफेक से अलर्ट रहने की सलाह दी थी.
AI का इस्तेमाल गलत सूचना गढ़ने और उसका प्रचार करने के लिए किया जा सकता है. ऐसे कंटेंट से मतदाताओं को गुमराह किया जा सकता है. डीपफेक का उपयोग करके, राजनेताओं के वीडियो या ऑडियो क्लिप बनाना आसान हो गया है. इसके इस्तेमाल राजनीतिक दल अपने विरोधी के खिलाफ कर सकते हैं.
AI का उपयोग चुनाव में मतदाताओं को धमकाने और उत्पीड़न करने के लिए किया जा सकता है. खासकर उन लोगों को धमकाया जा सकता है जो किसी विशेष उम्मीदवार या पार्टी का समर्थन करते हैं. डीपफेक का उपयोग करके, मतदाताओं को डराने या उन्हें वोट न देने के लिए धमकाने के लिए वीडियो या ऑडियो क्लिप बनाए जा सकते हैं.
AI और डीपफेक का उपयोग विदेशी शक्तियों द्वारा चुनावी प्रक्रिया में हस्तक्षेप किया जा सकता है. यह काम भारतीय लोकतंत्र को कमजोर कर सकता है. हालांकि भारत में चुनाव आयोग बहुत ही सही से नियमों का क्रियान्वयन कर रहा है, ऐसे में भारत में यह मुश्किल होगा.
मतदाता को शिक्षित करना होगा: मतदाताओं को AI और डीपफेक के खतरों के बारे में शिक्षित करना होगा ताकि वे गलत सूचना और प्रचार के प्रति सावधान रह सकें.
तकनीकी समाधान चाहिए: AI और डीपफेक का पता लगाने और उनका मुकाबला करने के लिए तकनीकी समाधान विकसित करना होगा.
कानूनी ढांचे की जरूरत: AI और डीपफेक के दुरुपयोग को रोकने के लिए कानूनी ढांचा विकसित करना जरूरी है. सरकार ने इस संबंध में नए नियम भी बनाएं हैं.
1. केवल विश्वसनीय स्रोतों से जानकारी प्राप्त करें, जैसे कि मुख्यधारा के समाचार संगठन और सरकारी वेबसाइटें.
2. किसी चीज को सोशल मीडिया पर साझा करने से पहले उसमें दी गई जानकारी के बारे में जांच कर लें.
3. AI और डीप फेक के बारे में जागरूक रहें और उनसे बचाव करें.
4. अगल आपको किसी चीज में कोई संदेह है, तो रिपोर्ट करें. कोई गलत सूचना या प्रचार फैला रहा है, तो इसे रिपोर्ट करें.