AI And Deepfake: कई चुनावी प्रबंधकों का मानना है कि 'मतदाताओं को बरगलाने' के लिए एआई का उपयोग करना किसी भी पार्टी के लिए ठीक नहीं है. एआई का बढ़ता उपयोग चीजों को जितना आसान बनाता है, उतना ही खतरनाक भी है. इससे निपटना जरूरी है.
Trending Photos
Loksabha Chunav 2024: यह भारत का पहला लोकसभा चुनाव है जिसमें आर्टिफिशियल इंटेलिजेंस और डीपफेक का जमकर इस्तेमाल हो रहा है. यह बात सही है कि भारत का चुनाव आयोग अच्छे से नियमों के क्रियान्वयन में लगा हुआ है लेकिन जरा सा चूक होने पर AI और डीपफेक तकनीकें चुनावों को प्रभावित कर सकती हैं, चाहे थोड़ा बहुत ही करें. यह अब मतदाताओं को ही सुनिश्चित करना है कि कैसे इससे सतर्क रहें और खुद को गलत सूचनाओं से प्रभावित ना होने दें. असल में आर्टिफिशियल इंटेलिजेंस और डीपफेक वह तकनीक है जिसके माध्यम से कंटेंट बनाया जा सकता है, इसमें वीडियो भी शामिल है.
इसके माध्यम से बहुत ही कम लागत और कम समय से कंटेंट डिलीवरी की जा सकती है. हालांकि इसका सकारात्मक उपयोग भी होता है. लेकिन कई बार तथ्यों को गलत तरीके से भी पेश किया जाता है. यह इंटेंशनली भी हो सकता है और गलती से भी हो सकता है. यहां तक कि किसी का भी ऐसा वीडियो बनाया जा सकता है जिसमें वह खुद ना शामिल हो.
एक उदाहरण से समझिए..
पिछले साल तेलंगाना विधानसभा चुनाव के दौरान नवंबर 2023 में कुछ लोग एक मतदान केंद्र के बाहर लाइन लगाकर खड़े थे तभी उनके व्हाट्सएप पर एक वीडियो दिखाई दिया, जिसमें भारत राष्ट्र समिति (बीआरएस) के नेता केटी रामाराव लोगों से कांग्रेस के पक्ष में मतदान करने का आह्वान कर रहे थे. यह वीडियो फर्जी था. हालांकि यह अलग बात है कि कांग्रेस ने तेलंगाना विधानसभा चुनाव जीता और रेवंत रेड्डी मुख्यमंत्री बने. ऐसे कई उदाहरण यही जिसमें डीपफेक का इस्तेमाल करके वीडियो बनाए जाते हैं, यहां तक कि आवाज भी वैसे ही बनाई जा सकती है.
चेहरे के साथ आवाज का भी इस्तेमाल हो जाता है..
एक और उदाहरण, इसी साल फरवरी में एआईएडीएमके के आधिकारिक हैंडल ने जे जयललिता की आवाज का उपयोग करते हुए एक संदेश शेयर किया गया. यह ध्यान रखा जाना चाहिए कि उनका 2016 में ही निधन हो गया था. इस वीडियो संदेश में लोगों से वर्तमान नेता एडापड्डी पलानीस्वामी का समर्थन करने का आग्रह किया गया था. इस मैसेज की खूब चर्चा रही, बाद में पता चल गया कि इसमें आर्टिफिशियल इंटेलिजेंस का इस्तेमाल किया गया है.
पीएम मोदी के भी चेहरे और आवाज का इस्तेमाल..
यहां तक कि इस साल की शुरुआत में सोशल मीडिया पर प्रधानमंत्री नरेंद्र मोदी के चेहरे की एक डीपफेक तस्वीर शेयर की गई थी, जिसमें एक गीत पर पीएम मोदी के चेहरे जैसा एक शख्स दिख रहा था. इतना ही नहीं वीडियो में पीएम की आवाज से मेल खाने के लिए एआई के जरिए स्वरों में बदलाव किया गया था. खुद पीएम मोदी में लोगों से डीपफेक से अलर्ट रहने की सलाह देते रहते हैं.
अमेरिका में भी हुआ वाकया..
अमेरिका में भी एक ऐसा ही उदाहरण सामने आया था. अमेरिकी राष्ट्रपति जो बिडेन का रूप धारण करने वाले एक रोबोकॉल ने न्यू हैम्पशायर में मतदाताओं से जनवरी के प्राथमिक चुनाव में मतदान से दूर रहने का आग्रह किया था. समाचार एजेंसी एसोसिएटेड प्रेस की एक रिपोर्ट के अनुसार बाद में पता चला कि एआई और डीपफेक का इस्तेमाल करके ऐसा किया गया है.
ऐसे में किसी भी तस्वीर, वीडियो या कंटेंट पर भरोसा करने से पहले यह सुनिश्चित कर लें कि यह सही जगह से आया है. पहली बात यही होनी चाहिए कि यह सोर्स सही हो. इसके अलावा कई अन्य तरीके भी हैं.
AI और डीपफेक के दौर में लोकसभा चुनावों में चुनौतियां और खतरे
गलत सूचना और प्रचार:
AI का इस्तेमाल गलत सूचना और प्रचार फैलाने के लिए किया जा सकता है, जिससे मतदाताओं को गुमराह किया जा सकता है. डीपफेक का उपयोग करके, राजनेताओं के वीडियो या ऑडियो क्लिप बनाए जा सकते हैं जो उन्हें गलत बयान देते हुए या आपत्तिजनक बातें करते हुए दिखाते हैं.
मतदाताओं को धमकाना:
AI का उपयोग मतदाताओं को धमकाने और उत्पीड़न करने के लिए किया जा सकता है, खासकर उन लोगों को जो किसी विशेष उम्मीदवार या पार्टी का समर्थन करते हैं. डीपफेक का उपयोग करके, मतदाताओं को डराने या उन्हें वोट न देने के लिए धमकाने के लिए वीडियो या ऑडियो क्लिप बनाए जा सकते हैं.
चुनावी प्रक्रिया में बाहरी हस्तक्षेप:
AI और डीपफेक का उपयोग विदेशी शक्तियों द्वारा चुनावी प्रक्रिया में हस्तक्षेप करने के लिए किया जा सकता है, जिससे लोकतंत्र कमजोर हो सकता है. हालांकि भारत में चुनाव आयोग बहुत ही सही से नियमों का क्रियान्वयन कर रहा है, ऐसे में भारत में यह मुश्किल होगा.
क्या किया जा सकता है?
मतदाता शिक्षा: मतदाताओं को AI और डीपफेक के खतरों के बारे में शिक्षित करना महत्वपूर्ण है ताकि वे गलत सूचना और प्रचार के प्रति अधिक सचेत रहें.
तकनीकी समाधान: AI और डीपफेक का पता लगाने और उनका मुकाबला करने के लिए तकनीकी समाधान विकसित करना महत्वपूर्ण है.
कानूनी ढांचा: AI और डीपफेक के दुरुपयोग को रोकने के लिए कानूनी ढांचा विकसित करना महत्वपूर्ण है.
अन्य सुझाव
1. केवल विश्वसनीय स्रोतों से जानकारी प्राप्त करें, जैसे कि मुख्यधारा के समाचार संगठन और सरकारी वेबसाइटें.
2. सोशल मीडिया पर साझा करने से पहले जानकारी की जांच करें.
3. AI और डीपफेक के बारे में जागरूक रहें और उनसे बचाव करें.
4. यदि कोई संदेह है, तो रिपोर्ट करें, कोई संदेह है कि कोई गलत सूचना या प्रचार फैला रहा है, तो इसे रिपोर्ट करें.
इसे भी पढ़ें-
- केजरीवाल मामले पर 'बड़ी अम्मा' बन रहा था जर्मनी, भारत ने लगा दी क्लास
- गुजरात में बीजेपी को कैसे लगा डबल झटका, दो उम्मीदवारों ने अचानक वापस ले लिया नाम