Deep Fake: आर्टिफिशियल इंटेलिजेंस (एआई) से संबंधित तकनीक में में सुधार के साथ, इंटरनेट पर डीपफेक आम होते जा रहे हैं. इसमें इमेज, ऑडियो या वीडियो शामिल होते हैं. इससे सावधान रहने की जरूरत है.
Trending Photos
Deep Fake: एक वीडियो जिसमें कथित तौर पर अभिनेत्री रश्मिका मंदाना दिख रही हैं, इसने इंटरनेट पर विवाद की आग भड़का दी है. ये वीडियो अगर आप देखेंगे तो आप ज़रा सा भी अंदाजा नहीं लगा सकते हैं कि वीडियो में जो लड़की है वो रश्मिका मंदाना नहीं है, बल्कि इस वीडियो के साथ छेड़खानी हुई है. असल में वह रश्मिका मंदाना का का 'डीपफेक' है. ये बात शायद कोई भी मानने को तैयार नहीं होगा लेकिन सीधे शब्दों में कहें तो AI की मदद वीडियो में किसी महिला के शरीर पर रश्मिका मंदाना का फेस स्वैप किया गया है.
क्या होता है डीप फेक?
डीपफेक एआई एक प्रकार का आर्टिफिशियल इंटेलिजेंस है जिसका इस्तेमाल हार्ड इमेज, ऑडियो और वीडियो फ्रॉड के लिए किया जाता है. डीपफेक अक्सर मौजूदा स्रोत सामग्री को बदल देते हैं जहां एक व्यक्ति को दूसरे से बदल दिया जाता है. ये देखने में रियल नजर आते हैं लेकिन असल में ये आपकी आंखों का धोका होता है. आजकल इंस्टाग्राम और अन्य सोशल मीडिया प्लेटफॉर्म्स पर इनका जमकर इस्तेमाल किया जा रहा है. मसलन नॉर्मल वीडियो में मौजूद शख्स के फेस को स्वैप करके उसकी जगह किसी सेलेब्रिटी या पॉलिटीशियन के फेस को लगा देना.
खतरनाक हो सकता है डीपफेक
डीपफेक बेहद खतरनाक हो सकता है. वजह ये है कि इससे झूठी जानकारी फैलने लगती है, जिसका इस्तेमाल देश ही नहीं दुनिया भर में होने वाले अपराधों में किया जा रहा है. उदाहरण के लिए, साल 2022 में यूक्रेनी राष्ट्रपति व्लादिमीर ज़ेलेंस्की का एक डीपफेक वीडियो जारी किया गया था जिसमें वे अपने सैनिकों को आत्मसमर्पण करने के लिए कह रहे थे.
इन गलत कामों में हो सकता है इस्तेमाल
साल 2024 में लोकसभा चुनाव होने वाले हैं और ऐसे में चुनावी भाषणों को प्रभावित करने में या फिर उन्हें गलत तरह से सोशल मीडिया पर दर्शाने में डीपफेक का इस्तेमाल किया जा सकता है. सरकार के सामने डीपफेक एक बड़ी चुनौती है और इससे सही समय पर निपटा ना गया तो ये राष्ट्रीय सुरक्षा के लिए भी बेहद ही खतरनाक साबित हो सकता है.