खतरनाक है डीपफेक तकनीक

खतरनाक है डीपफेक तकनीक

सुनील कुमार महला

खतरनाक है डीपफेक तकनीक
खतरनाक है डीपफेक तकनीक
आज विज्ञान और तकनीक का युग है। मानव समाज की प्रगति और उसके उत्तरोत्तर विकास के लिए निरंतर शोध होते रहते हैं, जिनसे नई नई तकनीकों का विकास होता रहता है। मुश्किल तब होती है जब इनका दुरुपयोग होने लगता है। डीपफेक ऐसी ही एक तकनीक है। फिल्म जगत से लेकर बड़ी राजनीतिक हस्तियां तक इसका शिकार हो चुकी हैं। पिछले दिनों भारत के प्रधानमंत्री नरेन्द्र मोदी और क्रिकेटर सचिन तेंदुलकर तक का डीपफेक वीडियो बन चुका है। डीपफेक वीडियो में भाव असली लगते हैं, लेकिन वे असली होते नहीं है।
केंद्रीय मंत्री अश्विनी वैष्णव ने कहा था कि ‘डीपफेक तकनीक एक नया खतरा बनकर उभरी है। सभी सोशल मीडिया प्लेटफॉर्म्स ने डीपफेक के खतरे और इसकी गंभीरता को स्वीकार किया है। अब डीपफेक के क्रिएटर्स और उसको होस्ट करने वाले प्लेटफॉर्म की जिम्मेदारी तय होगी।’
खतरनाक है डीपफेक तकनीक
आज देश-दुनिया में डीपफेक के मामले लगातार बढ़ रहे हैं। डीपफेक के अंतर्गत किसी मौजूदा छवि या वीडियो में मूल व्यक्ति के स्थान पर किसी दूसरे को इतनी अधिक समानता से लगा दिया जाता है कि उनमें अंतर करना कठिन हो जाता है। डीपफेक एआई (आर्टिफिशियल इंटेलिजेंस) की देन है, जिसका दुरुपयोग धोखाधड़ी के लिए किया जा रहा है। इस माध्यम से नकली छवियां बनाई जाती हैं और वीडियो-ऑडियो में हेरफेर किया जाता है। डीपफेक बनाने के लिए जेनेरेटिव एडवरसैरियल नेटवर्क (जीएएन) जैसे उन्नत एआई एल्गोरिदम का उपयोग किया जाता है।
डीपफेक टेक्नोलॉजी का आविष्कार वर्ष 2014 में किया गया था। इसे गुडफेलो और उसकी टीम ने बनाया था। डीपफेक में आमतौर पर डीप लर्निंग एल्गोरिदम, विशेष रूप से जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) का उपयोग शामिल है, जो डेटा में पैटर्न का विश्लेषण और नकल कर सकता है। यह भी जानकारी मिलती है कि डीपफेक शब्द पहली बार 2017 में प्रयोग किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर रेडिट पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो भी शामिल थे। सरल शब्दों में कहें तो हम यह कह सकते हैं कि किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। यह इतनी सफाई से होता है कि कोई भी इस पर विश्वास कर बैठता है। इसमें फेक भी असली जैसा लगता है। आज हर कोई सोशल मीडिया का उपयोग, प्रयोग तो करता ही है। फोटो भी सहज ही उपलब्ध हैं। डीपफेक सामग्री बनाने वाले इन्हीं का दुरुपयोग करते हैं। सच तो यह है कि डीपफेक टेक्नोलॉजी इंसानों की प्राइवेसी के लिए एक बड़ा खतरा साबित हो रही है। इस टेक्नोलॉजी में कोडर और डिकोडर टेक्नोलॉजी की सहायता ली जाती है। डिकोडर सबसे पहले किसी इंसान के चेहरे के हावभाव और बनावट की गहन जांच करता है। इसके बाद किसी फर्जी फेस पर इसे लगाया जाता है। आजकल डीपफेक बनाने के भी अनेक एप्स हैं।
कैसे पहचानें
डीपफेक वीडियो को फेशियल एक्सप्रेशन से पहचाना जा सकता है। फोटो और वीडियो के आईब्रो, होठों आदि के मूवमेंट से भी इसकी पहचान बखूबी की जा सकती है। सरकार भी डीपफेक को लेकर काफी सतर्क है। डीपफेक के विरुद्ध जल्द ही नए नियम लाए जा सकते हैं। आने वाले समय में सोशल मीडिया फर्म्स पर एक्शन लिया जा सकेगा। नये आईटी नियमों में गलत सूचना और डीपफेक को लेकर बड़े प्रावधान हैं। सभी के लिए इसका पालन करना अनिवार्य है, नहीं तो कार्रवाई की जाएगी।
डीपफेक एक नई समस्या है। यह लोगों को गुमराह करती है, भ्रम फैलाती है और दुष्प्रचार करती है। सिर्फ सेलिब्रिटी, राजनीतिक हस्तियां और रईस व्यक्ति और फिल्म स्टार ही नहीं, कोई भी, कभी भी डीपफेक का शिकार हो सकता है। आज घर-घर तक मोबाइल फोन और इंटरनेट की पहुंच हो गई है। इंटरनेट एंड मोबाइल एसोसिएशन ऑफ इंडिया के अनुसार, भारत के इंटरनेट उपयोगकर्ता 2010 में 100 मिलियन से बढ़कर 2015 तक 400 मिलियन हो गए और 2020 में 600 मिलियन से ऊपर। भारत में वर्ष 2021 तक मोबाइल फोन के 1.2 अरब उपयोगकर्ता थे, जिनमें से 75 करोड़ स्मार्टफोन का प्रयोग करते हैं। डेलॉयट के 2022 ग्लोबल टीएमटी (प्रौद्योगिकी, मीडिया और मनोरंजन, दूरसंचार) अनुमान के अनुसार, ‘घरेलू बाजार में 2026 तक स्मार्टफोन का उपयोग करने वाले लोगों की संख्या बढ़कर एक अरब पर पहुंचने का अनुमान है।’ डेलॉयट के विश्लेषण के अनुसार, भारत में स्मार्टफोन की मांग वार्षिक आधार पर छह प्रतिशत से बढ़कर 2026 में 40 करोड़ हो जाएगी, जो 2021 में 30 करोड़ थी। ऐसे में एंड्रॉयड फोन के इस युग में डीपफेक से बचने के लिए सावधानियां बहुत आवश्यक हैं। एंड्रॉयड फोन के कारण आज आर्थिक अपराध भी काफी बढ़ गए हैं। लोगों के बैंक खाते खाली हो रहे हैं। आज एआई-जनित साइबर हमले का एक उदाहरण डीपफेक है। व्यवसाय जगत में, साइबर अपराधी किसी व्यक्ति विशेष का रूप धारण करने, व्यवसाय संचालन में बाधा डालने, किसी कंपनी के बारे में नकारात्मक जानकारी फैलाने और पैसे चुराने के लिए डीपफेक का उपयोग कर सकते हैं। इसलिए यह आवश्यक है कि व्यवसायी डीपफेक जैसे एआई-सक्षम साइबर खतरों से बचाव के लिए जवाबी उपाय लागू करना शुरू करें।
डीपफेक डिटेक्टर तकनीक से डीपफेक को पकड़ा जा सकता है। वास्तव में डीपफेक की चुनौती से निपटने के लिए इंटरनेट उपयोगकर्ताओं को ज्यादा सजग रहना होगा। वहीं, पुलिस और जांच एजेंसियों को साइबर अपराधियों पर शिकंजा कसने के लिए अत्याधुनिक तकनीक के साथ अधिक सक्षम बनना होगा। सोशल मीडिया पर डीपफेक वीडियो की पहचान हम स्वयं भी कर सकते हैं। इसके लिए वीडियो पर दिखने वाले व्यक्ति के चेहरे के एक्सप्रेशन, आंखों की बनावट और बॉडी स्टाइल पर ध्यान देना होता है। आमतौर पर ऐसे वीडियो में बॉडी और चेहरे का कलर मैच नहीं करता है, जिससे हम इसे आसानी से पहचान सकते हैं। साथ ही, लिप सिंकिंग से भी डीपफेक वीडियो को आसानी से पहचाना जा सकता है। इसके अलावा, डीपफेक वीडियो और फोटो को पहचानने में कठिनाई आ रही है, तो हम इस संबंध में एआई टूल का सहारा ले सकते हैं। आज कई एआई टूल ऐसे हैं, जो आसानी से एआई जेनरेटेड वीडियो की पहचान कर सकते हैं।
Print Friendly, PDF & Email
Share on

Leave a Reply

Your email address will not be published. Required fields are marked *