डिजिटल होते भारत में डीपफेक टेक्नोलॉजी स्कैम की जानकारी और उनसे बचाव अहम
मुकेश अम्बानी, शाहरुख़ खान जैसे लोगो के वीडियो आपको सोशल मीडिया पर मिल जाएंगे और ये इन्वेस्टमेंट बिज़नेस की बात करआपको उनके असिस्टेंट से टेलीग्राम पर संपर्क करने को कहते हैं. यह सब डीपफेक ही होते हैं
हम टेक्नोलॉजी के युग में जी रहे हैं, जहां हर रोज नित नयी टेक्नोलॉजीज आ रही हैं. अर्टिफिशियल इंटेलिजेंस और मशीनी लर्निंग ने इस समय तकनीकी दुनिया को झकझोर कर रख दिया है और जीवन के हर पक्ष को ये तकनीकें प्रभावित कर रही हैं. हालांकि, AI और ML के भी दुरूपयोग किये जा रहे हैं और इसका सबसे बड़ा उदहारण है डीपफेक. अभी के दिनों कभी मुकेश अंबानी से संबंधित कोई खबर आ जाती है, तो कभी किसी और से. दो दिनों बाद हमें पता चलता है कि वह डीपफेक था.
हर तरफ पहुंचता डीपफेक
इन दिनों हर और डीपफेक की चर्चा हो रही है, हम लगभग रोजाना ही डीपफेक तकनीक द्वारा किये गए किसी अपराध या धोखाधड़ी के बारे में पढ़ते हैं. हम पढ़ते हैं कि किसी के पास उसके रिश्तेदार या दोस्त का फ़ोन कॉल या वीडियो कॉल आया, और उसने कुछ परेशानी बताई और तुरंत पैसे ट्रांसफर करने को कहा, और पीड़ित व्यक्ति ने पैसा ट्रांसफर कर दिया. बाद में पता लगा कि वह कॉल उस रिश्तेदार या दोस्त की नहीं थी, बल्कि वह अपराधी की थी, जिसने उस रिश्तेदार या दोस्त की आवाज़ या चेहरे की हूबहू नक़ल करके पीड़ित को यह विश्वास दिलाया कि वह सही व्यक्ति से ही बात कर रहा है, और फिर उसने पैसे भी ट्रांसफर कर दिए. जब तक सच पता लगता है, तब तक बहुत देर हो चुकी होती है, चूंकि कई मामलों में स्कैमर विदेश में होते हैं, कानून उतने आधुनिक नहीं हुए हैं, पुलिस भी ज्यादा कुछ नहीं कर पाती. अमूमन, लोग पूछते हैं कि ऐसे स्कैम्स से कैसे बचें? क्या हमें तकनीकी रूप से सक्षम होना चाहिए ऐसी धोखाधड़ी से बचने के लिए?
डीपफेक को समझिए
बहुत ही आसान भाषा में कहें तो डीपफेक एक एडिटेड वीडियो या ऑडियो कॉल हो सकती है, जिसमें किसी अन्य के चेहरे को किसी अन्य के चेहरे से बदल दिया जाता है, या किसी की आवाज की भी हूबहू नक़ल की जा सकती है . डीपफेक वीडियोज इतने सटीक होते हैं कि आप इन्हें आसानी से पहचान नहीं सकते. डीपफेक वीडियो बनाने के लिए आर्टिफिशियल इंटेलिजेंस (AI) और मशीन लर्निंग की भी मदद ली जाती है.
डीपफेक वीडियो और ऑडियो बनाने के लिए एक ख़ास मशीन लर्निंग का इस्तेमाल किया जाता है, जिसे डीप लर्निंग कहा जाता है. डीप लर्निंग में कंप्यूटर को दो वीडियो, फोटो या ऑडियो सैंपल दिए जाते हैं, और फिर वह सिस्टम लर्निंग अल्गोरिथम का उपयोग कर के खुद ही दोनों वीडियो, फोटो या ऑडियो सैंपल की नक़ल बना देता है. यह ठीक उसी तरह है जैसे आप किसी तस्वीर या ऑब्जेक्ट की नक़ल बनाते हैं. इस तरह के फोटो, वीडियोज और ऑडियो सैम्पल्स में कई लेयर्स होती हैं, जिन्हे एडिटिंग सॉफ्टवेयर से ही देखा जा सकता है.
अगर बिलकुल ही साधारण शब्दों में कहें, तो डीपफेक, असली इमेज-वीडियोज-ऑडियो को डीप लर्निंग अल्गोरिथ्म्स की सहायता से बेहतर बनाने की एक प्रक्रिया है. डीपफेक फोटो-वीडियोज और ऑडियो सैम्पल्स नकली होते हुए भी असली लगते हैं, और यही कारण है कि कोई भी इन्हे देख कर धोखा खा जाता है. कहीं ना कहीं स्कैमर्स ने इस तकनीक के इस मजबूत पक्ष का दुरूपयोग धोखाधड़ी करने के लिए शुरू कर दिया है.
डीपफेक की पहचान
चेहरे के भावों और गतिविधियों का विश्लेषण करें, तो डीपफेक को समझ सकते हैं. डीपफेक वीडियो को पहचानने के लिए सबसे आसान है सामने वाले व्यक्ति के चेहरे के भावों और गतिविधियों का ध्यान से विश्लेषण करना. पलकें झपकाने का पैटर्न, होठों को हिलाना, बोलते समय चेहरे के भावो में बदलाव आना जैसे सूक्ष्म विवरणों पर ध्यान देने से मामला समझ में आता है. डीपफेक एल्गोरिदम अक्सर इन बारीकियों को सटीक रूप से दिखाने में सक्षम नहीं हैं, जिनके परिणामस्वरूप विसंगतियां होती हैं जिन्हें सावधानीपूर्वक जांचने पर पता लगाया जा सकता है.
उदाहरण के लिए कोई आपसे वीडियो कॉल कर रहा हो, तो आप उसे कैमरा एंगल बदलने को कह सकते हैं, चेहरे को दाएं बाएं घुमाने को कह सकते हैं, या फिर आप सामने वाले को कह सकते हैं कि वह कैमरा से थोड़ा दूर जाये, ताकि आप उसके चेहरे के अतिरिक्त शरीर के अन्य भाग को देख सकें. अगर यह एक डीपफेक वीडियो है, तो ऐसा करने पर सॉफ्टवेयर वार्पिंग या ब्लर हो जाएगा, जैसे ही स्कैमर चेहरा हिलायेगा, तो उसके चेहरे के आस पास का इलाका ब्लर हो सकता है. चूंकि स्कैमर ने केवल चेहरे की ही नक़ल की है, ऐसे में चेहरे को विभिन्न कोण से देखने से, पूरा शरीर देखने से, और लाइट आदि बदलने से आपको समझ आ जाएगा कि यह एक डीपफेक वीडियो कॉल है.
ऑडियो गुणवत्ता और लिप सिंकिंग का आकलन करके भी बचा जा सकता है. डीपफेक वीडियो में अक्सर ऑडियो ट्रैक और विजुअल क्लिप को जोड़कर वीडियो बनाया जाता है, और कई बार इस कारण विसंगतियां पैदा हो जाती हैं, खासकर लिप सिंकिंग में. ऑडियो को ध्यान से सुनें और देखें कि क्या यह स्पीकर के मुंह की गतिविधियों के साथ सहजता से मेल खाता है. इसके अतिरिक्त, ध्वनि में अप्राकृतिक रुकावट, गड़बड़ियां या विकृतियां डीपफेक का संकेत दे सकती हैं.
बड़े नामों का करते हैं इस्तेमाल
हमने कई वीडियो देखे हैं, जहां किसी बॉलीवुड अभिनेता, क्रिकेटर या बड़े बिज़नेस मैन आदि आपको अच्छा सा सन्देश देते हैं. आपको उनका वीडियो चलता दिखेगा, और बैकग्राउंड में उनकी ऑडियो क्लिप चलती रहती है. आप अगर ध्यान से देखेंगे तो पाएंगे कि कुछ शब्द बोलते हुए उनका अंत एकदम से हो जाएगा . कभी कभी शब्द तेजी से बोल दिए जाएंगे, कभी-कभी आवाज मे उतार चढ़ाव असामान्य लगेगा. और कई बार जो बातें कही जाती हैं, वह विश्वास करने लायक नहीं होती.
उदहारण के लिए मुकेश अम्बानी, शाहरुख़ खान जैसे लोगो के वीडियो आपको सोशल मीडिया पर मिल जाएंगे और यह लोग किसी बहुत बड़े इन्वेस्टमेंट बिज़नेस की बात करते हैं, और आपको अपने असिस्टेंट से टेलीग्राम पर संपर्क करने को कहते हैं. यह सब डीपफेक ही होते हैं, इनके चक्कर में कभी नहीं पड़ें. डीपफेक के खिलाफ लड़ाई में, संदिग्ध सामग्री को पहचानने और चिह्नित करने के लिए डिज़ाइन किए गए उन्नत डिटेक्शन टूल्स और सॉफ़्टवेयर का उपयोग कर सकते हैं. भविष्य में हो सकता है कि एंटी-डीपफेक हेडसेट जैसा कोई प्रोडक्ट मार्किट में आ जाए, जो इस प्रकार के वीडियो या कॉल्स को पहचानने में मदद कर सके. हालांकि ऐसे सॉफ्टवेयर या हेडसेट आदि की उपलब्धता सभी के लिए होना फिलहाल तो असंभव है, ऊपर से इनका इस्तेमाल हर समय करना भी अव्यवहारिक है. ऐसे में यह बड़ा ही मुश्किल विकल्प है.
कॉमन सेंस है काम की चीज
यह एक ऐसी चीज है जो भगवान् और प्रकृति ने सभी को दी है, लेकिन दुःख की बात है कि अधिकांश लोग इसका इस्तेमाल नहीं करते. मान लीजिये आपको किसी का कॉल आता है कि आपका कोई दोस्त मुश्किल में है और उसे तुरंत कुछ लाख रूपए की जरूरत है. वीडियो कॉल पर आपका दोस्त भी है (उसका डीपफेक वर्शन). ऐसे में तुरंत पैसे ट्रांसफर करने से पहले क्यों नहीं उसी दोस्त को अलग से फ़ोन कॉल कर लें? क्यों ना उसके परिवार में किसी से बात करने का प्रयास कर लें.कोई आपको फ़ोन करता है कि आपके बेटे का स्कूल से अपहरण हो गया है, और उसको छुड़वाने के लिए तुरंत ५ लाख ट्रांसफर करिये, बैकग्राउंड से आपको अपने बेटे की आवाज़ भी आ रही होगी, जिसमे वह आपसे उसे बचाने की गुहार कर रहा हो. ऐसे वॉइस सैम्पल्स डीपफेक से बनाये जा सकते हैं. ऐसे में तुरंत पैसे ट्रांसफर करने से पहले आप एक बार स्कूल में कॉल करके पूछ सकते हैं कि आपका बेटा वहीं है या गायब है. आप उसके किसी दोस्त के परिवार से संपर्क कर सकते हैं.
किसी अनजान व्यक्ति कि कॉल पर परेशान हो कर लाखो रूपए देने से पहले हम इतना तो कर ही सकते हैं. ऐसा करने के लिए आपका पढ़ा लिखा होना जरूरी नहीं, आपका टेक्नोलॉजी जानना जरूरी नहीं, यह सब काम कोई भी व्यक्ति कर सकता है और धोखाधड़ी से बच सकता है. यहां यह भी जान लं कि जैसे जैसे AI , ML और डीप लर्निंग और बेहतर होती जाएंगी, ऐसे वीडियो और कॉल्स की क्वालिटी भी और बेहतर होती जाएंगी, लेकिन उसी तरह उन्हें पहचानने के नए नए तरीके खोज लिए जाएंगे. फिलहाल तो यह जरूरी है कि सभी सरकारें डीपफेक के विरुद्ध कड़े कानून बनाएं और आम लोगो को इस बारे में जागरूक करें, क्यूंकि यहां जानकारी ही बचाव कर सकती है.