आर्टिफिशियल इंटेलिजेंस के बाजार में आने के बाद लोग इसका गलत तरीके से भी इस्तेमाल कर रहे हैं. जिन टूल्स को हमारी सुविधा के लिए बनाया गया है उन टूल्स का लोग गलत इस्तेमाल कर रहे हैं. इस बीच सोशल मीडिया पर इंडियन एक्ट्रेस रश्मिका मंदाना का एक फेक वीडियो तेजी से वायरल हो रहा है जिसे अब तक 2 मिलियन से भी ज्यादा लोग एक्स पर देख चुके हैं. दरअसल इस वीडियो को डीपफेक की मदद से बनाया गया है और किसी और की वीडियो पर एक्ट्रेस का चेहरा लगा दिया गया है.


क्या है Deepfake?


डीपफेक एक प्रकार का सिंथेटिक मीडिया है जिसमें एआई का उपयोग करके मौजूदा फोटो या वीडियो में एक व्यक्ति को किसी और की फोटो से बदल दिया जाता है. AI की क्षमता की वजह से फेक वीडियो को पहचान पाना आम नागरिक के लिए मुश्किल हो जाता है और वह आसानी से किसी ट्रैप में फस सकता है. 



अमिताभ बच्चन ने किया अलर्ट


इंडियन एक्ट्रेस रश्मिका मंदांना का ये वीडियो तेजी से सोशल मीडिया पर वायरल हो रहा है. इस वीडियो में एक्ट्रेस लिफ्ट के अंदर आती हुई दिख रही हैं जिसमें उन्हें बोल्ड अंदाज में दिखाया गया है. हालांकि इस वीडियो की सच्चाई ये है कि इस वीडियो को इंस्टाग्राम पर 8 अक्टूबर को जारा पटेल नाम की एक महिला के द्वारा अपलोड किया गया था. जारा पटेल की बॉडी का इस्तेमाल कर डीपफेक की मदद से रश्मिका मंदाना का चेहरा इस वीडियो में लगा दिया गया है.


जब आप इस वीडियो को ध्यान से देखेंगे तो जैसे ही जारा पटेल वीडियो में लिफ्ट के अंदर घुस रही है तो तभी उनका चेहरा एक्ट्रेस रश्मिका मंदाना के रूप में बदल जा रहा है जो बताता है की वीडियो फेक है और इसे AI टूल की मदद से बनाया गया है. इस वीडियो पर बॉलीवुड अभिनेता अमिताभ बच्चन ने रिएक्ट किया है और कहा कि ये एक स्ट्रांग लीगल केस है और ऐसे लोगों के खिलाफ कार्रवाई होनी चाहिए.


कैसे बचें?


आर्टिफिशियल इंटेलिजेंस के आने के बाद से लोग इसका गलत तरीके से ज्यादा इस्तेमाल कर रहे हैं. ऐसे में आपके साथ ऐसा कुछ न हो इसलिए अपनी निजी तस्वीरें और वीडियो सोशल मीडिया पर अपलोड करने से बचें क्योंकि इन्हें गलत तरीके से एडिट कर रखा जा रहा है. संभव हो तो अपनी प्रोफाइल प्राइवेट रखें और कम से कम जानकारी अपनी सोशल मीडिया पर पोस्ट करें. 


यह भी पढ़ें:


सावधान! स्कैमर्स एक नए तरीके से लोगों को बना रहे उल्लू, कॉल में बोले जाएं ये शब्द तो तुरंत काट दें फोन