वायरल हुआ रश्मिका मंदाना का फेक वीडियो, अमिताभ बच्चन ने जताई कड़ी आपत्ति

बॉलीवुड के महानायक अमिताभ बच्चन ने बीते सोमवार को अभिनेत्री रश्मिका मंदाना का एक डीपफेक वीडियो माइक्रोब्लॉगिंग प्लेटफॉर्म X पर शेयर करते हुए इसपर चिंता और डर जाहिर किया है। इसके बाद से ही बॉलिवुड में हलचल तेज हो गई है और कई फिल्मी सितारों के अलावा सोशल मीडिया यूजर्स भी इस खतरे पर चर्चा कर रहे हैं। खुद रश्मिका ने इस वीडियो को खतरनाक बताते हुए कहा है कि वह बहुत डरी हुई हैं।
माइक्रोब्लॉगिंग प्लेटफॉर्म X पर अभिषेक नाम के एक यूजर ने रश्मिका मंदाना का वीडियो शेयर करते हुए लिखा कि यह अभिनेत्री का वीडियो है ही नहीं बल्कि इसे डीपफेक टेक्नोलॉजी की मदद से तैयार किया गया है।
अभिषेक ने बताया कि असली वीडियो ब्रिटिश-इंडियन लड़की जारा पटेल का है, जिसने इसे 9 अक्टूबर को अपने इंस्टाग्राम अकाउंट पर शेयर किया था। इस वीडियो पर डीपफेक टेक्नोलॉजी के जरिए रश्मिका का चेहरा लगा दिया गया है।
🚨 There is an urgent need for a legal and regulatory framework to deal with deepfake in India.
— Abhishek (@AbhishekSay) November 5, 2023
You might have seen this viral video of actress Rashmika Mandanna on Instagram. But wait, this is a deepfake video of Zara Patel.
This thread contains the actual video. (1/3) pic.twitter.com/SidP1Xa4sT
अमिताभ बच्चन ने रीशेयर किया असली वीडियो
अभिनेता अमिताभ बच्चन ने वह असली वीडियो रीशेयर किया है, जिसकी मदद से रश्मिका मंदाना का डीपफेक वीडियो तैयार किया गया है। इसके बाद से ही सवाल उठ रहे हैं कि देश में डीपफेक टेक्नोलॉजी के खिलाफ कानूनी फ्रेमवर्क क्यों नहीं है और इसके खिलाफ क्या कार्रवाई की जा रही है।
रश्मिका ने एक लंबी पोस्ट लिखकर कहा है कि तकनीक के गलत इस्तेमाल पर ना सिर्फ उन्हें हैरानी हो रही है बल्कि वह डरी हुई हैं। उन्होंने लिखा कि ऐसा किसी के भी साथ हो सकता है।
information https://t.co/WHk5rxsNYj
— Amitabh Bachchan (@SrBachchan) November 5, 2023
आखिर क्या है यह डीपफेक वीडियो टेक्नोलॉजी?
डीपफेक टेक्नोलॉजी दरअसल मशीन लर्निंग या फिर डीप लर्निंग से जुड़ी है और यह ढेर सारे डाटा का इस्तेमाल करते हुए किसी वीडियो में चेहरा बदल सकती है। इसका इस्तेमाल करना आर्टिफीशियल इंटेलिजेंस (AI) के चलते और भी आसान हो गया है।
उदाहरण के लिए, किसी यूजर के चेहरे के चुनिंदा फोटोज अपलोड करने के बाद उस चेहरे को किसी वीडियो में फिट किया जा सकता है। स्कैमर्स ऐसे फेक वीडियोज का इस्तेमाल लोगों को ब्लैकमेल और परेशान करने के लिए करते रहे हैं।
दरअसल, डीपफेक टेक्नोलॉजी में कोई इंसान फ्रेम-बाय-फ्रेम एडिटिंग नहीं करता इसलिए कुछ वीडियोज बिल्कुल असली लगते हैं। जाहिर सी बात है, आप ऐसे किसी वीडियो का हिस्सा नहीं बनना चाहेंगे जो आपत्तिजनक हो या फिर जिसमें दिख रही हरकतें आपने कभी की ही ना हों लेकिन डीपफेक के जरिए चंद मिनटों में ऐसा किया जा सकता है।
सरकार की ओर से कड़ी कार्रवाई का वादा
रश्मिका का वीडियो रीशेयर करते हुए केंद्रीय मंत्री राजीव चंद्रशेखर ने कहा है कि सरकार अपने नागरिकों की सुरक्षा को लेकर प्रतिबद्ध है और फर्जी जानकारी या वीडियोज फैलाने या बनाने वालों के खिलाफ कड़ी कार्रवाई की जाएगी।
उन्होंने साफ किया कि IT रूल्स, 2023 के अंतर्गत सोशल मीडिया प्लेटफॉर्म्स को 36 घंटे के अंदर ऐसी फेक इन्फॉर्मेशन हटानी चाहिए और ऐसा ना कर पाने की स्थिति में उनकी कानूनी जवाबदेही बनती है।