एवीएन न्यूज़ रूम न्यू दिल्ली: डीपफेक, आर्टिफिशियल इंटेलिजेंस एक ऐसी तकनीक जो और मशीन लर्निंग का उपयोग करके फोटो और वीडियो को बदलने की अनुमति देती है, नई नहीं है। लेकिन अब यह भारत में सुर्खियों में है क्योंकि बॉलीवुड एक्ट्रेस कैटरीना कैफ और रश्मिका मंदाना इसकी चपेट में आ गई हैं।
कुछ ही दिन पहले भारतीय वेब और सोशल मीडिया उपयोगकर्ताओं ने अभिनेत्री रश्मिका मंदाना का एक लिफ्ट में प्रवेश करते हुए एक वीडियो देखा। वीडियो पूरी तरह नकली था और डीपफेक का उपयोग करके बनाया गया था, एक ऐसी तकनीक जो स्कैमर्स और साइबर अपराधियों को मशीन लर्निंग और कृत्रिम बुद्धिमत्ता (Artificial Intelligence) का उपयोग करके किसी फोटो या वीडियो को मोडिफाइड करने की अनुमति देती है। अब, कुछ ही दिनों बाद, कैटरीना कैफ की एक एडीटेड फोटो वायरल हो रही है। फोटो, जो मूल रूप से आगामी टाइगर 3 फिल्म का स्क्रीन-ग्रैब है, को मोडिफाइड किया गया है।
ओरिजनल फोटो में, जिसे कैटरीना कैफ ने अपने इंस्टाग्राम पर पोस्ट किया, वह तौलिया पहने हुए टाइगर 3 के लिए एक एक्शन सीक्वेंस कर रही हैं। लेकिन ट्रांसफर फोटो (Transformed Image) में, अभिनेता को उसी पोज़ में दिखाया गया है लेकिन एक अलग और परिवर्तित पोशाक (Altered Dress) के साथ, जो फोटो को अश्लील बनाता है।
हालांकि कुछ घंटों के बाद संशोधित यानी परिवर्तित और फर्जी तस्वीर को सोशल मीडिया से हटा दिया गया।
यह ध्यान रखना बहुत महत्वपूर्ण है कि हालांकि डीपफेक (Deepfake Technology) वास्तव में एक नई तकनीक नहीं है – यह कुछ साल पहले दृश्य में दिखाई दी थी – तेजी से इसका उपयोग स्कैमर्स और साइबर अपराधियों द्वारा वीडियो और फोटोज को मॉर्फ करने के लिए किया जा रहा है। इनमें से कई वीडियो अश्लील यानी असभ्य प्रकृति के हैं। तकनीक, जो फोटोज और वीडियो के तत्वों को संशोधित यानी मोडिफाइड करने और फिर से बनाने के लिए पावरफुल ग्राफिक्स कार्ड का उपयोग करती है, का उपयोग लोगों द्वारा गलत सूचना फैलाने के लिए भी किया जाता है। यह ध्यान देने योग्य है कि फोटोज और वीडियो को मॉर्फ करना, चाहे फ़ोटोशॉप जैसे कार्यक्रमों में या डीपफेक ( Deepfake Technology) टूल के माध्यम से, एक दंडनीय अपराध हो सकता है।
‘टाइगर 3’ फिल्म के विजुअल से कैटरीना की बदली हुई तस्वीर चिंता पैदा करती है क्योंकि डीपफेक तकनीक आसानी से वास्तविक लोगों की तस्वीरें ले सकती है और उन्हें पूरी तरह से अलग दिखाने में बदल सकती है। इस उदाहरण में, फोटो ने उन्हें फिल्म में वास्तव में पहनी गई कपड़ो से अलग ड्रेस में दिखाया गया है जो कि अश्लील रूप में है।
अभी कुछ दिन पहले, साउथ एक्टर्स रसमिका मंदाना के मामले में, एक डीपफेक वीडियो में उन्हें ऐसी स्थिति में दिखाया गया था, जिसमें वह कभी नहीं थीं, जिससे उनकी प्रतिष्ठा को नुकसान हो सकता है। वीडियो में लोकप्रिय अभिनेता को एक लिफ्ट में प्रवेश करते हुए दिखाया गया है। कई बड़े पत्रकार ने इस मुद्दे पर ध्यान आकर्षित करते हुए भारत में बढ़ती डीपफेक समस्या के समाधान के लिए एक कानूनी और नियामक ढांचे की मांग की है।
डीपफेक तकनीक से अपरिचित लोगों के लिए, इसमें अत्यधिक यथार्थवादी (Realistic) लेकिन अक्सर भ्रामक डिजिटल सामग्री बनाने के लिए एडवांस आर्टिफिशियल इंटेलिजेंस (Advanced Artificial Intelligence) का उपयोग शामिल है। यह तकनीक वीडियो या ऑडियो रिकॉर्डिंग में किसी भी व्यक्ति की उपस्थिति और आवाज़ में हेरफेर कर सकती है, जिससे प्रामाणिक और हेरफेर की गई चीजों के बीच अंतर करना चुनौतीपूर्ण हो जाता है।
रश्मिका मंदाना के वीडियो के मामले में, मूल फुटेज (Original Footage) में ब्रिटिश-भारतीय प्रभावशाली (Impressive) ज़ारा पटेल को दिखाया गया था, लेकिन डीपफेक तकनीक का उपयोग करके उसके चेहरे को डिजिटल रूप से अभिनेत्री के चेहरे से बदल दिया गया था। इस तरह की डीपफेक कंटेंट ने इसके दुरुपयोग की संभावना और इसके प्रसार से निपटने के लिए कानूनी उपायों की आवश्यकता के बारे में चिंताएं और बढ़ा दी हैं।
डीपफेक एक प्रकार का सिंथेटिक मीडिया है जिसमें एआई का उपयोग करके मौजूदा फोटो या वीडियो में एक व्यक्ति को किसी और की फोटो से बदल दिया जाता है। जबकि नकली कंटेंट का कार्य पुराना है, डीपफेक धोखा देने की उच्च क्षमता वाले दृश्य (Visual) और ऑडियो कंटेंट में हेरफेर करने या उत्पन्न करने के लिए मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस से पावरफुल तकनीकों का लाभ उठाता है।
डीपफेक की पहचान अक्सर अस्वाभाविक ( Unnatural) चेहरे के भावों या हरकतों से की जा सकती है, जैसे बहुत बार या पर्याप्त रूप से पलकें झपकाना या बहुत सख्त या झटकेदार हरकतें। आंखें इस बात का अच्छा संकेतक हैं कि कोई भी वीडियो असली है या नकली। डीपफेक में अक्सर धुंधली या फोकसहीन आंखें होती हैं, या ऐसी आंखें जो व्यक्ति के सिर की गतिविधियों से मेल बिलकुल नहीं खातीं है।
डीपफेक वीडियो आखिर क्या होता है?
किसी भी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है. ये इतनी सफाई से होता है
है कि कोई भी यकीन कर ले.
पहली बार न्यूज एग्रीगेटर Reddit पर पोस्ट किए गए थे डीपफेक वीडियोज
‘डीपफेक’ (Deepfake) शब्द पहली बार 2017 में इस्तेमाल किया गया था. तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो को पोस्ट किए गए थे. इसमें एक्ट्रेस एमा वॉटसन, स्कारलेट जोहानसन, गैल गैडोट के कई पोर्न वीडियो थे.
आईटी मंत्री ने भी किया एक पोस्ट
रश्मिका मंदाना से जुड़े डीपफेक वीडियो के विवाद के बाद केंद्रीय आईटी राज्य मंत्री राजीव चंद्रशेखर ने सोशल मीडिया प्लेटफॉर्म एक्स X (ओल्ड नाम ट्वीटर) पर एक पोस्ट किया. उन्होंने कहा है, “अप्रैल 2023 में जारी आईटी नियमों के मुताबिक सभी प्लेटफॉर्म्स के लिए ये कानूनी बाध्यता है कि वो किसी भी यूज़र द्वारा गलत जानकारी को पोस्ट न होने दें. अगर कोई यूज़र या सरकार इसकी शिकायत करती है, तो गलत जानकारी को 36 घंटे में हटाना सुनिश्चित करना होगा. अगर प्लेटफॉर्म इस पर अमल नहीं करते है, तो उनके खिलाफ नियम 7 लागू होगा और उनके खिलाफ आईपीसी की धाराओं के तहत प्रभावित व्यक्ति द्वारा केस किया जा सकता है.”
भारत सरकार ने याद दिलाए नियम
इस बीच केंद्र सरकार ने सोशल मीडिया प्लेटफॉर्म्स को वो कानून याद दिलाए हैं, जो Artificial Intelligence के ज़रिए ऐसे डीपफेक्स के दुरुपयोग पर होने वाली सज़ा से जुड़ा है. इलेक्ट्रॉनिक्स और इंफॉर्मेशन टेक्नोलॉजी मंत्रालय ने अपनी एडवाइज़री में कहा है कि Information Technology Act, 2000 के Section 66D का ज़िक्र भी किया है.
“Section 66D के तहत कोई भी अगर किसी संचार उपकरण (Communication Device) या कंप्यूटर के ज़रिए किसी की भी पहचान बदलकर धोखा देता है, तो उसे तीन साल तक की सजा और 1 लाख रुपये तक का जुर्माना भी हो सकता है.”
यूरोपीय यूनियन ने भी उठाया है बड़ा कदम
आप को बता दें कि यूरोपीय यूनियन ने डीपफेक को रोकने के लिए AI एक्ट के तहत “कोड ऑफ प्रैक्टिस ऑन डिसइन्फॉर्मेशन’ को लागू किया है. इस पर साइन करने के बाद गूगल, ट्विटर एक्स, मेटा, सहित कई तकनीकी कंपनियों को अपने प्लेटफॉर्म पर डीपफेक और फेक अकाउंट्स रोकने के लिए सख्त कदम उठाने होते हैं. इन्हें लागू करने के लिए उन्हें छह महीने का समय दिया जाता है. कानून तोड़ने पर कंपनी को अपने सालाना ग्लोबल रेवेन्यू का 6% जुर्माना भी देना पड़ता है.