बॉलीवुड एक्टर रश्मिका मंधाना का डीपफेक वीडियो सामने आने के बाद से हर कोई हैरान है. हर कोई इस बारे में बात कर रहा है क्योंकि इस वीडियो ने आर्टिफिशियल इंटेलिजेंस (एआई) और डीपफेक वीडियो की दुनिया की एक झलक दी है जो किसी भी इंसान के जीवन के तबाही मचा सकता है. हाल ही में, वायरल हुई वीडियो में, रश्मिका मंदाना को एक लिफ्ट में प्रवेश करते समय काले रंग का स्विमसूट और साइकिलिंग शॉर्ट्स पहने दिखाया गया था.
जब डुप्लीकेट 'असली' हो
प्रेजेंटेशन के लिहाज से यह वीडियो परफेक्ट लग रहा है. लेकिन समस्या यह है कि वीडियो में दिखाई गई महिला रश्मिका नहीं थी, बल्कि कोई अन्य महिला थी, जिसके वीडियो को इस्तेमाल करके रश्मिका का वीडियो बनाया गया. ओरिजिनल वीडियो एक ब्रिटिश भारतीय लड़की ज़ारा पटेल का है जो उन्होंने कुछ दिन पहले दिखाया था. डीपफेक वीडियो में पटेल के चेहरे पर रश्मिका का चेहरा लगाया गया था.
इससे पहले भी बॉलीवुड हस्तियों और राजनेताओं के इस तरह के फोटोज और वीडियोज सामने आते रहे हैं. लेकिन इस वीडियो के शेयर होने के बाद इस मामले पर चर्चा तेज हो गई है. अब सवाल है कि आम लोग इस तरह की तस्वीरें या वीडियोज देखें तो कैसे पहचान करें कि वीडियो ओरिजिनल है या डीपफेक.
कैसे करें असली और डुप्लिकेट की पहचान
1. आंखों की अजीब या असामान्य हरकतें
डीप फेक वीडियो को पहचानने के लिए सबसे प्रमुख संकेतों में से एक है आंखों की असामान्य या अप्राकृतिक मूवमेंट. आप ध्यान से देखेंगे तो डीपफेक वीडियो में आंखें चेहरे के साथ तालमेल में न हों, आंखों की हरकतें अजीब हों, और जिस तरह से वे चारों ओर देखते हैं उसका पैटर्न किसी वास्तविक व्यक्ति की तरह फ्रेम में फिट नहीं बैठता है.
2. आर्टिफिशियल चेहरे की हरकतें, लिप सिंक
वीडियो में मौजूद व्यक्ति सेटिंग और उनकी स्पीच के साथ असंगत प्रतीत होंगे. लिप मूवमेंट में भी आपको सिंक नहीं दिखेगा. अगर आप गौर से नोटिस करेंगे तो इस अंतर को समझ पाएंगे.
3. लाइटिंग, बैकग्राउंड और कलर आउटलाइन में अंतर
डीपफेक वीडियो में आपको लाइटिंग, बैकग्राउंड और कलर आउटलाइन में आपको सीधा अंतर पता चलेगा. क्योंक् नकली वीडियो कभी भी पूरी तरह से असली के जैसा नहीं हो सकता है. कहीं न कहीं अंतर होता ही है लेकिन इसे समझने के लिए आपको वीडियो को ध्यान से एनालाइज करना होगा. आपको वीडियो में सब्जेक्ट के चेहरे और आसपास की लाइटिंग में असमानता को गौर से देखना चाहिए.
4. आवाज और ऑडियो
जो कोई भी डीप फेक वीडियो बनाता है वह एआई का उपयोग करके आवाज और दूसरे ऑडियो कंटेंट पर निर्भर करता है. जब ऐसे वीडियो में कोई सेलिब्रिटी या जानी-मानी हस्ती दिखाई देती है तो यह पता लगाना बहुत आसान होता है कि आवाज और माहौल उस व्यक्ति(व्यक्तियों) और सेटिंग से संबंधित नहीं है. जहां तक कुछ रैंडम लोगों को दर्शाने वाले सामान्य कंटेंट की बात है, तो आपको बस ऑडियो की तुलना विजुअल कंटेंट से करनी होगी.
5. बॉडी मूवमेंट और आकार
अब आप वीडियो में इंसान के हावभाव, चाल, चेहरे, बालों और ठोड़ी के नीचे समरूपता पर ध्यान दें. अगर किसी के हाथ, पैर या बाल क्लिक नहीं कर रहे हैं, और उनकी आर्म्स अजीब लग रही हैं या सिर्फ इंसान की बॉडी के साइज या सिर पर न जाएं, अगर आपको कोई भी असमानता लगे तो यह वीडियो डीप फेक हो सकती है.
भारत में डीपफेक के खिलाफ कानून
1. प्राइवेसी कानून
डीपफेक अपराधों के मामले में, जिसमें किसी व्यक्ति की इमेज को बड़े पैमाने पर मीडिया में कैप्चर करना, प्रकाशित करना या प्रसारित करना शामिल है, उनकी गोपनीयता का उल्लंघन करने के लिए आईटी अधिनियम 2000 की धारा 66D लागू होती है. इस अपराध के लिए तीन साल तक की कैद या 2 लाख रुपये तक का जुर्माना हो सकता है.
भारत के इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चंद्रशेखर ने कहा, “अप्रैल, 2023 में अधिसूचित आईटी नियमों के तहत – यह प्लेटफार्मों के लिए एक कानूनी दायित्व है: सुनिश्चित करें कि किसी भी यूजर्स द्वारा कोई गलत सूचना पोस्ट न की जाए और यह सुनिश्चित करें कि जब कोई यूजर या सरकार रिपोर्ट करे तो गलत सूचना 36 घंटे में हटा दी जाए. यदि प्लेटफ़ॉर्म इसका अनुपालन नहीं करते हैं, तो नियम 7 लागू होगा और आईपीसी के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा प्लेटफ़ॉर्म को अदालत में ले जाया जा सकता है."
2. मानहानि:
भारतीय दंड संहिता (आईपीसी) में मानहानि के प्रावधान (धारा 499 और 500) शामिल हैं. अगर गलत जानकारी फैलाकर किसी व्यक्ति की प्रतिष्ठा को नुकसान पहुंचाने के इरादे से कोई डीपफेक वीडियो बनाया गया है, तो प्रभावित व्यक्ति निर्माता के खिलाफ मानहानि का मुकदमा दायर कर सकता है.
हालांकि, जब डीपफेक वीडियो की बात आती है, तो बहुत सी चुनौतियां सामने आती हैं. ऐसे में, मानहानि का दावा करने के लिए कुछ मानदंडों को पूरा करना जरूरी होता है. डीपफेक वीडियो के संदर्भ में मानहानि स्थापित करने के लिए, आम तौर पर निम्नलिखित तत्वों को साबित करने की आवश्यकता होती है:
3. साइबर अपराध:
सूचना प्रौद्योगिकी अधिनियम, 2000 और इसके संबद्ध नियमों में अनधिकृत पहुंच, डेटा चोरी और साइबरबुलिंग सहित साइबर अपराधों की एक डिटेल्ड सीरिज शामिल है. ऐसे मामलों में जहां हैकिंग या डेटा चोरी जैसे अवैध तरीकों से डीपफेक वीडियो तैयार किए जाते हैं, पीड़ितों को इस कानून के तहत सहारा मिलता है. वे शिकायत दर्ज कर सकते हैं, क्योंकि इन कार्यों में अक्सर कंप्यूटर संसाधनों तक अनधिकृत पहुंच शामिल होती है और संवेदनशील व्यक्तिगत डेटा सुरक्षा का उल्लंघन हो सकता है. अधिनियम ऐसे अपराधों को संबोधित करने और साइबर अपराधों से जुड़े डीपफेक वीडियो के निर्माण और प्रसार से प्रभावित लोगों के निवारण के लिए एक लीगल इंफ्रास्ट्रक्चर प्रदान करता है.
4. कॉपीराइट उल्लंघन:
जब किसी डीपफेक वीडियो में निर्माता की सहमति के बिना कॉपीराइट कंटेंट शामिल होती है, तो कॉपीराइट अधिनियम, 1957 लागू होता है. कॉपीराइट धारकों के पास ऐसे उल्लंघनों के खिलाफ कार्रवाई करने का कानूनी अधिकार है. यह कानून ओरिजिनल काम की सुरक्षा करता है और डीपफेक कंटेंट में इसके अनधिकृत उपयोग पर रोक लगाता है. कॉपीराइट उल्लंघन कानून कॉपीराइट मालिकों को उनकी रचनात्मक संपत्तियों की सुरक्षा के लिए एक मजबूत इंफ्रास्ट्रक्चर देते हैं, यह सुनिश्चित करते हैं कि उनके इंटलेक्चुअल प्रॉपर्टी अधिकारों का सम्मान किया जाता है, और डीपफेक वीडियो के क्षेत्र में उनके काम के अनधिकृत और गैरकानूनी उपयोग को रोकने के लिए कानूनी कार्रवाई की जाती है.
5. भूल जाने का अधिकार:
भारत में "भूल जाने का अधिकार" के नाम से कोई विशिष्ट कानून नहीं है, लेकिन व्यक्ति इंटरनेट से डीपफेक वीडियो सहित अपनी व्यक्तिगत जानकारी को हटाने का अनुरोध करने के लिए अदालतों से संपर्क कर सकते हैं. अदालतें गोपनीयता और डेटा सुरक्षा सिद्धांतों के आधार पर ऐसे अनुरोधों पर विचार कर सकती हैं.
6. उपभोक्ता संरक्षण कानून:
अगर डीपफेक वीडियो का निर्माण या वितरण यूजर्स को नुकसान पहुंचाने वाले धोखाधड़ी वाले उद्देश्यों के लिए किया जाता है, तो प्रभावित व्यक्ति उपभोक्ता संरक्षण कानूनों, जैसे उपभोक्ता संरक्षण अधिनियम, 2019 के तहत राहत मांग सकते हैं. इस कानून का उद्देश्य उपभोक्ताओं के अधिकारों और हितों की रक्षा करना है और धोखाधड़ी या गलत बयानी के मामलों में उपयोग किया जा सकता है.
(Input from Nalini Sharma)