scorecardresearch

शरीर किसी का और चेहरा किसी और का… AI डीपफेक वीडियो आपकी प्राइवेसी पर कर रहा है हमला, एक्ट्रेस रश्मिका मंदाना भी हुई शिकार 

डिजिटल हेरफेर और एआई के युग में, डीपफेक के आ जाने से फेक वीडियो और फेक फोटो को बढ़ाने का काम किया है. एआई और कंप्यूटर से बनने वाली इन वीडियो और फोटो ने राजनीति से लेकर प्राइवेसी तक और मनोरंजन से लेकर मीडिया में अफरा तफरी मच गई है.

AI Deepfake Video AI Deepfake Video
हाइलाइट्स
  • आम नागरिक भी हैं चिंता में 

  • अमिताभ बच्चन ने भी दी सलाह

इंटरनेट ने यूजर्स के लिए अपनों से कनेक्ट करने के तरीके को आसान बना दिया है. लेकिन इसके साथ उनकी प्राइवेसी को लेकर कई हद तक मुश्किल में डाला है. मशहूर हस्तियों के लिए जहां इंटरनेट अपन फैंस से जुड़ने का से आसान तरीका है वहीं दूसरी ओर उन्हें साइबर क्राइम के लिए एक आसान टारगेट भी बना दिया है. हाल ही में 'एनिमल' एक्ट्रेस रश्मिका मंदाना एक ऑनलाइन क्राइम का शिकार हो गईं. एक्ट्रेस का एक डीपफेक वीडियो वर्ल्ड वाइड वेब पर वायरल हो गया.

क्या है इस वीडियो में?

वायरल वीडियो में एक महिला लिफ्ट में एंट्री करती हुई दिखाई दे रही है. उस महिला के चेहरे को डीपफेक तकनीक का उपयोग करके रश्मिका के रूप में बदल दिया गया है. इसके बाद से ही एक्ट्रेस के समर्थन में कई लोग आ गए हैं. उन्होंने रश्मिका को उनके वायरल वीडियो के लिए जिम्मेदार लोगों के खिलाफ कानूनी कार्रवाई करने की सलाह दी है. रश्मिका के 'अलविदा' को-एक्टर अमिताभ बच्चन भी नेटिज़न्स की इस सलाह के साथ एकजुटता दिखाते हुए कहा है कि यह कानूनी रूप से एक मजबूत मामला है.

अमिताभ बच्चन ने भी दी सलाह 

माइक्रो-ब्लॉगिंग साइट पर अमिताभ बच्चन ने रश्मिका के समर्थन में एक पोस्ट ट्वीट किया है. उन्होंने ट्वीट शेयर करते हुए लिखा- “ये कानूनी तौर पर मजबूत मामला है.” बिग बी के ट्वीट पर टिप्पणी करते हुए, एक यूजर ने लिखा - "अनुचित वीडियो बनाने के लिए डीपफेक तकनीक का उपयोग बेहद चिंताजनक है और यह प्राइवेसी का उल्लंघन है. ऐसे मामलों में कानूनी कार्रवाई जरूर होनी चाहिए. इन वीडियो को बनाने और फैलाने के लिए जिम्मेदार व्यक्तियों को कानून के तहत जवाबदेह ठहराया जाना चाहिए.  

दरअसल, ऐसा पहली बार नहीं है जब किसी एक्ट्रेस के सामने ये मामला आया है. हालांकि, भारत का साइबर कानून अक्सर ऐसी फोटो के दुरुपयोग वाले मामले को कवर करता है. 

क्या है डीपफेक वीडियो?

डिजिटल हेरफेर और एआई के युग में, डीपफेक वीडियो के आ जाने से फेक वीडियो और फेक फोटो को बढ़ाने का काम किया है. एआई और कंप्यूटर से बनने वाली इन वीडियो और फोटो ने राजनीति से लेकर प्राइवेसी तक और मनोरंजन से लेकर मीडिया में अफरा तफरी मच गई है. कई बार तो सही क्या है और गलत क्या ये समझ पाना आम नागरिकों के लिए काफी मुश्किल हो जाता है.  

आम नागरिक भी हैं चिंता में 

बता दें, डीपफेक जैसा कि नाम से पता चलता है "डीप लर्निंग" और "फेक” से बना है. इसमें एडवांस मशीन लर्निंग एल्गोरिदम का इस्तेमाल करके ऐसी फोटो या वीडियो जनरेट की जाती है जो फेक होती है. इतना ही नहीं डीपफेक की मदद पहले से मौजूद किसी कंटेंट में हेरफेर और सुपरइम्पोज किया जा सकता है. एआई से जुड़े इन डिवाइस में ऐसे वीडियो बनाने की क्षमता होती है जो किसी की जिंदगी तबाह कर सकती है. इसके आ जाने से सेलिब्रिटीज से लेकर आम नागरिकों में चिंता बढ़ गई है. 

किसी के भी चेहरे या आवाज से की जा सकती है छेड़छाड़ 

पब्लिक फिगर्स को डीपफेक से ज्यादा खतरा है. इससे इनकी व्यक्तिगत प्राइवेसी को चोट पहुंचाई जा सकती है. इसकी मदद से किसी की भी सहमति के बिना उसके चेहरे और आवाज के साथ छेड़छाड़ की जा सकती है. जिसकी वजह से साइबरबुलिंग एक बढ़ती हुई चिंता बन गई है. डीपफेक की मदद से किसी भी इंसान की व्यक्तिगत सीमाओं को तोड़ा जा सकता है. 

कैसे पहचानें ये डीपफेक वीडियो है?

हालांकि, डीपफेक से होने वाले गंभीर खतरे को पहचानते हुए, शोधकर्ता और तकनीकी कंपनियां इसका पता लगाने और उससे निपटने के लिए उपकरणों और तकनीकों में निवेश कर रही हैं. डीपफेक डिटेक्शन एल्गोरिदम हेरफेर की गई सामग्री की पहचान करने के लिए वीडियो की जांच करती है. इतना ही नहीं सोशल मीडिया नेटवर्क जैसे प्लेटफॉर्म उनके प्रसार को रोकने के लिए नीतियां लागू कर रहे हैं.