Google ने जिंदगी बर्बाद कर दी...' बेटे के Groin की फोटो खींचकर डॉक्टर को भेजा, आई मुसीबत

लॉकडाउन में पिता मार्क ने अपने बेटे के जननांगों की तस्वीर ली और मैसेजिंग सिस्टम के जरिए डॉक्टर को भेजा, लेकिन उन्हें इस बात का अंदाजा नहीं था कि वो एक बड़ी मुसिबत में फंसने जा रहे हैं.

Google scans images and videos uploaded to Google Photos using its Content Safety API AI toolkit
gnttv.com
  • नई दिल्ली,
  • 24 अगस्त 2022,
  • अपडेटेड 2:17 PM IST
  • बेटे के Groin की तस्वीर लेकर मैसेजिंग सिस्टम के जरिए डॉक्टर को भेजा
  • तस्वीरों को गूगल ने बाल यौन शोषण के तौर पर मार्क किया

लॉकडाउन की वजह से चलते-फिरते बहुत सारे बदलाव हम सबकी जिंदगी में आए. लेकिन इसी लॉकडाउन की वजह से एक मामला ऐसा सामने आया है जिसे सुनकर आपको हैरानी होगी, और अगर आप पैरेंट्स हैं तो सतर्क भी हो जाएंगे. मामला सैन फ्रांसिस्को के एक सॉफ्टवेयर इंजीनियर का है. मार्क नाम के इस शख्स ने पिछले साल कोरोना की वजह से लगे लॉकडाउन में अपने बेटे के Groin की तस्वीरें अपने मोबाइल फोन से खींचकर डॉक्टर को भेजीं. उस समय सारे डॉक्टर ऑनलाइन ही मरीजों को देख रहे थे. 

मार्क ने अपने बेटे के Groin की तस्वीर लेकर मैसेजिंग सिस्टम के जरिए डॉक्टर को भेजा लेक‍िन इस फोटो की वजह से वो एक मुसीबत में फंस गए. Groin कूल्हों और जांघों के बीच का हिस्सा होता है. द न्यूयॉर्क टाइम्स के मुताबिक, तस्वीरों को गूगल ने बाल यौन शोषण के तौर पर मार्क कर दिया है, और अब पुलिस इसकी जांच कर रही है. अपने बेटे की तस्वीर लेने के दो दिन बाद मार्क को गूगल ने ये बताया कि उन्हें गूगल के सभी अकाउंट से बाहर किया जा रहा है. यानी गूगल ने मार्क के अपने बेटे के जननांगों की तस्वीर लेने को चाइल्ड पोर्न के तौर पर पहचाना है. 

पिता ने ली बेटे की नग्न तस्वीर

मार्क का कहना है कि उन्होंने सोचा कि 'गूगल के लिए उनके बेटे की तस्वीर चाइल्ड पोर्न हो सकती है लेकिन अब उन्हें यह उम्मीद थी कि गूगल के एल्गोरिथम लूप से अब कोई इंसान ही उनकी सुरक्षा कर सकता है.  

बता दें कि बेटे की तस्वीरों का Google क्लाउड ने बैकअप भी लिया, फिर मार्क ने डॉक्टर के सुझाए गए एंटीबायोटिक्स को सबूत के तौर पर पेश किया ताकि वो ये साबित कर सकें कि उन्होंने बेटे के इलाज के लिए इस तरह की तस्वीरें ली थी. इस सब के बावजूद Google ने बच्चे के Groin की फोटो के लिए मार्क को इस बात का दोषी ठहराया कि मार्क ने Google की नीतियों का गंभीर रूप से उल्लंघन किया है. 

गूगल ने बंद कर दिया अकाउंट

महीनों बाद मार्क को पता चला कि सैन फ्रांसिस्को पुलिस विभाग ने उसके खिलाफ मामाला दर्ज किया है. मार्क को दिसंबर 2021 में लेटर के जरिए इस बात का पता चला कि पुलिस भी इस मामले की जांच कर रही है. इस लेटर में गूगल और इंटरनेट के सर्च वारंट के भी कागजात थे. जब पूरे मामले की जांच पुलिस ने की तो पाया कि मार्क झूठ नहीं बोल रहे हैं और मार्क ने बेटे के Groin की तस्वीर लेकर कोई अपराध नहीं किया है. 

मार्क ने अधिकारियों से उनके गूगल अकाउंट को वापस दिलाने की बात कही. पुलिस ने गूगल से अपील भी की लेकिन गूगल ने मार्क का अकाउंट वापस करने से मना कर दिया.गूगल ने ये साफ कर दिया कि मार्क का अकाउंट हमेशा के लिए बंद किया जा रहा है. 

किसी भी कीमत पर माफी के लायक नहीं 

गूगल ने कहा कि मार्क के फोटोज किसी भी कीमत में माफी के लायक नहीं है, क्योंकि एक फोटो में छोटा बच्चा बिना कपड़े पहनी औरत के साथ लेटा हुआ है. इस तस्वीर के बारे में मार्क ने कहा कि ऐसी कोई फोटो उन्हें याद नहीं आ रही है. अगर गूगल को ऐसी कोई फोटो मिली भी है तो वो बस एक निजी पल हो सकता है.

टेक्सास में रहने वाले एक परिवार के साथ ऐसा ही एक मामला सामने आया था. दरअसल माता पिता ने डॉक्टर को भेजने के लिए अपने बच्चों के 'प्राइवेट पार्ट की तस्वीरें लीं. फोटो लेने के लिए माता पिता ने पुराने Android फोन का इस्तेमाल किया,और बाद में इसे डिलिट कर दिया. लेकिन गूगल बैकअप से वो फोटो फोन में वापस आ गई,  इस माता पिता के लिए ये मुद्दा उस वक्त सरदर्द बना जब वो नया घर खरीद रहे थे और ऑनलाइन दस्तावेजों पर साइन कर रहे थे तभी उनके सारे गूगल अकांउट बंद हो गए. इस मामले की जांच ह्यूस्टन पुलिस ने की और पाया कि डॉक्टर को दिखाने के लिए बच्चे की तस्वीरें ली गई थी.

क्या है गूगल की गाइडलाइन 

बता दें कि Google 2018 में जारी API AI टूलकिट का इस्तेमाल करके Google फ़ोटो पर अपलोड की गई फोटोस और वीडियो को स्कैन करता है. इस एआई को बाल यौन शोषण सामग्री (सीएसएएम) को पहचानने के लिए ही बनाया गया है. किसी भी गलत तरह की फोटोज मिलने पर गूगल इसकी जानकारी नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) को देता है, और आगे का कदम उठाया जाता है. 

Google के प्रवक्ता क्रिस्टा मुलदून ने द वर्ज को बताया कि बच्चों की सुरक्षा के लिए हमारी स्पेशल टीम दिन रात काम में लगी रहती है. ये गूगल के फोटोज को स्कैन करती है और गलत तरह की फोटोज को मार्क करती है. 2021 में Google ने NCMEC की साइबर टिपलाइन को CSAM के 621,583 मामलों की जानकारी दी, जिसमें 4,260 से ज्यादा बाल पीड़ितों को बचाया गया . 


 

Read more!

RECOMMENDED