scorecardresearch

Google ने जिंदगी बर्बाद कर दी...' बेटे के Groin की फोटो खींचकर डॉक्टर को भेजा, आई मुसीबत

लॉकडाउन में पिता मार्क ने अपने बेटे के जननांगों की तस्वीर ली और मैसेजिंग सिस्टम के जरिए डॉक्टर को भेजा, लेकिन उन्हें इस बात का अंदाजा नहीं था कि वो एक बड़ी मुसिबत में फंसने जा रहे हैं.

Google scans images and videos uploaded to Google Photos using its Content Safety API AI toolkit Google scans images and videos uploaded to Google Photos using its Content Safety API AI toolkit
हाइलाइट्स
  • बेटे के Groin की तस्वीर लेकर मैसेजिंग सिस्टम के जरिए डॉक्टर को भेजा

  • तस्वीरों को गूगल ने बाल यौन शोषण के तौर पर मार्क किया

लॉकडाउन की वजह से चलते-फिरते बहुत सारे बदलाव हम सबकी जिंदगी में आए. लेकिन इसी लॉकडाउन की वजह से एक मामला ऐसा सामने आया है जिसे सुनकर आपको हैरानी होगी, और अगर आप पैरेंट्स हैं तो सतर्क भी हो जाएंगे. मामला सैन फ्रांसिस्को के एक सॉफ्टवेयर इंजीनियर का है. मार्क नाम के इस शख्स ने पिछले साल कोरोना की वजह से लगे लॉकडाउन में अपने बेटे के Groin की तस्वीरें अपने मोबाइल फोन से खींचकर डॉक्टर को भेजीं. उस समय सारे डॉक्टर ऑनलाइन ही मरीजों को देख रहे थे. 

मार्क ने अपने बेटे के Groin की तस्वीर लेकर मैसेजिंग सिस्टम के जरिए डॉक्टर को भेजा लेक‍िन इस फोटो की वजह से वो एक मुसीबत में फंस गए. Groin कूल्हों और जांघों के बीच का हिस्सा होता है. द न्यूयॉर्क टाइम्स के मुताबिक, तस्वीरों को गूगल ने बाल यौन शोषण के तौर पर मार्क कर दिया है, और अब पुलिस इसकी जांच कर रही है. अपने बेटे की तस्वीर लेने के दो दिन बाद मार्क को गूगल ने ये बताया कि उन्हें गूगल के सभी अकाउंट से बाहर किया जा रहा है. यानी गूगल ने मार्क के अपने बेटे के जननांगों की तस्वीर लेने को चाइल्ड पोर्न के तौर पर पहचाना है. 

पिता ने ली बेटे की नग्न तस्वीर

मार्क का कहना है कि उन्होंने सोचा कि 'गूगल के लिए उनके बेटे की तस्वीर चाइल्ड पोर्न हो सकती है लेकिन अब उन्हें यह उम्मीद थी कि गूगल के एल्गोरिथम लूप से अब कोई इंसान ही उनकी सुरक्षा कर सकता है.  

बता दें कि बेटे की तस्वीरों का Google क्लाउड ने बैकअप भी लिया, फिर मार्क ने डॉक्टर के सुझाए गए एंटीबायोटिक्स को सबूत के तौर पर पेश किया ताकि वो ये साबित कर सकें कि उन्होंने बेटे के इलाज के लिए इस तरह की तस्वीरें ली थी. इस सब के बावजूद Google ने बच्चे के Groin की फोटो के लिए मार्क को इस बात का दोषी ठहराया कि मार्क ने Google की नीतियों का गंभीर रूप से उल्लंघन किया है. 

गूगल ने बंद कर दिया अकाउंट

महीनों बाद मार्क को पता चला कि सैन फ्रांसिस्को पुलिस विभाग ने उसके खिलाफ मामाला दर्ज किया है. मार्क को दिसंबर 2021 में लेटर के जरिए इस बात का पता चला कि पुलिस भी इस मामले की जांच कर रही है. इस लेटर में गूगल और इंटरनेट के सर्च वारंट के भी कागजात थे. जब पूरे मामले की जांच पुलिस ने की तो पाया कि मार्क झूठ नहीं बोल रहे हैं और मार्क ने बेटे के Groin की तस्वीर लेकर कोई अपराध नहीं किया है. 

मार्क ने अधिकारियों से उनके गूगल अकाउंट को वापस दिलाने की बात कही. पुलिस ने गूगल से अपील भी की लेकिन गूगल ने मार्क का अकाउंट वापस करने से मना कर दिया.गूगल ने ये साफ कर दिया कि मार्क का अकाउंट हमेशा के लिए बंद किया जा रहा है. 

किसी भी कीमत पर माफी के लायक नहीं 

गूगल ने कहा कि मार्क के फोटोज किसी भी कीमत में माफी के लायक नहीं है, क्योंकि एक फोटो में छोटा बच्चा बिना कपड़े पहनी औरत के साथ लेटा हुआ है. इस तस्वीर के बारे में मार्क ने कहा कि ऐसी कोई फोटो उन्हें याद नहीं आ रही है. अगर गूगल को ऐसी कोई फोटो मिली भी है तो वो बस एक निजी पल हो सकता है.

टेक्सास में रहने वाले एक परिवार के साथ ऐसा ही एक मामला सामने आया था. दरअसल माता पिता ने डॉक्टर को भेजने के लिए अपने बच्चों के 'प्राइवेट पार्ट की तस्वीरें लीं. फोटो लेने के लिए माता पिता ने पुराने Android फोन का इस्तेमाल किया,और बाद में इसे डिलिट कर दिया. लेकिन गूगल बैकअप से वो फोटो फोन में वापस आ गई,  इस माता पिता के लिए ये मुद्दा उस वक्त सरदर्द बना जब वो नया घर खरीद रहे थे और ऑनलाइन दस्तावेजों पर साइन कर रहे थे तभी उनके सारे गूगल अकांउट बंद हो गए. इस मामले की जांच ह्यूस्टन पुलिस ने की और पाया कि डॉक्टर को दिखाने के लिए बच्चे की तस्वीरें ली गई थी.

क्या है गूगल की गाइडलाइन 

बता दें कि Google 2018 में जारी API AI टूलकिट का इस्तेमाल करके Google फ़ोटो पर अपलोड की गई फोटोस और वीडियो को स्कैन करता है. इस एआई को बाल यौन शोषण सामग्री (सीएसएएम) को पहचानने के लिए ही बनाया गया है. किसी भी गलत तरह की फोटोज मिलने पर गूगल इसकी जानकारी नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) को देता है, और आगे का कदम उठाया जाता है. 

Google के प्रवक्ता क्रिस्टा मुलदून ने द वर्ज को बताया कि बच्चों की सुरक्षा के लिए हमारी स्पेशल टीम दिन रात काम में लगी रहती है. ये गूगल के फोटोज को स्कैन करती है और गलत तरह की फोटोज को मार्क करती है. 2021 में Google ने NCMEC की साइबर टिपलाइन को CSAM के 621,583 मामलों की जानकारी दी, जिसमें 4,260 से ज्यादा बाल पीड़ितों को बचाया गया .