
इस समय आर्टिफिशियल इंटेलिजेंस (AI) की हर तरफ चर्चा हो रही है. इसका इस्तेमाल जोर-शोर से किया जा रहा है. लोग इसके तमाम तरह के फायदे बता रहे हैं लेकिन इसी बीच गूगल की एआई रिसर्च यूनिट डीपमाइंड (DeepMind) ने एक डराने वाली बात कही है. डीपमाइंड का कहना है कि भविष्य इंसानों जैसा एआई आ सकता है. इसे सही तरीके से नियंत्रित नहीं किया गया तो यह पूरी मानवता को खत्म कर देगा. यह बात डीपमाइंड के नए रिसर्च पेपर में कही गई है.
आर्टिफिशियल जनरल इंटेलिजेंस हो सकती है विकसित
डीपमाइंड ने अपनी नई रिपोर्ट में चेतावनी दी है कि साल 2030 तक इंसानों जैसी सोचने-समझने वाली आर्टिफिशियल जनरल इंटेलिजेंस (AGI) विकसित हो सकती है. डीपमाइंड ने 145 पेज की अपनी रिपोर्ट में बताया है कि यदि यह तकनीक सही दिशा में नहीं गई तो इसके परिणाम मानवता के पूर्ण विनाश जैसे हो सकते हैं. ऐसा न हो इसके लिए वैश्विक स्तर पर नियमों की जरूरत है. हालांकि रिपोर्ट में यह नहीं बताया गया कि है Artificial General Intelligence कैसे मानवता को खत्म कर सकती है लेकिन इसमें उन उपायों पर जोर दिया गया है जो AGI के खतरों को कम कर सकते हैं.
क्या है AGI
आम AI जहां किसी विशेष कार्य में दक्ष होती है, वहीं AGI वह तकनीक होगी जो मनुष्यों की तरह सोच, समझ, सीख और निर्णय ले सकेगी. यह किसी एक काम तक सीमित नहीं होगी, बल्कि हर क्षेत्र में इंसानों जैसी क्षमता रखेगी.
चार तरह के प्रमुख खतरे
1. दुरुपयोग: जब कोई व्यक्ति या संस्था जानबूझकर AI का इस्तेमाल दूसरों को हानि पहुंचाने के लिए करे.
2. मूल्य असंतुलन: जब एआई के उद्देश्यों और मानव मूल्यों के बीच सामंजस्य न हो.
3. गलतियां: जब एआई सिस्टम अनजाने में गलत निर्णय लेने लगे. नुकसानदायक व्यवहार करने लगे. ऐसा होने पर व्यापक हानि पहुंचा सकते हैं.
4. संरचनात्मक खतरे: AI के विकास के सामाजिक और वैश्विक ढांचे पर पड़ने वाले दुष्परिणाम. जब देशी कंपनियों या एआई सिस्टम्स के बीच टकराव हो.
5. इन सभी जोखिमों से निपटने के लिए डीपमाइंड ने एक व्यापक जोखिम शमन रणनीति अपनाने की बात कही है, जिसमें AI के दुरुपयोग को रोकना सबसे प्रमुख है.
6. डीपमाइंड का मानना है कि एजीआई के खतरे को नियंत्रित करने के लिए अभी से तैयारी जरूरी है, ताकि यह मानवता के लिए फायदेमंद साबित हो.
डीपमाइंड सीईओ ने दिए ये सुझाव
डीपमाइंड के सीईओ डेमिस हासाबिस ने इसी साल फरवरी में कहा था कि एजीआई अगले 5 से 10 सालों में आ सकती है. उन्होंने कहा कि एजीआई के खतरों को रोकने के लिए नियम जरूरी है. उन्होंने सुझाव दिया कि एजीआई के विकास और नियंत्रण के लिए एक संयुक्त राष्ट्र जैसे अंतरराष्ट्रीय संगठन की जरूरत है. उन्होंने कहा कि सर्न(CERN) जैसी वैश्विक रिसर्च संस्था, जो एजीआई के विकास को सुरक्षित बनाए. एक UN जैसी सुपरवाइजरी बॉडी हो, जो एजीआई के प्रयोग और नियंत्रण पर नीति बनाए. उधर, न्यूयॉर्क यूनिवर्सिटी के प्रोफेसर गैरी मार्कस जैसे विशेषज्ञों का मानना है कि मौजूदा एआई तकनीकें इंसानों जैसी बुद्धिमत्ता हासिल नहीं कर सकतीं.