scorecardresearch

DeepMind: गूगल डीपमाइंड की चेतावनी! 2030 तक आ सकता है इंसानों जैसा AI, सही तरीके से नियंत्रित नहीं किया गया तो खत्म कर देगा मानवता

 Artificial General Intelligence:  डीपमाइंड की नई रिपोर्ट के मुताबिक साल 2030 तक इंसानों जैसी सोचने-समझने वाली AGI यानी आर्टिफिशियल जनरल इंटेलिजेंस विकसित हो सकती है. AGI का विकास या तो सुनहरे भविष्य का द्वार खोल सकता है या फिर मानव अस्तित्व के लिए संकट बन सकता है. 

 Artificial General Intelligence ( Symbolic Photo)  Artificial General Intelligence ( Symbolic Photo)
हाइलाइट्स
  • साल 2030 तक इंसानों जैसी सोचने-समझने वाली AGI हो सकती है विकसित 

  • यह तकनीक सही दिशा में नहीं गई तो इसके परिणाम हो सकते हैं मानवता के पूर्ण विनाश जैसे 

इस समय आर्टिफिशियल इंटेलिजेंस (AI) की हर तरफ चर्चा हो रही है. इसका इस्तेमाल जोर-शोर से किया जा रहा है. लोग इसके तमाम तरह के फायदे बता रहे हैं लेकिन इसी बीच गूगल की एआई रिसर्च यूनिट डीपमाइंड (DeepMind) ने एक डराने वाली बात कही है. डीपमाइंड का कहना है कि भविष्य इंसानों जैसा एआई आ सकता है. इसे सही तरीके से नियंत्रित नहीं किया गया तो यह पूरी मानवता को खत्म कर देगा. यह बात डीपमाइंड के नए रिसर्च पेपर में कही गई है.

आर्टिफिशियल जनरल इंटेलिजेंस हो सकती है विकसित
डीपमाइंड ने अपनी नई रिपोर्ट में चेतावनी दी है कि साल 2030 तक इंसानों जैसी सोचने-समझने वाली आर्टिफिशियल जनरल इंटेलिजेंस (AGI) विकसित हो सकती है. डीपमाइंड ने 145 पेज की अपनी रिपोर्ट में बताया है कि यदि यह तकनीक सही दिशा में नहीं गई तो इसके परिणाम मानवता के पूर्ण विनाश जैसे हो सकते हैं. ऐसा न हो इसके लिए वैश्विक स्तर पर नियमों की जरूरत है.  हालांकि रिपोर्ट में यह नहीं बताया गया कि है Artificial General Intelligence कैसे मानवता को खत्म कर सकती है लेकिन इसमें उन उपायों पर जोर दिया गया है जो AGI के खतरों को कम कर सकते हैं. 

क्या है AGI 
आम AI जहां किसी विशेष कार्य में दक्ष होती है, वहीं AGI वह तकनीक होगी जो मनुष्यों की तरह सोच, समझ, सीख और निर्णय ले सकेगी. यह किसी एक काम तक सीमित नहीं होगी, बल्कि हर क्षेत्र में इंसानों जैसी क्षमता रखेगी.

सम्बंधित ख़बरें

चार तरह के प्रमुख खतरे 
1. दुरुपयोग: जब कोई व्यक्ति या संस्था जानबूझकर AI का इस्तेमाल दूसरों को हानि पहुंचाने के लिए करे.
2. मूल्य असंतुलन: जब एआई के उद्देश्यों और मानव मूल्यों के बीच सामंजस्य न हो.
3. गलतियां: जब एआई सिस्टम अनजाने में गलत निर्णय लेने लगे. नुकसानदायक व्यवहार करने लगे. ऐसा होने पर व्यापक हानि पहुंचा सकते हैं.
4. संरचनात्मक खतरे: AI के विकास के सामाजिक और वैश्विक ढांचे पर पड़ने वाले दुष्परिणाम. जब देशी कंपनियों या एआई सिस्टम्स के बीच टकराव हो.
5. इन सभी जोखिमों से निपटने के लिए डीपमाइंड ने एक व्यापक जोखिम शमन रणनीति अपनाने की बात कही है, जिसमें AI के दुरुपयोग को रोकना सबसे प्रमुख है.
6. डीपमाइंड का मानना है कि एजीआई के खतरे को नियंत्रित करने के लिए अभी से तैयारी जरूरी है, ताकि यह मानवता के लिए फायदेमंद साबित हो.

डीपमाइंड सीईओ ने दिए ये सुझाव
डीपमाइंड के सीईओ डेमिस हासाबिस ने इसी साल फरवरी में कहा था कि एजीआई अगले 5 से 10 सालों में आ सकती है. उन्होंने कहा कि एजीआई के खतरों को रोकने के लिए नियम जरूरी है. उन्होंने सुझाव दिया कि एजीआई के विकास और नियंत्रण के लिए एक संयुक्त राष्ट्र जैसे अंतरराष्ट्रीय संगठन की जरूरत है. उन्होंने कहा कि सर्न(CERN) जैसी वैश्विक रिसर्च संस्था, जो एजीआई के विकास को सुरक्षित बनाए. एक UN जैसी सुपरवाइजरी बॉडी हो, जो एजीआई के प्रयोग और नियंत्रण पर नीति बनाए. उधर, न्यूयॉर्क यूनिवर्सिटी के प्रोफेसर गैरी मार्कस जैसे विशेषज्ञों का मानना है कि मौजूदा एआई तकनीकें इंसानों जैसी बुद्धिमत्ता हासिल नहीं कर सकतीं.