डीपमाइंड का ढांचा एजीआई द्वारा उत्पन्न महत्वपूर्ण जोखिमों को कम करने का लक्ष्य रखता है

डीपमाइंड का ढांचा एजीआई द्वारा उत्पन्न महत्वपूर्ण जोखिमों को कम करने का लक्ष्य रखता है
  • प्रकाशित: 2025/04/03

DeepMind, Google की AI अनुसंधान प्रयोगशाला, ने 145-पृष्ठों का एक व्यापक पेपर जारी किया है जिसमें आर्टिफिशियल जनरल इंटेलिजेंस (AGI)—AI जो किसी भी बौद्धिक कार्य को कर सकता है जो एक मनुष्य कर सकता है—के संभावित खतरों को कम करने की अपनी रणनीति का विवरण दिया गया है। इस पेपर का सह-लेखन DeepMind के सह-संस्थापक शेन लेग ने किया है, जो दशक के अंत से पहले असाधारण AGI के आगमन की भविष्यवाणी करता है।

रिपोर्ट के अनुसार, असाधारण AGI, मानव वयस्कों के शीर्ष 1% की क्षमताओं के समान होगा, जिसमें उन कार्यों को शामिल किया जाएगा जो मेटाकॉग्निटिव क्षमताओं की आवश्यकता होती है। DeepMind का तर्क है कि इस प्रकार की बुद्धि समाज में परिवर्तनकारी लाभ ला सकती है, लेकिन साथ ही गंभीर हानियां भी, जिसमें मानवता के भविष्य को खतरे में डालने वाले अस्तित्वगत जोखिम शामिल हैं।

AGI सुरक्षा पर विरोधाभासी दर्शन

DeepMind अपनी दृष्टिकोण को प्रतिद्वंद्वियों जैसे Anthropic और OpenAI की तुलना में अधिक आधारित बताता है, और उन पर आलोचना करता है कि वे या तो मजबूत सुरक्षा उपायों को कम आंकते हैं या स्वचालित संरेखण अनुसंधान को अधिक महत्व देते हैं।

जहां OpenAI अब कथित तौर पर सुपरइंटेलिजेंस के विकास पर ध्यान केंद्रित कर रहा है, DeepMind के लेखक बिना प्रमुख वास्तुकला में प्रगति के ऐसे सिस्टम की अल्पकालिक व्यवहार्यता के बारे में संदेह व्यक्त करते हैं। हालांकि, वे पुनरावृत्त आत्म-सुधार—AI द्वारा अनुसंधान के माध्यम से अपने डिज़ाइन में सुधार को संभव और संभावित रूप से खतरनाक मानते हैं।

सुरक्षा रोडमैप, अभी भी निर्माणाधीन

उच्च स्तर पर, पेपर कई प्रारंभिक चरण के समाधान रेखांकित करता है, जैसे:

  • दुर्भावनापूर्ण अभिनेताओं द्वारा AGI सिस्टम की पहुंच को रोकना
  • AI निर्णय लेने को बेहतर ढंग से समझने के लिए व्याख्यात्मकता को बढ़ाना
  • AI को गलत उपयोग से बचाने के लिए तैनात वातावरण को "मजबूत" करना

हालांकि यह स्वीकार करते हुए कि कई तकनीकें अभी भी सैद्धांतिक या अपरिपक्व हैं, DeepMind AI समुदाय से गंभीर सुरक्षा योजना में देरी न करने का आग्रह करता है। "AGI को जिम्मेदारी से बनाने के लिए," लेखक तर्क देते हैं, "सीमा रेखा के डेवलपर्स को गंभीर हानियों को कम करने के लिए सक्रिय रूप से योजना बनानी चाहिए।"

शैक्षणिक समुदाय से प्रतिरोध

हालांकि, सभी विशेषज्ञ सहमत नहीं हैं। Heidy Khlaaf, AI Now Institute में मुख्य AI वैज्ञानिक, ने पेपर के फ्रेमिंग की आलोचना की, यह सुझाव देते हुए कि AGI एक बहुत ही अस्पष्ट अवधारणा है जिसे कठोरता से मूल्यांकन नहीं किया जा सकता।

Matthew Guzdial, यूनिवर्सिटी ऑफ अल्बर्टा में सहायक प्रोफेसर, ने भी पुनरावृत्त सुधार के बारे में संदेह व्यक्त किया। "यह विशिष्टता तर्कों का आधार है, लेकिन हमने कभी इसके काम करने का कोई सबूत नहीं देखा है," उन्होंने कहा।

इस बीच, ऑक्सफोर्ड यूनिवर्सिटी की Sandra Wachter ने एक अधिक तात्कालिक चिंता को उजागर किया: गलत या कल्पित डेटा से सीख रहे जनरेटिव AI मॉडल। "हम पहले से ही देख रहे हैं कि AI अपनी गलतियों को सुदृढ़ कर रहा है," उन्होंने चेतावनी दी। "यह एक महत्वपूर्ण सुरक्षा मुद्दा है।"

बहस जारी है

हालांकि DeepMind का प्रकाशन अब तक के सबसे विस्तृत रोडमैप में से एक है, यह शायद सहमति नहीं ला पाएगा। AGI की व्यवहार्यता, समय सीमा, और जोखिम प्रोफ़ाइल के बारे में असहमति बनी हुई है—इस सवाल को खुला छोड़ते हुए कि प्रौद्योगिकी के सबसे उच्च-दांव वाले क्षेत्रों में तेजी से प्रगति और सावधानी को कैसे संतुलित किया जाए।

CLAILA का उपयोग करके आप हर सप्ताह लंबी सामग्री बनाने में घंटों की बचत कर सकते हैं।

नि:शुल्क शुरू करें