DeepMind သည် Google ၏ AI သုတေသနဌာနဖြစ်ပြီး လူ့အသိဉာဏ်ကို လုပ်ဆောင်နိုင်သော ဗဟုဗေဒနည်းပညာသိပ္ပံ (AGI) ၏ အန္တရာယ်များကို လျော့ချရန် မဟာဗျူဟာကို ဖော်ပြသော စာမျက်နှာ ၁၄၅ မျက်နှာပါစာတမ်းတစ်စောင်ကို ထုတ်ပြန်ခဲ့သည်။ စာတမ်းကို DeepMind တည်ထောင်သူ Shane Legg နှင့် အတူရေးသားခဲ့ပြီး အသုံးပြုထားသော Exceptional AGI ကို ဆယ်စုနှစ်ကုန်မတိုင်မှီ ရောက်ရှိလာမည်ဟုခန့်မှန်းထားသည်။
စာတမ်းအရ Exceptional AGI သည် လူကြီးတွေရဲ့ ထိပ်ဆုံး ၁% ၏ စွမ်းရည်များနှင့် ကိုက်ညီမှုရှိစေမည်ဟုဆိုသည်။ ဤဟာသည် လူ့အနာဂတ်ကို ခြိမ်းခြောက်နိုင်သော အန္တရာယ်များ၊ အထူးသဖြင့် မရှိမျှော်မှန်းနိုင်သော အန္တရာယ်များကို ဖြစ်စေနိုင်သည်ဟု DeepMind မှ တင်ပြနေသည်။
AGI အန္တရာယ်ကင်းရှင်းမှုအပေါ် အခြားသဘောထားများ
DeepMind သည် Anthropic နှင့် OpenAI တို့၏ လုံခြုံရေးရည်ရွယ်ချက်များကို အပြင်းထန်မဟုတ်ဘဲ သတ်မှတ်ထားသည်ဟု ဝေဖန်ကာ၊ အလိုက်သင့်မှု အလိုက်သင့်မှု အလိုက်သင့်မှု ကို အလွန်များတဲ့ အရေးပေးမှု မထားသင့်ကြောင်း အဆိုပြုထားသည်။
OpenAI သည် ယခုအခါ superintelligence ဖွံ့ဖြိုးတိုးတက်ခြင်းကို ဦးတည်နေသည်ဟု ဆိုရသော်လည်း၊ DeepMind ၏ စာရေးသူများက အထူးစနစ်များကို ဖွံ့ဖြိုးတိုးတက်မှုအတွက် အဆင့်ကို ရောက်ရှိရန် လိုအပ်သည့် အကြီးအကျယ် ပြုပြင်ပြောင်းလဲမှုများမရှိဘဲ စွမ်းဆောင်နိုင်မှုရှိကြောင်း မယုံကြည်ကြောင်း ဖော်ပြထားသည်။ သို့သော် recursive self-improvement—AI ကိုယ်တိုင်ကိုယ်တိုင် ပုံစံကို ကောင်းမွန်စေရန် ဖွံ့ဖြိုးတိုးတက်မှုကို လုပ်ဆောင်နိုင်သည်ဟု ယုံကြည်ပြီး အန္တရာယ်ရှိနိုင်သည်ဟုလည်း ဆိုသည်။
လုံခြုံရေးလမ်းကြောင်း၊ အဆင့်မြင့်ဆောင်ရွက်မှုမပြုခင်
စာတမ်းတွင် အစောပိုင်းဖြစ်သော ဖြေရှင်းချက်များကို ဖော်ပြထားသည်၊ ဥပမာ -
- AGI စနစ်များကို မကောင်းသော လူများမှ တားဆီးခြင်း
- AI ဆုံးဖြတ်ချက်များကို ပိုမိုနားလည်နိုင်ရန် ဖွင့်လင်းမှုကို မြှင့်တင်ခြင်း
- AI ကို မတော်တဆဖြစ်စေရန် အသုံးပြုရမည့် ပတ်ဝန်းကျင်များကို "မာကျော" အောင်လုပ်ခြင်း
အများစုသော နည်းလမ်းများသည် စိတ်ကူးကောက်သည့် သို့မဟုတ် အဆင့်မီသော နည်းလမ်းများဖြစ်နေသည့် အခြေအနေတွင် AI အသိုင်းအဝိုင်းအား အလေးထား၍ လုံခြုံရေး အစီအစဉ်ဆွဲရန် နောက်မကျပါစေနှင့် ဟု DeepMind သတိပေးသည်။ "AGI ကို တာဝန်ရှိစွာ တည်ဆောက်ရန်” ဟု စာရေးသူများက ဆိုသည်။ "နယ်စပ် ဖွံ့ဖြိုးသူများသည် အန္တရာယ်များကို ကြိုတင်စီစဉ်ရန် တက်ကြွစွာ စီစဉ်ရမည်။”
ပညာရှင်အသိုင်းအဝိုင်းထံမှ ပြင်းထန်သော အပြန်အလှန်
သို့သော်၊ အများစုသော ကျွမ်းကျင်သူများသည် ယုံကြည်မှုမရှိကြပါ။ Heidy Khlaaf သည် AI Now Institute ၏ အဓိက AI သိပ္ပံပညာရှင် ဖြစ်ပြီး AGI သည် တိကျစွာ အကဲဖြတ်ရန် အလွန် အထက်မြောက်သော အယူအဆဖြစ်ကြောင်း ဝေဖန်ထားသည်။
Matthew Guzdial, Alberta တက္ကသိုလ်၏ အထောက်အထားပညာရှင်လည်း recursive self-improvement အပေါ် စိုးရိမ်နေသည်။ "အချိန်လွန်စွန့်စားမှုများအတွက် အခြေခံထားသည်၊ သို့သော်၎င်းကို အလုပ်ဖြစ်တာကို ကျွန်ုပ်တို့မမြင်ခဲ့ဘူး” ဟုဆိုသည်။
အတူတူပင် Sandra Wachter သည် Oxford တက္ကသိုလ်မှ ယခုအခါအရေးကြီးသော ပြဿနာကို ထောက်ပြထားသည်။ AI မော်ဒယ်များသည် မမှန်ကန်သည့် သို့မဟုတ် အကြားအရေအတွက်များမှ သင်ယူခြင်း။ "AI သည် သူ့မိမိမှားသောအချက်များကို ပြန်လည်ခွင့်ပြုနေပြီ” ဟု သတိပေးထားသည်။ "ဒါက အရေးကြီးသော လုံခြုံရေးပြဿနာဖြစ်သည်။"
ဆွေးနွေးမှုအဆက်မပြတ်
DeepMind ၏ ထုတ်ပြန်ချက်သည် ယခုအချိန်အထိ အသေးစိတ်ပါသော လမ်းကြောင်းများထဲမှ တစ်ခုဖြစ်သော်လည်း၊ သဘောထားပြောင်းလဲမှုမရှိနိုင်ပါ။ AGI ၏ ကျင့်သုံးနိုင်ခြေ၊ အချိန်ဇယားနှင့် အန္တရာယ်ကို ခန့်မှန်းမရတာ သဘောတူညီမှု မရှိသေးပါ။ နည်းပညာ၏ အရေးကြီးဆုံး နယ်ပယ်တစ်ခုတွင် မြန်ဆန်သော တိုးတက်မှုကို သတိထား၍ ထိန်းသိမ်းရမည့်အကြောင်း မေးခွန်းကို ဖြေရှင်းဖို့ ကောင်းကောင်းလုပ်ရပါမည်။