DeepMind ၏ စာရွက်လမ်းညွှန်သည် AGI က ဖန်တီးနိုင်သော အန္တရာယ်များကို လျော့နည်းစေရန် ရည်ရွယ်သည်

DeepMind ၏ စာရွက်လမ်းညွှန်သည် AGI က ဖန်တီးနိုင်သော အန္တရာယ်များကို လျော့နည်းစေရန် ရည်ရွယ်သည်
  • ထုတ်ဝေထားသည်: 2025/04/03

DeepMind သည် Google ၏ AI သုတေသနဌာနဖြစ်ပြီး လူ့အသိဉာဏ်ကို လုပ်ဆောင်နိုင်သော ဗဟုဗေဒနည်းပညာသိပ္ပံ (AGI) ၏ အန္တရာယ်များကို လျော့ချရန် မဟာဗျူဟာကို ဖော်ပြသော စာမျက်နှာ ၁၄၅ မျက်နှာပါစာတမ်းတစ်စောင်ကို ထုတ်ပြန်ခဲ့သည်။ စာတမ်းကို DeepMind တည်ထောင်သူ Shane Legg နှင့် အတူရေးသားခဲ့ပြီး အသုံးပြုထားသော Exceptional AGI ကို ဆယ်စုနှစ်ကုန်မတိုင်မှီ ရောက်ရှိလာမည်ဟုခန့်မှန်းထားသည်။

စာတမ်းအရ Exceptional AGI သည် လူကြီးတွေရဲ့ ထိပ်ဆုံး ၁% ၏ စွမ်းရည်များနှင့် ကိုက်ညီမှုရှိစေမည်ဟုဆိုသည်။ ဤဟာသည် လူ့အနာဂတ်ကို ခြိမ်းခြောက်နိုင်သော အန္တရာယ်များ၊ အထူးသဖြင့် မရှိမျှော်မှန်းနိုင်သော အန္တရာယ်များကို ဖြစ်စေနိုင်သည်ဟု DeepMind မှ တင်ပြနေသည်။

AGI အန္တရာယ်ကင်းရှင်းမှုအပေါ် အခြားသဘောထားများ

DeepMind သည် Anthropic နှင့် OpenAI တို့၏ လုံခြုံရေးရည်ရွယ်ချက်များကို အပြင်းထန်မဟုတ်ဘဲ သတ်မှတ်ထားသည်ဟု ဝေဖန်ကာ၊ အလိုက်သင့်မှု အလိုက်သင့်မှု အလိုက်သင့်မှု ကို အလွန်များတဲ့ အရေးပေးမှု မထားသင့်ကြောင်း အဆိုပြုထားသည်။

OpenAI သည် ယခုအခါ superintelligence ဖွံ့ဖြိုးတိုးတက်ခြင်းကို ဦးတည်နေသည်ဟု ဆိုရသော်လည်း၊ DeepMind ၏ စာရေးသူများက အထူးစနစ်များကို ဖွံ့ဖြိုးတိုးတက်မှုအတွက် အဆင့်ကို ရောက်ရှိရန် လိုအပ်သည့် အကြီးအကျယ် ပြုပြင်ပြောင်းလဲမှုများမရှိဘဲ စွမ်းဆောင်နိုင်မှုရှိကြောင်း မယုံကြည်ကြောင်း ဖော်ပြထားသည်။ သို့သော် recursive self-improvement—AI ကိုယ်တိုင်ကိုယ်တိုင် ပုံစံကို ကောင်းမွန်စေရန် ဖွံ့ဖြိုးတိုးတက်မှုကို လုပ်ဆောင်နိုင်သည်ဟု ယုံကြည်ပြီး အန္တရာယ်ရှိနိုင်သည်ဟုလည်း ဆိုသည်။

လုံခြုံရေးလမ်းကြောင်း၊ အဆင့်မြင့်ဆောင်ရွက်မှုမပြုခင်

စာတမ်းတွင် အစောပိုင်းဖြစ်သော ဖြေရှင်းချက်များကို ဖော်ပြထားသည်၊ ဥပမာ -

  • AGI စနစ်များကို မကောင်းသော လူများမှ တားဆီးခြင်း
  • AI ဆုံးဖြတ်ချက်များကို ပိုမိုနားလည်နိုင်ရန် ဖွင့်လင်းမှုကို မြှင့်တင်ခြင်း
  • AI ကို မတော်တဆဖြစ်စေရန် အသုံးပြုရမည့် ပတ်ဝန်းကျင်များကို "မာကျော" အောင်လုပ်ခြင်း

အများစုသော နည်းလမ်းများသည် စိတ်ကူးကောက်သည့် သို့မဟုတ် အဆင့်မီသော နည်းလမ်းများဖြစ်နေသည့် အခြေအနေတွင် AI အသိုင်းအဝိုင်းအား အလေးထား၍ လုံခြုံရေး အစီအစဉ်ဆွဲရန် နောက်မကျပါစေနှင့် ဟု DeepMind သတိပေးသည်။ "AGI ကို တာဝန်ရှိစွာ တည်ဆောက်ရန်” ဟု စာရေးသူများက ဆိုသည်။ "နယ်စပ် ဖွံ့ဖြိုးသူများသည် အန္တရာယ်များကို ကြိုတင်စီစဉ်ရန် တက်ကြွစွာ စီစဉ်ရမည်။”

ပညာရှင်အသိုင်းအဝိုင်းထံမှ ပြင်းထန်သော အပြန်အလှန်

သို့သော်၊ အများစုသော ကျွမ်းကျင်သူများသည် ယုံကြည်မှုမရှိကြပါ။ Heidy Khlaaf သည် AI Now Institute ၏ အဓိက AI သိပ္ပံပညာရှင် ဖြစ်ပြီး AGI သည် တိကျစွာ အကဲဖြတ်ရန် အလွန် အထက်မြောက်သော အယူအဆဖြစ်ကြောင်း ဝေဖန်ထားသည်။

Matthew Guzdial, Alberta တက္ကသိုလ်၏ အထောက်အထားပညာရှင်လည်း recursive self-improvement အပေါ် စိုးရိမ်နေသည်။ "အချိန်လွန်စွန့်စားမှုများအတွက် အခြေခံထားသည်၊ သို့သော်၎င်းကို အလုပ်ဖြစ်တာကို ကျွန်ုပ်တို့မမြင်ခဲ့ဘူး” ဟုဆိုသည်။

အတူတူပင် Sandra Wachter သည် Oxford တက္ကသိုလ်မှ ယခုအခါအရေးကြီးသော ပြဿနာကို ထောက်ပြထားသည်။ AI မော်ဒယ်များသည် မမှန်ကန်သည့် သို့မဟုတ် အကြားအရေအတွက်များမှ သင်ယူခြင်း။ "AI သည် သူ့မိမိမှားသောအချက်များကို ပြန်လည်ခွင့်ပြုနေပြီ” ဟု သတိပေးထားသည်။ "ဒါက အရေးကြီးသော လုံခြုံရေးပြဿနာဖြစ်သည်။"

ဆွေးနွေးမှုအဆက်မပြတ်

DeepMind ၏ ထုတ်ပြန်ချက်သည် ယခုအချိန်အထိ အသေးစိတ်ပါသော လမ်းကြောင်းများထဲမှ တစ်ခုဖြစ်သော်လည်း၊ သဘောထားပြောင်းလဲမှုမရှိနိုင်ပါ။ AGI ၏ ကျင့်သုံးနိုင်ခြေ၊ အချိန်ဇယားနှင့် အန္တရာယ်ကို ခန့်မှန်းမရတာ သဘောတူညီမှု မရှိသေးပါ။ နည်းပညာ၏ အရေးကြီးဆုံး နယ်ပယ်တစ်ခုတွင် မြန်ဆန်သော တိုးတက်မှုကို သတိထား၍ ထိန်းသိမ်းရမည့်အကြောင်း မေးခွန်းကို ဖြေရှင်းဖို့ ကောင်းကောင်းလုပ်ရပါမည်။

CLAILA ကို အသုံးပြုရန်ဖြင့် နေ့စဉ် အချိန်အတော်များများကို ရှည်လျားသောအကြောင်းအရာများ ဖန်တီးရာတွင် သိမ်းဆည်းနိုင်ပါသည်။

အခမဲ့ စတင်အသုံးပြုပါ