DeepMind, „Google“ dirbtinio intelekto tyrimų laboratorija, išleido išsamų 145 puslapių dokumentą, kuriame aprašoma strategija, kaip sumažinti galimas Bendrojo dirbtinio intelekto (AGI) – dirbtinio intelekto, galinčio atlikti bet kokią intelektinę užduotį, kurią gali atlikti žmogus, – pavojai. Dokumentą, kurio bendraautorius yra „DeepMind“ įkūrėjas Shane Legg, prognozuojamas vadinamojo Išskirtinio AGI atėjimas iki dešimtmečio pabaigos.
Pagal ataskaitą, Išskirtinis AGI atitiktų 1% geriausių suaugusių žmonių gebėjimus įvairiose kognityvinėse užduotyse, įskaitant tas, kurioms reikalingi metakognityviniai gebėjimai. „DeepMind“ teigia, kad tokio pobūdžio intelektas gali atnešti transformacinių visuomeninių naudų, bet taip pat ir sunkių žalingų padarinių, įskaitant egzistencines rizikas, kurios galėtų kelti grėsmę žmonijos ateičiai.
Prieštaringos filosofijos dėl AGI saugumo
„DeepMind“ savo požiūrį pristato kaip labiau pagrįstą, nei konkurentų, tokių kaip Anthropic ir OpenAI, kritikuodama juos už tai, kad arba nuvertina tvirtas saugumo priemones, arba per daug akcentuoja automatinio suderinimo tyrimus.
Nors pranešama, kad „OpenAI“ dabar koncentruojasi į superintelekto kūrimą, „DeepMind“ autoriai skeptiškai vertina tokių sistemų trumpalaikį gyvybingumą be didelių architektūrinių proveržių. Tačiau jie laiko rekursinį savęs tobulinimą – AI, kuris tobulina savo dizainą per tyrimus – įmanomu ir potencialiai pavojingu.
Dar kuriamas saugumo planas
Aukštu lygmeniu, dokumente išdėstomos kelios ankstyvojo etapo sprendimų kryptys, tokios kaip:
- AGI sistemų prieigos blokavimas kenkėjiškiems veikėjams
- Interpretacijos gerinimas siekiant geriau suprasti AI sprendimų priėmimą
- Aplinkų, kuriose diegiamas AI, „sustiprinimas“, siekiant užkirsti kelią piktnaudžiavimui
Nepaisant to, kad daugelis technikų vis dar lieka teorinės arba nesubrendusios, „DeepMind“ ragina AI bendruomenę nedelsiant imtis rimto saugumo planavimo. „Norint atsakingai kurti AGI,“ teigia autoriai, „sienos kūrėjai turi aktyviai planuoti, kaip sumažinti sunkius pavojus.“
Atsakas iš akademinės bendruomenės
Vis dėlto ne visi ekspertai yra įtikinti. Heidy Khlaaf, pagrindinė AI mokslininkė AI Now Institute, kritikavo dokumento rėmimąsi, teigdama, kad AGI yra per daug neaiški sąvoka, kad ją būtų galima griežtai vertinti.
Matthew Guzdial, Albertos universiteto asistentas profesorius, taip pat išreiškė abejones dėl rekursinio tobulinimo. „Tai yra singuliarumo argumentų pagrindas, bet mes niekada nematėme jokių įrodymų, kad tai veikia,” sakė jis.
Tuo tarpu Sandra Wachter iš Oksfordo universiteto pabrėžė labiau neatidėliotiną rūpestį: generatyviniai AI modeliai mokosi iš netikslių arba klaidingų duomenų. „Mes jau matome, kaip AI stiprina savo klaidas,” ji įspėjo. „Tai yra reikšmingas saugumo klausimas.”
Diskusijos tęsiasi
Nors „DeepMind“ publikacija yra viena iš detaliausių iki šiol pateiktų planų, ji gali neatnešti konsensuso. Diskusijos dėl AGI įgyvendinamumo, laiko horizonto ir rizikos profilio tęsiasi, paliekant atvirą klausimą, kaip geriausiai derinti spartų progresą su apdairumu viename iš technologijos aukščiausios svarbos sričių.