DeepMind, Google'i tehisintellekti uurimislabor, on avaldanud ulatusliku 145-leheküljelise dokumendi, mis kirjeldab strateegiat üldise tehisintellekti (AGI)—tehisintellekti, mis suudab täita mis tahes intellektuaalset ülesannet, mida inimene suudab—potentsiaalsete ohtude vähendamiseks. Dokument, mille kaasautoriks on DeepMindi kaasasutaja Shane Legg, ennustab, et Erakordne AGI saabub enne aastakümne lõppu.
Raporti kohaselt vastaks Erakordne AGI inimeste täiskasvanute 1% parimate võimete tasemele laias valikus kognitiivsetes ülesannetes, sealhulgas neis, mis nõuavad metakognitiivseid võimeid. DeepMind väidab, et selline intelligentsus võib tuua kaasa ühiskondlikke muutusi, kuid ka tõsiseid kahjusid—sealhulgas eksistentsiaalseid riske, mis võivad ohustada inimkonna tulevikku.
Erinevad filosoofiad AGI turvalisuse osas
DeepMind positsioneerib oma lähenemisviisi kui rohkem maandatud kui konkurendid nagu Anthropic ja OpenAI, kritiseerides neid kas tugevate turvameetmete alahindamise või automaatse joondamise uurimistöö ülehindamise eest.
Kuigi OpenAI keskendub väidetavalt nüüd üliintelligentsuse arendamisele, väljendavad DeepMindi autorid skepsist selliste süsteemide lühiajalise teostatavuse üle ilma suuremate arhitektuuriliste läbimurrete saavutamiseta. Samas leiavad nad, et rekursiivne eneseparandamine—tehisintellekti enda disaini parandamine uurimistöö kaudu—on usutav ja potentsiaalselt ohtlik.
Turvalisuse tegevuskava, mis on veel väljatöötamisel
Kõrgel tasemel kirjeldab dokument mitmeid varajaste staadiumite lahendusi, nagu näiteks:
- Pahatahtlike osalejate juurdepääsu blokeerimine AGI süsteemidele
- Tõlgendatavuse parandamine, et paremini mõista AI otsuste tegemist
- AI kasutuselevõtu keskkondade "kõvendamine", et vältida väärkasutust
Hoolimata sellest, et paljud tehnikad jäävad teoreetiliseks või ebaküpseks, kutsub DeepMind AI kogukonda üles mitte viivitama tõsise turvalisuse kavandamisega. "AGI vastutustundlikuks loomiseks,” väidavad autorid, “peavad piiride arendajad proaktiivselt planeerima raskete kahjude leevendamiseks.”
Akadeemilise kogukonna vastuseis
Kuid mitte kõik eksperdid pole veendunud. Heidy Khlaaf, AI Now Instituudi tehisintellekti peateadlane, kritiseeris dokumendi raamistikku, viidates, et AGI on liiga ebamäärane mõiste, et seda rangelt hinnata.
Matthew Guzdial, Alberta ülikooli abiprofessor, väljendas samuti kahtlusi rekursiivse parendamise osas. "See on singulaarsuse argumentide alus, kuid me pole kunagi näinud mingeid tõendeid selle toimimise kohta,” ütles ta.
Samal ajal tõi Sandra Wachter Oxfordi ülikoolist esile vahetuma mure: generatiivsed AI mudelid, mis õpivad ebatäpsest või hallutsinatsioonidest lähtuvast andmestikust. "Me näeme juba, kuidas AI tugevdab oma vigu,” hoiatas ta. "See on märkimisväärne turvalisuse probleem.”
Arutelu jätkub
Kuigi DeepMindi väljaanne on seni üksikasjalikumaid tegevuskavasid, ei pruugi see tuua konsensust. Lahkarvamused AGI teostatavuse, ajakava ja riskiprofiili osas püsivad—jättes lahtiseks küsimuse, kuidas kõige paremini tasakaalustada kiiret arengut ettevaatlikkusega ühes tehnoloogia kõige suurema panusega valdkonnas.