DeepMind, ang research lab ng AI ng Google, ay naglabas ng isang malawak na 145-pahinang papel na naglalarawan ng kanilang estratehiya para bawasan ang mga potensyal na panganib ng Artificial General Intelligence (AGI)—AI na may kakayahang magsagawa ng anumang intelektwal na gawain na kaya ng tao. Ang papel, na co-authored ni Shane Legg, co-founder ng DeepMind, ay nagkikita ng pagdating ng tinatawag nitong Exceptional AGI bago matapos ang dekada.
Ayon sa ulat, ang Exceptional AGI ay tutumbasan ang kakayahan ng nangungunang 1% ng mga adultong tao sa iba't ibang kognitibong gawain, kasama na ang mga nangangailangan ng metakognitibong kakayahan. Ang DeepMind ay nag-aargumento na ang ganitong uri ng intelihensiya ay maaaring magdala ng mga transformasyong benepisyo sa lipunan, ngunit pati na rin ng matinding panganib—kabilang ang mga existential na panganib na maaaring magbanta sa kinabukasan ng sangkatauhan.
Magkakaibang Pilosopiya sa AGI Safety
Ipinoposisyon ng DeepMind ang kanilang approach bilang mas nakaugat kumpara sa mga kakumpitensya tulad ng Anthropic at OpenAI, na kritikal sa mga ito dahil sa alinman sa pagpapababa ng kahalagahan ng matibay na mga hakbang sa seguridad o sobrang pagbibigay-diin sa automated alignment research.
Habang ang OpenAI ay sinasabing ngayon ay nagtuon sa pag-develop ng superintelligence, ang mga may-akda ng DeepMind ay nagpapahayag ng pagdududa tungkol sa maikling-panahong posibilidad ng gayong mga sistema nang walang mga pangunahing tagumpay sa arkitektura. Gayunpaman, nakikita nila ang recursive self-improvement—AI na pinapahusay ang sariling disenyo sa pamamagitan ng pananaliksik—bilang posible at potensyal na mapanganib.
Isang Roadmap sa Kaligtasan, Patuloy na Binubuo
Sa mataas na antas, inilalarawan ng papel ang ilang mga solusyong nasa unang yugto, tulad ng:
- Pagharang sa access sa mga sistema ng AGI ng mga malisyosong aktor
- Pagpapahusay ng interpretability upang mas maunawaan ang paggawa ng desisyon ng AI
- "Pagtitibay" ng mga kapaligiran kung saan idinedeploy ang AI upang maiwasan ang maling paggamit
Sa kabila ng pagkilala na marami sa mga teknikal ay nananatiling teoretikal o hindi pa ganap, hinihimok ng DeepMind ang AI community na huwag ipagpaliban ang seryosong pagpaplano para sa kaligtasan. "Upang makabuo ng AGI nang responsable,” ayon sa mga may-akda, "ang mga frontier developer ay dapat aktibong magplano upang mabawasan ang matitinding panganib.”
Pagtutol Mula sa Komunidad ng Akademya
Gayunpaman, hindi lahat ng eksperto ay kumbinsido. Heidy Khlaaf, punong AI scientist sa AI Now Institute, ay bumatikos sa framing ng papel, na nagmumungkahi na ang AGI ay masyadong malabong konsepto para masuri nang mahigpit.
Matthew Guzdial, assistant professor sa University of Alberta, ay nagpahayag din ng pagdududa tungkol sa recursive improvement. "Ito ang batayan para sa mga singularity arguments, ngunit hindi pa natin nakikita ang anumang ebidensya na ito ay gumagana," aniya.
Samantala, binigyang-diin ni Sandra Wachter ng Oxford University ang mas agarang alalahanin: ang mga generative AI models na natututo mula sa hindi tumpak o imbentong data. "Nakikita na natin na ang AI ay pinapalakas ang sarili nitong mga pagkakamali," babala niya. "Iyon ay isang makabuluhang isyu sa kaligtasan.”
Nagpapatuloy ang Debate
Habang ang publikasyon ng DeepMind ay kabilang sa mga pinaka-detalyadong roadmap sa kasalukuyan, maaaring hindi ito magdala ng pagkakaisa. Ang mga hindi pagkakaunawaan tungkol sa kakayahan, timeline, at profile ng panganib ng AGI ay nagpapatuloy—na iniiwan ang tanong kung paano pinakamahusay na balansehin ang mabilis na pag-unlad sa pagiging maingat sa isa sa mga pinaka-mataas na panganib na larangan ng teknolohiya.