Kerangka kerja DeepMind ngarahake kanggo nyuda risiko sing signifikan sing disebabake dening AGI

Kerangka kerja DeepMind ngarahake kanggo nyuda risiko sing signifikan sing disebabake dening AGI
  • Diterbitaké: 2025/04/03

DeepMind, lab riset AI saka Google, wis nerbitake makalah 145 kaca sing ngrembaka strategi kanggo ngurangi bebaya Artificial General Intelligence (AGI)—AI sing bisa nindakake tugas intelektual apa wae sing bisa ditindakake manungsa. Makalah iki, ditulis bareng dening salah siji pangadeg DeepMind Shane Legg, ngarepake kedatangan apa sing diarani Exceptional AGI sadurunge akhir dekade iki.

Miturut laporan, Exceptional AGI bakal cocog karo kemampuan 1% paling apik saka wong diwasa ing macem-macem tugas kognitif, kalebu sing mbutuhake kemampuan metakognitif. DeepMind ngandhakake yen jinis intelijen iki bisa nggawa manfaat sosial transformatif, nanging uga bebaya gedhe—kalebu risiko eksistensial sing bisa ngancam masa depan umat manungsa.

Filosofi Kontras babagan Keamanan AGI

DeepMind posisi pendekatane luwih dhasar tinimbang saingan kaya Anthropic lan OpenAI, ngkritik dheweke amarga ngremehake langkah-langkah keamanan sing kuat utawa ngluwihi riset penyelarasan otomatis.

Nalika OpenAI saiki dilaporake ngarahake fokus kanggo ngembangake superintelligence, pangarang DeepMind ngetokake skeptisisme babagan kelangsungan jangka pendek sistem kasebut tanpa terobosan utama ing arsitektur. Nanging, dheweke nemokake perbaikan diri rekursif—AI sing nambah desain dhewe liwat riset—plausibel, lan bisa uga mbebayani.

Peta Jalan Keamanan, Isih Dibangun

Ing tingkat dhuwur, makalah kasebut nyebutake sawetara solusi tahap awal, kayata:

  • Mblokir akses menyang sistem AGI dening pelaku jahat
  • Nambah interpretabilitas kanggo luwih ngerti pengambilan keputusan AI
  • "Ngencengi" lingkungan ing ngendi AI dikerahkan kanggo nyegah penyalahgunaan

Sanajan ngakoni yen akeh teknik isih teoretis utawa durung mateng, DeepMind nyuwun marang komunitas AI supaya ora nundha perencanaan keamanan serius. "Kanggo mbangun AGI kanthi tanggung jawab,” ujare para pangarang, "pangembang terdepan kudu proaktif ngrancang kanggo ngurangi bebaya parah.”

Tanggapan saka Komunitas Akademik

Nanging, ora kabeh ahli yakin. Heidy Khlaaf, ilmuwan AI utama ing AI Now Institute, ngkritik framing makalah, nyaranake AGI minangka konsep sing terlalu samar kanggo dievaluasi kanthi ketat.

Matthew Guzdial, asisten profesor ing Universitas Alberta, uga ngungkapake keraguan babagan perbaikan rekursif. "Iki dhasar kanggo argumen singularitas, nanging kita ora tau ndeleng bukti yen bisa mlaku,” ujare.

Sementara, Sandra Wachter saka Universitas Oxford nyoroti masalah sing luwih langsung: model AI generatif sing sinau saka data sing ora akurat utawa halusinasi. "Kita wis ndeleng AI nguatake kesalahane dhewe,” dheweke ngelingake. "Iki masalah keamanan sing signifikan.”

Debat Terus Berlanjut

Nalika publikasi DeepMind minangka salah sawijining peta jalan sing paling rinci nganti saiki, bisa uga ora nggawa konsensus. Pemikiran sing beda babagan kelayakan, garis waktu, lan profil risiko AGI tetep—ninggalake pitakonan babagan cara paling apik kanggo ngimbangi kemajuan cepet karo kewaspadaan ing salah sawijining perbatasan teknologi sing paling dhuwur.

Nggunakake CLAILA, sampeyan bisa ngirit jam-jaman saben minggu kanggo nggawe konten dawa.

Miwiti Gratis