Kerangka kerja DeepMind bertujuan untuk mengurangkan risiko besar yang ditimbulkan oleh AGI

Kerangka kerja DeepMind bertujuan untuk mengurangkan risiko besar yang ditimbulkan oleh AGI
  • Diterbitkan: 2025/04/03

DeepMind, makmal penyelidikan AI Google, telah mengeluarkan kertas kerja setebal 145 halaman yang menjelaskan strategi mereka untuk mengurangkan potensi bahaya Kecerdasan Am Buatan (AGI)—AI yang mampu melaksanakan sebarang tugas intelektual yang boleh dilakukan oleh manusia. Kertas kerja ini, yang ditulis bersama oleh pengasas bersama DeepMind Shane Legg, meramalkan kedatangan apa yang dipanggilnya sebagai AGI Luar Biasa sebelum akhir dekad ini.

Menurut laporan tersebut, AGI Luar Biasa akan menyamai kemampuan 1% teratas daripada orang dewasa manusia dalam pelbagai tugas kognitif, termasuk yang memerlukan kemampuan metakognitif. DeepMind berhujah bahawa jenis kecerdasan ini mungkin membawa manfaat masyarakat yang transformatif, tetapi juga bahaya yang teruk—termasuk risiko eksistensi yang boleh mengancam masa depan manusia.

Falsafah Berbeza tentang Keselamatan AGI

DeepMind meletakkan pendekatannya sebagai lebih berasas daripada pesaing seperti Anthropic dan OpenAI, mengkritik mereka kerana sama ada meremehkan langkah keselamatan yang kukuh atau terlalu menekankan penyelidikan penjajaran automatik.

Walaupun OpenAI kini dilaporkan mengalihkan tumpuan kepada pembangunan superintelligence, penulis DeepMind menyatakan keraguan tentang kebolehviabilan jangka pendek sistem sebegini tanpa penemuan besar dalam seni bina. Walau bagaimanapun, mereka mendapati peningkatan kendiri berulang—AI memperbaiki reka bentuknya sendiri melalui penyelidikan—adalah masuk akal, dan berpotensi membahayakan.

Peta Jalan Keselamatan, Masih Dalam Pembinaan

Pada tahap tinggi, kertas kerja ini menggariskan beberapa penyelesaian peringkat awal, seperti:

  • Menyekat akses kepada sistem AGI oleh pelaku jahat
  • Meningkatkan kebolehtafsiran untuk lebih memahami pembuatan keputusan AI
  • "Memperkukuh" persekitaran di mana AI dikerahkan untuk mengelakkan penyalahgunaan

Walaupun mengakui bahawa banyak teknik masih bersifat teori atau belum matang, DeepMind menggesa komuniti AI untuk tidak menangguhkan perancangan keselamatan yang serius. "Untuk membina AGI dengan bertanggungjawab,” hujah penulis, "pembangun hadapan mesti merancang secara proaktif untuk mengurangkan bahaya yang teruk.”

Bantahan Dari Komuniti Akademik

Walau bagaimanapun, tidak semua pakar yakin. Heidy Khlaaf, ketua saintis AI di AI Now Institute, mengkritik pembingkaian kertas kerja tersebut, mencadangkan bahawa AGI adalah konsep yang terlalu kabur untuk dinilai secara teliti.

Matthew Guzdial, penolong profesor di Universiti Alberta, juga menyatakan keraguan tentang peningkatan berulang. "Ia adalah asas untuk hujah singulariti, tetapi kita tidak pernah melihat sebarang bukti ia berfungsi,” katanya.

Sementara itu, Sandra Wachter dari Universiti Oxford menonjolkan kebimbangan yang lebih segera: model AI generatif yang belajar dari data yang tidak tepat atau berhalusinasi. "Kita sudah melihat AI menguatkan kesilapannya sendiri,” dia memberi amaran. "Itu adalah isu keselamatan yang ketara.”

Perdebatan Berterusan

Walaupun penerbitan DeepMind adalah antara peta jalan yang paling terperinci setakat ini, ia mungkin tidak membawa kepada konsensus. Ketidaksepakatan tentang kebolehlaksanaan AGI, garis masa, dan profil risikonya berterusan—meninggalkan persoalan terbuka tentang cara terbaik untuk mengimbangi kemajuan pesat dengan berhati-hati dalam salah satu perbatasan teknologi yang paling berisiko tinggi.

Dengan menggunakan CLAILA, anda boleh menjimatkan berjam-jam setiap minggu dalam menghasilkan kandungan bentuk panjang.

Mulakan Secara Percuma