Kerangka kerja DeepMind bertujuan untuk mengurangi risiko signifikan yang ditimbulkan oleh AGI

Kerangka kerja DeepMind bertujuan untuk mengurangi risiko signifikan yang ditimbulkan oleh AGI
  • Diterbitkan: 2025/04/03

DeepMind, laboratorium penelitian AI milik Google, telah merilis makalah setebal 145 halaman yang merinci strateginya untuk mengurangi potensi bahaya dari Artificial General Intelligence (AGI)—AI yang mampu melakukan tugas intelektual apa pun yang bisa dilakukan manusia. Makalah ini, yang ditulis bersama oleh salah satu pendiri DeepMind Shane Legg, memprediksi kedatangan apa yang disebutnya AGI Luar Biasa sebelum akhir dekade ini.

Menurut laporan tersebut, AGI Luar Biasa akan menyamai kemampuan 1% manusia dewasa teratas dalam berbagai tugas kognitif, termasuk yang memerlukan kemampuan metakognitif. DeepMind berpendapat bahwa jenis kecerdasan ini dapat membawa manfaat transformatif bagi masyarakat, tetapi juga bahaya serius—termasuk risiko eksistensial yang dapat mengancam masa depan umat manusia.

Filosofi yang Berbeda tentang Keselamatan AGI

DeepMind menempatkan pendekatannya sebagai lebih membumi dibandingkan dengan pesaing seperti Anthropic dan OpenAI, mengkritik mereka karena meremehkan langkah-langkah keamanan yang kuat atau terlalu menekankan pada penelitian penyelarasan otomatis.

Sementara OpenAI kini dilaporkan mengalihkan fokusnya untuk mengembangkan superintelligence, penulis DeepMind menyatakan skeptisisme tentang kelayakan jangka pendek dari sistem semacam itu tanpa terobosan besar dalam arsitektur. Namun, mereka menemukan peningkatan diri rekursif—AI yang meningkatkan desainnya sendiri melalui penelitian—sebagai hal yang masuk akal, dan berpotensi berbahaya.

Peta Jalan Keselamatan, Masih dalam Pembangunan

Secara garis besar, makalah ini menguraikan beberapa solusi tahap awal, seperti:

  • Memblokir akses ke sistem AGI oleh aktor jahat
  • Meningkatkan interpretabilitas untuk lebih memahami pengambilan keputusan AI
  • "Memperkuat" lingkungan tempat AI diterapkan untuk mencegah penyalahgunaan

Meskipun mengakui bahwa banyak teknik masih bersifat teoretis atau belum matang, DeepMind mendesak komunitas AI untuk tidak menunda perencanaan keselamatan yang serius. "Untuk membangun AGI secara bertanggung jawab,” kata para penulis, "pengembang garis depan harus secara proaktif merencanakan untuk mengurangi bahaya serius.”

Tanggapan dari Komunitas Akademik

Namun, tidak semua ahli yakin. Heidy Khlaaf, kepala ilmuwan AI di AI Now Institute, mengkritik kerangka berpikir makalah tersebut, menyarankan bahwa AGI adalah konsep yang terlalu samar untuk dievaluasi secara ketat.

Matthew Guzdial, asisten profesor di University of Alberta, juga menyatakan keraguannya tentang peningkatan rekursif. "Ini adalah dasar untuk argumen singularitas, tetapi kami belum pernah melihat bukti bahwa itu berhasil,” katanya.

Sementara itu, Sandra Wachter dari Universitas Oxford menyoroti kekhawatiran lebih mendesak: model AI generatif belajar dari data yang tidak akurat atau berhalusinasi. "Kami sudah melihat AI memperkuat kesalahannya sendiri,” dia memperingatkan. "Itu adalah masalah keselamatan yang signifikan.”

Perdebatan Berlanjut

Sementara publikasi DeepMind merupakan salah satu peta jalan terperinci hingga saat ini, hal itu mungkin tidak membawa konsensus. Ketidaksepakatan tentang kelayakan, garis waktu, dan profil risiko AGI tetap ada—menyisakan pertanyaan terbuka tentang bagaimana cara terbaik untuk menyeimbangkan kemajuan pesat dengan kehati-hatian di salah satu bidang teknologi yang paling berisiko tinggi.

Dengan menggunakan CLAILA, Anda dapat menghemat berjam-jam setiap minggu dalam membuat konten panjang.

Mulai Gratis