DeepMind'in çerçevesi, AGI'nin oluşturduğu önemli riskleri hafifletmeyi amaçlıyor

DeepMind'in çerçevesi, AGI'nin oluşturduğu önemli riskleri hafifletmeyi amaçlıyor
  • Yayınlandı: 2025/04/03

DeepMind, Google'ın yapay zeka araştırma laboratuvarı, insanların yapabileceği her entelektüel görevi yerine getirebilecek Genel Yapay Zeka (AGI)'nın potansiyel tehlikelerini azaltma stratejisini özetleyen kapsamlı bir 145 sayfalık bir makale yayınladı. DeepMind kurucu ortağı Shane Legg tarafından ortaklaşa yazılan makale, on yılın sonundan önce Olağanüstü AGI olarak adlandırdığı şeyin gelişini öngörmektedir.

Rapora göre, Olağanüstü AGI, çeşitli bilişsel görevlerde en iyi %1 insan yetişkinin yetenekleriyle eşleşebilir, metabilişsel yetenekler gerektirenler de dahil. DeepMind, bu tür bir zekanın toplumda dönüştürücü faydalar getirebileceğini, ancak insanlığın geleceğini tehdit edebilecek varoluşsal riskler de dahil olmak üzere ciddi zararlar da verebileceğini savunuyor.

AGI Güvenliği Üzerine Zıt Felsefeler

DeepMind, yaklaşımını Anthropic ve OpenAI gibi rakiplerininkinden daha temelli olarak konumlandırıyor ve ya sağlam güvenlik önlemlerini küçümsedikleri ya da otomatik hizalama araştırmasına aşırı vurgu yaptıkları için eleştiriyor.

OpenAI'nin şimdi süper zeka geliştirmeye odaklandığı bildirilirken, DeepMind'ın yazarları, mimaride büyük atılımlar olmadan bu tür sistemlerin kısa vadeli uygulanabilirliğine şüpheyle yaklaşıyorlar. Ancak, özyineli kendini geliştirme—yapay zekanın kendi tasarımını araştırma yoluyla iyileştirmesi—konusunda bunu makul ve potansiyel olarak tehlikeli buluyorlar.

Yapım Aşamasında Olan Bir Güvenlik Yol Haritası

Üst düzeyde, makale aşağıdaki gibi birkaç erken aşama çözümü özetliyor:

  • Kötü niyetli aktörlerin AGI sistemlerine erişimini engelleme
  • Yapay zeka karar verme süreçlerini daha iyi anlamak için yorumlanabilirliği artırma
  • Kötüye kullanımı önlemek için yapay zekanın konuşlandırıldığı ortamları "sertleştirme"

Pek çok tekniğin teorik veya olgunlaşmamış olduğunu kabul etmesine rağmen, DeepMind, AI topluluğunu ciddi güvenlik planlamalarını geciktirmemeye çağırıyor. Yazarlar, "AGI'yi sorumlu bir şekilde inşa etmek için", "öncülük eden geliştiricilerin ciddi zararları azaltmak için proaktif olarak plan yapması gerekiyor" diye savunuyorlar.

Akademik Topluluktan Gelen Tepki

Ancak, tüm uzmanlar ikna olmuş değil. Heidy Khlaaf, AI Now Institute'un baş AI bilimcisi, makalenin çerçevesini eleştirerek AGI'nin çok belirsiz bir kavram olduğunu ve titizlikle değerlendirilemeyeceğini öne sürdü.

Matthew Guzdial, Alberta Üniversitesi'nde yardımcı doçent, özyineli gelişim konusunda da şüphelerini dile getirdi. "Tekillik argümanlarının temeli bu, ama bunun işe yaradığını gösteren herhangi bir kanıt görmedik," dedi.

Bu arada, Oxford Üniversitesi'nden Sandra Wachter, daha acil bir endişeye dikkat çekti: yanlış veya hayal ürünü verilere dayanan üretici AI modelleri. "Zaten AI'nin kendi hatalarını pekiştirdiğini görüyoruz," diye uyardı. "Bu önemli bir güvenlik sorunu."

Tartışma Devam Ediyor

DeepMind'ın yayını bugüne kadar en ayrıntılı yol haritalarından biri olsa da, fikir birliği sağlamayabilir. AGI'nin uygulanabilirliği, zaman çizelgesi ve risk profili hakkındaki anlaşmazlıklar devam ediyor ve teknolojinin en yüksek riske sahip alanlarından birinde hızlı ilerlemeyi dikkatle dengelemenin en iyi yolunun ne olduğu sorusunu açık bırakıyor.

CLAILA'yı kullanarak her hafta uzun içerikler oluştururken saatlerce zaman kazanabilirsiniz.

Ücretsiz Başlayın