DeepMind 的框架旨在減輕由 AGI 帶來的重大風險

DeepMind 的框架旨在減輕由 AGI 帶來的重大風險
  • 已發布: 2025/04/03

DeepMind,Google 的 AI 研究實驗室,發佈了一篇長達 145 頁的文件,概述了其減輕人工通用智能(AGI)潛在危險的策略——能夠執行任何人類能進行的智力任務的 AI。該文件由 DeepMind 聯合創始人 Shane Legg 合著,預見在本世紀結束前將出現其所謂的卓越 AGI

根據報告,卓越 AGI 將在廣泛的認知任務上與 1% 最優秀的人類成人相匹敵,包括那些需要元認知能力的任務。DeepMind 認為,這種智慧可能帶來變革性的社會利益,但也可能帶來嚴重的危害——包括可能威脅人類未來的存在性風險。

AGI 安全的對比哲學

DeepMind 將其方法定位為比 AnthropicOpenAI 等競爭對手更為實際,批評他們要麼淡化強有力的安全措施,要麼過度強調自動化對齊研究

雖然據報導 OpenAI 正將重心轉向開發超級智能,但 DeepMind 的作者對在沒有重大架構突破的情況下,這些系統的短期可行性表示懷疑。然而,他們認為遞歸自我改進——即 AI 通過研究改進自身設計——是可行的,且可能具有危險性。

仍在建設中的安全路線圖

在高層次上,該文件概述了一些早期階段的解決方案,例如:

  • 阻止惡意行為者訪問 AGI 系統
  • 增強可解釋性以更好地理解 AI 的決策過程
  • "強化" AI 部署的環境以防止濫用

儘管承認許多技術仍處於理論或不成熟階段,DeepMind 敦促 AI 社群不要推遲認真進行安全規劃。"為了負責任地構建 AGI,"作者們主張,"前沿開發者必須主動計劃來減輕嚴重的危害。"

學術界的反對聲音

然而,並非所有專家都信服。Heidy Khlaaf,AI Now Institute 的首席 AI 科學家,批評該文件的框架,認為 AGI 是一個過於模糊的概念,難以進行嚴格評估。

Matthew Guzdial,阿爾伯塔大學的助理教授,也對遞歸改進表示懷疑。"這是奇點論點的基礎,但我們從未見過任何證據證明它有效,"他說。

同時,牛津大學的Sandra Wachter強調了一個更直接的問題:生成式 AI 模型從不準確或幻想出的數據中學習。"我們已經看到 AI 在強化自己的錯誤,"她警告說。"這是一個重要的安全問題。"

爭論持續

儘管 DeepMind 的發佈是迄今為止最詳細的路線圖之一,但它可能無法帶來共識。關於 AGI 的可行性、時間表和風險概況的分歧依然存在——如何在技術最具風險的前沿平衡快速進展與謹慎仍然是一個未解的問題。

使用 CLAILA,您每週可以節省數小時來創建長篇內容。

免費開始