DeepMind,谷歌的AI研究实验室,发布了一份长达145页的全面论文,概述了其减轻通用人工智能(AGI)潜在危险的策略——AGI是一种能够执行人类可以完成的任何智力任务的AI。该论文由DeepMind联合创始人Shane Legg共同撰写,预测在本十年结束之前将出现其所谓的卓越AGI。
根据报告,卓越AGI将在广泛的认知任务中匹配人类成年人中表现最好的1%的能力,包括那些需要元认知能力的任务。DeepMind认为,这种智能可能带来变革性的社会利益,但也可能带来严重的危害——包括可能威胁人类未来的存在性风险。
AGI安全的不同哲学
DeepMind将其方法定位为比Anthropic和OpenAI等竞争对手的方法更为扎实,批评他们要么轻视了强有力的安全措施,要么过于强调自动化对齐研究。
尽管据报道OpenAI现在正将焦点转向开发超智能,但DeepMind的作者对在没有重大架构突破的情况下短期内实现这样的系统表示怀疑。然而,他们确实认为递归自我改进——通过研究AI改进自身设计——是可行的,并且可能是危险的。
安全路线图,仍在建设中
总体而言,该论文概述了一些早期阶段的解决方案,例如:
- 阻止恶意行为者访问AGI系统
- 增强可解释性以更好地理解AI决策
- “加固”AI部署的环境以防止滥用
尽管承认许多技术仍然是理论上的或不成熟的,DeepMind敦促AI社区不要拖延严肃的安全规划。“为了负责任地构建AGI,”作者们辩称,“前沿开发者必须主动计划以减轻严重危害。”
学术界的反对
然而,并非所有专家都信服。Heidy Khlaaf,AI Now Institute的首席AI科学家,批评了论文的框架,认为AGI是一个太模糊的概念,难以进行严格评估。
Matthew Guzdial,阿尔伯塔大学的助理教授,也对递归改进表示怀疑。“它是奇点论点的基础,但我们从未见过任何证据表明它有效,”他说。
与此同时,牛津大学的Sandra Wachter则强调了一个更为直接的关注点:生成AI模型从不准确或幻觉数据中学习。“我们已经看到AI在加强自己的错误,”她警告说。“这是一个重大的安全问题。”
辩论仍在继续
虽然DeepMind的出版物是迄今为止最详细的路线图之一,但它可能不会带来共识。关于AGI的可行性、时间表和风险概况的分歧依然存在——留下了如何在快速进步与谨慎之间取得平衡的问题,这也是技术最具挑战性的前沿之一。