DeepMind、GoogleのAI研究所は、あらゆる知的タスクを人間と同じように行うことができる汎用人工知能(AGI)の潜在的な危険を軽減するための戦略を詳述した145ページにわたる大規模な論文を発表しました。この論文は、DeepMindの共同創設者であるシェーン・レッグが共同執筆し、10年末までにエクセプショナルAGIと呼ばれるものが到来することを予見しています。
報告によれば、エクセプショナルAGIは、メタ認知能力を要するものを含む幅広い認知タスクにおいて、成人上位1%の能力に匹敵するとされています。DeepMindは、この種の知能が社会に変革をもたらす可能性がある一方で、人類の未来を脅かすような存在リスクを含む深刻な害ももたらす可能性があると主張しています。
AGI安全性に関する対照的な哲学
DeepMindは、AnthropicやOpenAIなどの競合他社に比べて、より実際的なアプローチを取っていると位置づけており、彼らが堅牢なセキュリティ対策を軽視したり、自動アライメント研究を過度に強調したりしていると批判しています。
OpenAIが現在、スーパーインテリジェンスの開発に焦点を移していると報じられる中、DeepMindの著者たちは、建築における大きなブレークスルーなしには、このようなシステムの短期的な実現可能性に懐疑的です。しかし彼らは、再帰的自己改善—AIが研究を通じて自らの設計を改善すること—が現実的であり、潜在的に危険であると考えています。
まだ構築中の安全性ロードマップ
高レベルでは、論文はいくつかの初期段階の解決策を概説しています:
- 悪意のあるアクターによるAGIシステムへのアクセスを阻止する
- AIの意思決定をよりよく理解するための解釈性の向上
- AIが展開される環境の「強化」による誤用の防止
多くの技術が理論的または未成熟であることを認めつつも、DeepMindはAIコミュニティに対し、真剣な安全計画を遅らせないよう促しています。「AGIを責任を持って構築するためには、最前線の開発者が重大な害を軽減するための計画を積極的に立てる必要がある」と著者らは主張しています。
学術界からの反発
しかし、すべての専門家が納得しているわけではありません。Heidy Khlaaf、AI Now Instituteの主任AI科学者は、AGIは厳密に評価するにはあまりにも漠然とした概念であると論文のフレーミングを批判しました。
また、Matthew Guzdial、アルバータ大学の助教授は再帰的改善について疑念を表明しました。「それはシンギュラリティの議論の基盤ですが、それが実際に機能する証拠を見たことは一度もありません」と述べました。
一方、オックスフォード大学のSandra Wachterは、生成AIモデルが不正確または幻覚的なデータから学ぶという、より即時的な懸念を強調しました。「AIがすでに自身の誤りを強化しているのを目の当たりにしています」と彼女は警告しました。「これは重大な安全問題です。」
議論は続く
DeepMindの出版物はこれまでで最も詳細なロードマップの一つですが、コンセンサスをもたらすものではないかもしれません。AGIの実現可能性、タイムライン、リスクプロファイルに関する意見の相違は依然として存在し、技術の最も重要なフロンティアの一つにおいて、迅速な進歩と慎重さをどのようにバランスさせるかという問題が残されています。