DeepMind, 구글의 AI 연구소가 범용 인공지능(AGI)의 잠재적 위험을 완화하기 위한 전략을 설명하는 145페이지에 달하는 포괄적인 보고서를 발표했습니다. 이 보고서는 DeepMind 공동 창립자인 셰인 레그가 공동 저자로 참여했으며, Exceptional AGI가 이 10년이 끝나기 전에 도래할 것으로 내다보고 있습니다.
보고서에 따르면, Exceptional AGI는 다양한 인지 과제에서 상위 1%의 인간 성인을 능가하는 능력을 갖출 것이며, 메타인지 능력을 요구하는 과제도 포함됩니다. DeepMind는 이러한 지능이 사회에 변혁적인 이익을 가져올 수 있지만, 인류의 미래를 위협할 수 있는 실존적 위험을 포함한 심각한 해악도 가져올 수 있다고 주장합니다.
AGI 안전성에 대한 상반된 철학
DeepMind는 경쟁사인 Anthropic 및 OpenAI에 비해 자신들의 접근 방식이 더 현실적이라고 주장하며, 이들이 강력한 보안 조치를 경시하거나 자동화된 정렬 연구를 과대평가한다고 비판합니다.
OpenAI가 초지능 개발에 초점을 맞추고 있다고 알려진 가운데, DeepMind의 저자들은 주요 아키텍처의 혁신 없이는 그러한 시스템의 단기적인 실현 가능성에 회의적입니다. 그러나 그들은 연구를 통해 AI가 자체 설계를 개선하는 재귀적 자기 개선이 가능하다고 보고 있으며, 이는 잠재적으로 위험할 수 있다고 봅니다.
아직 완성되지 않은 안전 로드맵
보고서는 고차원에서 여러 초기 단계의 솔루션을 제시하고 있습니다. 예를 들어:
- 악의적인 행위자들의 AGI 시스템 접근 차단
- AI 의사결정을 더 잘 이해할 수 있도록 해석 가능성 향상
- AI가 배치된 환경을 강화하여 오용 방지
많은 기술이 여전히 이론적이거나 미성숙하다는 것을 인정하면서도, DeepMind는 AI 커뮤니티가 심각한 안전 계획을 늦추지 말아야 한다고 촉구합니다. "AGI를 책임 있게 개발하기 위해서," 저자들은 주장합니다. "최전선 개발자들은 심각한 해악을 완화하기 위해 선제적으로 계획해야 합니다."
학계의 반발
그러나 모든 전문가가 확신하는 것은 아닙니다. 하이디 클라프, AI Now Institute의 수석 AI 과학자는 AGI가 평가하기에 너무 모호한 개념이라고 보고서의 틀을 비판했습니다.
매튜 구즈디얼, 앨버타 대학교의 조교수는 재귀적 개선에 대해 의구심을 표했습니다. "이는 특이점 논쟁의 기초이지만, 그것이 작동하는 증거를 본 적이 없습니다,"라고 그는 말했습니다.
한편, 옥스퍼드 대학교의 산드라 왝터는 더 즉각적인 문제를 강조했습니다. 생성 AI 모델이 부정확하거나 환각된 데이터로부터 학습하는 것에 대해 "AI가 이미 자신의 오류를 강화하고 있습니다,"라고 그녀는 경고했습니다. "이는 중대한 안전 문제입니다."
논쟁은 계속된다
DeepMind의 출판물이 지금까지의 가장 상세한 로드맵 중 하나일지라도, 합의를 가져오지 않을 수 있습니다. AGI의 실행 가능성, 타임라인, 위험 프로필에 대한 의견 차이는 여전히 존재하며, 기술의 가장 중요한 전선 중 하나에서 빠른 발전과 신중함을 어떻게 균형 잡을 것인지에 대한 질문이 남아 있습니다.