DeepMind, исследовательская лаборатория ИИ компании Google, выпустила обширный документ на 145 страниц, в котором изложена стратегия по снижению потенциальных опасностей Искусственного Общего Интеллекта (AGI) — ИИ, способного выполнять любую интеллектуальную задачу, которую может выполнить человек. В документе, соавтором которого является соучредитель DeepMind Шейн Легг, предсказывается появление того, что называется Исключительным AGI, до конца десятилетия.
Согласно отчету, Исключительный AGI будет соответствовать возможностям 1% лучших человеческих взрослых в широком спектре когнитивных задач, включая те, которые требуют метакогнитивных способностей. DeepMind утверждает, что такой интеллект может принести преобразующие общественные выгоды, но также и серьезные угрозы, включая экзистенциальные риски, которые могут угрожать будущему человечества.
Противопоставление философий безопасности AGI
DeepMind позиционирует свой подход как более приземленный по сравнению с конкурентами, такими как Anthropic и OpenAI, критикуя их либо за недооценку надежных мер безопасности, либо за чрезмерное внимание к автоматизированным исследованиям согласования.
В то время как OpenAI, как сообщается, теперь сосредоточивается на разработке суперинтеллекта, авторы DeepMind выражают скептицизм относительно краткосрочной жизнеспособности таких систем без крупных прорывов в архитектуре. Однако они считают рекурсивное самоулучшение — улучшение ИИ своего собственного дизайна через исследования — правдоподобным и потенциально опасным.
Дорожная карта безопасности, все еще в разработке
На высоком уровне документ излагает несколько ранних решений, таких как:
- Блокировка доступа к системам AGI злоумышленниками
- Повышение интерпретируемости для лучшего понимания принятия решений ИИ
- "Укрепление" сред, где развернут ИИ, чтобы предотвратить злоупотребления
Несмотря на признание того, что многие методы остаются теоретическими или незрелыми, DeepMind призывает сообщество ИИ не откладывать серьезное планирование безопасности. "Чтобы ответственно строить AGI," утверждают авторы, "разработчики на передовых рубежах должны проактивно планировать смягчение серьезных угроз."
Обратная реакция академического сообщества
Тем не менее, не все эксперты убеждены. Хейди Хлааф, главный ученый по ИИ в AI Now Institute, раскритиковала формулировку документа, утверждая, что AGI — слишком расплывчатое понятие для строгой оценки.
Мэтью Гуздил, доцент Университета Альберты, также выразил сомнения по поводу рекурсивного улучшения. "Это основа для аргументов о сингулярности, но мы никогда не видели никаких доказательств его работы", сказал он.
Тем временем, Сандра Вахтер из Оксфордского университета отметила более насущную проблему: обучение генеративных моделей ИИ на неточных или галлюцинированных данных. "Мы уже видим, как ИИ закрепляет свои собственные ошибки," предупредила она. "Это значительная проблема безопасности."
Дебаты продолжаются
Хотя публикация DeepMind является одной из самых детализированных дорожных карт на сегодняшний день, она может не привести к консенсусу. Разногласия по поводу осуществимости, сроков и профиля рисков AGI продолжаются, оставляя открытым вопрос о том, как лучше всего сбалансировать быстрый прогресс с осторожностью в одной из самых рискованных областей технологий.