Рамката на DeepMind цели да намали значителните рискове, породени от AGI

Рамката на DeepMind цели да намали значителните рискове, породени от AGI
  • Публикувано: 2025/04/03

DeepMind, изследователската лаборатория на Google за изкуствен интелект, публикува обширен документ от 145 страници, в който излага своята стратегия за смекчаване на потенциалните опасности от Изкуствен Общ Интелект (AGI) — AI, способен да изпълнява всяка интелектуална задача, която човек може. Документът, съавтор на който е съоснователят на DeepMind Шейн Лег, предвижда появата на това, което нарича Изключителен AGI преди края на десетилетието.

Според доклада, Изключителният AGI би съответствал на способностите на топ 1% от възрастните хора в широка гама от когнитивни задачи, включително тези, които изискват метакогнитивни способности. DeepMind твърди, че този вид интелект може да донесе трансформационни обществени ползи, но и сериозни вреди, включително екзистенциални рискове, които биха могли да застрашат бъдещето на човечеството.

Противопоставящи се философии относно безопасността на AGI

DeepMind позиционира своя подход като по-заземен в сравнение с този на конкуренти като Anthropic и OpenAI, критикувайки ги за подценяване на надеждните мерки за сигурност или за прекомерно акцентиране върху автоматизирано изследване на съответствието.

Докато се съобщава, че OpenAI сега насочва вниманието си към развиване на свръхинтелигентност, авторите на DeepMind изразяват скептицизъм относно краткосрочната приложимост на такива системи без значителни пробиви в архитектурата. Те обаче намират рекурсивното самоусъвършенстване — AI, който подобрява собствения си дизайн чрез изследване — за правдоподобно и потенциално опасно.

Пътна карта за безопасност, все още в процес на изграждане

На високо ниво, документът очертава няколко решения в ранен етап, като например:

  • Блокиране на достъпа до AGI системи от злонамерени лица
  • Подобряване на интерпретируемостта за по-добро разбиране на вземането на решения от AI
  • "Укрепване" на средите, в които AI се разгръща, за предотвратяване на злоупотреби

Въпреки че признава, че много техники остават теоретични или незрели, DeepMind призовава AI общността да не отлага сериозното планиране по безопасността. „За да изградим AGI отговорно,“ аргументират се авторите, „разработчиците на преден план трябва проактивно да планират за смекчаване на сериозни вреди.”

Отговор от академичната общност

Въпреки това, не всички експерти са убедени. Heidy Khlaaf, главен AI учен в AI Now Institute, критикува рамкирането на документа, предполагайки, че AGI е твърде неясна концепция, за да бъде оценена строго.

Matthew Guzdial, асистент професор в Университета на Алберта, също изрази съмнения относно рекурсивното подобрение. „Това е основата за аргументите за сингулярност, но никога не сме видели доказателства, че работи,” каза той.

Междувременно, Sandra Wachter от Оксфордския университет подчерта по-непосредствена загриженост: генериращите AI модели, които се учат от неточни или халюцинирани данни. „Вече виждаме как AI подсилва собствените си грешки,” предупреди тя. „Това е значителен въпрос за безопасността.”

Дебатът продължава

Макар публикацията на DeepMind да е сред най-подробните пътни карти до момента, тя може и да не донесе консенсус. Разногласията относно осъществимостта, времевата рамка и профила на риска на AGI продължават — оставяйки отворен въпроса как най-добре да се балансира бързият напредък с предпазливост в една от най-високорисковите области на технологиите.

С CLAILA можете да спестите часове всяка седмица при създаване на дългоформатно съдържание.

Започнете безплатно