Мета платформи DeepMind полягає в тому, щоб зменшити значні ризики, які становить AGI

Мета платформи DeepMind полягає в тому, щоб зменшити значні ризики, які становить AGI
  • Опубліковано: 2025/04/03

DeepMind, дослідницька лабораторія штучного інтелекту Google, випустила масштабний документ на 145 сторінок, в якому викладено стратегію зменшення потенційних небезпек загального штучного інтелекту (AGI) — ШІ, здатного виконувати будь-яке інтелектуальне завдання, яке може виконувати людина. Документ, співавтором якого є співзасновник DeepMind Шейн Легг, передбачає появу того, що називається винятковим AGI, до кінця десятиліття.

Згідно з доповіддю, винятковий AGI зрівняється з можливостями 1% найкращих дорослих людей у різних когнітивних завданнях, включаючи ті, що вимагають метакогнітивних здібностей. DeepMind стверджує, що такий тип інтелекту може принести трансформаційні суспільні вигоди, але й серйозні небезпеки — включаючи екзистенційні ризики, які можуть загрожувати майбутньому людства.

Контрастні філософії щодо безпеки AGI

DeepMind позиціонує свій підхід як більш ґрунтовний порівняно з конкурентами, такими як Anthropic та OpenAI, критикуючи їх за недооцінку надійних заходів безпеки або надмірне наголошення на дослідженні автоматизованої узгодженості.

Хоча повідомляється, що OpenAI тепер зосереджується на розробці суперінтелекту, автори DeepMind висловлюють скептицизм щодо короткострокової перспективності таких систем без значних проривів у архітектурі. Однак вони вважають рекурсивне самовдосконалення — ШІ, що покращує власний дизайн через дослідження — правдоподібним і потенційно небезпечним.

Дорожня карта безпеки, що все ще розробляється

На високому рівні документ окреслює кілька рішень на ранніх стадіях, таких як:

  • Блокування доступу до систем AGI зловмисниками
  • Підвищення інтерпретованості для кращого розуміння прийняття рішень ШІ
  • "Зміцнення" середовищ, де використовується ШІ, щоб запобігти зловживанням

Незважаючи на визнання того, що багато технік залишаються теоретичними або не зрілими, DeepMind закликає спільноту ШІ не відкладати серйозне планування безпеки. "Щоб відповідально створити AGI," стверджують автори, "розробники на передовій повинні проактивно планувати зменшення серйозних небезпек."

Опір з боку академічної спільноти

Однак не всі експерти переконані. Гейді Хлааф, головний науковець ШІ в AI Now Institute, розкритикувала формулювання документу, припустивши, що AGI є занадто невизначеним поняттям для серйозної оцінки.

Меттью Гуздіал, доцент Університету Альберти, також висловив сумніви щодо рекурсивного вдосконалення. "Це основа для аргументів сингулярності, але ми ніколи не бачили жодних доказів його роботи,” сказав він.

Тим часом, Сандра Вахтер з Оксфордського університету висловила більш нагальну занепокоєність: генеративні моделі ШІ, що навчаються на неточних або галюцинованих даних. "Ми вже бачимо, як ШІ підсилює власні помилки,” вона застерегла. "Це значна проблема безпеки.”

Дискусія триває

Хоча публікація DeepMind є однією з найдетальніших дорожніх карт на сьогодні, вона може не привести до консенсусу. Розбіжності щодо здійсненності, термінів і профілю ризику AGI залишаються — відкриваючи питання про те, як найкраще збалансувати швидкий прогрес із обережністю в одній з найризикованіших технологічних сфер.

Використовуючи CLAILA, ви можете заощаджувати години щотижня на створенні довгого контенту.

Почніть безкоштовно