Khung làm việc của DeepMind nhằm giảm thiểu các rủi ro đáng kể do AGI gây ra

Khung làm việc của DeepMind nhằm giảm thiểu các rủi ro đáng kể do AGI gây ra
  • Đã xuất bản: 2025/04/03

DeepMind, phòng thí nghiệm nghiên cứu AI của Google, đã phát hành một tài liệu dài 145 trang trình bày chiến lược của mình để giảm thiểu những nguy hiểm tiềm tàng của Trí tuệ Nhân tạo Tổng quát (AGI)—AI có khả năng thực hiện bất kỳ nhiệm vụ trí tuệ nào mà con người có thể làm được. Tài liệu này, đồng tác giả bởi đồng sáng lập DeepMind Shane Legg, dự đoán sự ra đời của cái mà họ gọi là AGI Đặc biệt trước khi kết thúc thập kỷ này.

Theo báo cáo, AGI Đặc biệt sẽ phù hợp với khả năng của 1% người trưởng thành hàng đầu trong một loạt các nhiệm vụ nhận thức, bao gồm cả những nhiệm vụ đòi hỏi khả năng siêu nhận thức. DeepMind lập luận rằng loại trí tuệ này có thể mang lại lợi ích xã hội biến đổi, nhưng cũng có những tác hại nghiêm trọng—bao gồm cả những rủi ro tồn tại có thể đe dọa tương lai của nhân loại.

Triết lý đối lập về An toàn AGI

DeepMind định vị cách tiếp cận của mình là thực tế hơn so với các đối thủ như AnthropicOpenAI, chỉ trích họ vì hoặc giảm nhẹ các biện pháp an ninh vững chắc hoặc quá nhấn mạnh nghiên cứu liên kết tự động.

Mặc dù OpenAI hiện được cho là đang tập trung phát triển siêu trí tuệ, các tác giả của DeepMind bày tỏ sự hoài nghi về tính khả thi ngắn hạn của các hệ thống như vậy nếu không có những đột phá lớn về kiến trúc. Tuy nhiên, họ cho rằng cải tiến tự động đệ quy—AI cải thiện thiết kế của chính nó thông qua nghiên cứu—là có thể xảy ra và có thể nguy hiểm.

Một Lộ trình An toàn Vẫn Đang Được Xây Dựng

Ở mức độ cao, tài liệu phác thảo một số giải pháp giai đoạn đầu, chẳng hạn như:

  • Ngăn chặn truy cập vào hệ thống AGI bởi những kẻ ác ý
  • Nâng cao khả năng giải thích để hiểu rõ hơn về quyết định của AI
  • "Củng cố" môi trường nơi AI được triển khai để ngăn chặn lạm dụng

Dù thừa nhận rằng nhiều kỹ thuật vẫn còn lý thuyết hoặc chưa trưởng thành, DeepMind kêu gọi cộng đồng AI không trì hoãn việc lập kế hoạch an toàn nghiêm túc. "Để xây dựng AGI một cách có trách nhiệm,” các tác giả lập luận, "các nhà phát triển tiên tiến phải chủ động lập kế hoạch để giảm thiểu những tác hại nghiêm trọng.”

Phản đối từ Cộng đồng Học thuật

Tuy nhiên, không phải tất cả các chuyên gia đều bị thuyết phục. Heidy Khlaaf, nhà khoa học AI chính tại AI Now Institute, chỉ trích cách trình bày của tài liệu, cho rằng AGI là một khái niệm quá mơ hồ để đánh giá một cách nghiêm túc.

Matthew Guzdial, trợ lý giáo sư tại Đại học Alberta, cũng bày tỏ nghi ngờ về cải tiến đệ quy. "Đó là cơ sở cho các lập luận về sự kỳ dị, nhưng chúng ta chưa bao giờ thấy bất kỳ bằng chứng nào cho thấy nó hoạt động,” ông nói.

Trong khi đó, Sandra Wachter của Đại học Oxford đã nêu lên một mối quan tâm cấp bách hơn: các mô hình AI tạo sinh học tập từ dữ liệu không chính xác hoặc tưởng tượng. "Chúng ta đã thấy AI củng cố những sai lầm của chính nó,” bà cảnh báo. "Đó là một vấn đề an toàn đáng kể.”

Cuộc Tranh Luận Tiếp Tục

Trong khi ấn phẩm của DeepMind là một trong những lộ trình chi tiết nhất cho đến nay, nó có thể không mang lại sự đồng thuận. Những bất đồng về tính khả thi, thời gian và hồ sơ rủi ro của AGI vẫn tiếp diễn—để ngỏ câu hỏi về cách tốt nhất để cân bằng tiến bộ nhanh chóng với sự thận trọng trong một trong những lĩnh vực có rủi ro cao nhất của công nghệ.

Sử dụng CLAILA, bạn có thể tiết kiệm hàng giờ mỗi tuần khi tạo nội dung dạng dài.

Bắt đầu miễn phí