กรอบการทำงานของ DeepMind มุ่งเน้นไปที่การลดความเสี่ยงที่สำคัญที่เกิดจาก AGI

กรอบการทำงานของ DeepMind มุ่งเน้นไปที่การลดความเสี่ยงที่สำคัญที่เกิดจาก AGI
  • เผยแพร่: 2025/04/03

DeepMind ห้องปฏิบัติการวิจัย AI ของ Google ได้เผยแพร่เอกสารขนาด 145 หน้าซึ่งมีรายละเอียดเกี่ยวกับกลยุทธ์ในการลดอันตรายที่อาจเกิดขึ้นจาก Artificial General Intelligence (AGI)—AI ที่สามารถทำงานทางปัญญาใดๆ ที่มนุษย์สามารถทำได้ เอกสารดังกล่าวซึ่งเขียนร่วมโดย Shane Legg ผู้ร่วมก่อตั้ง DeepMind คาดการณ์การมาถึงของสิ่งที่เรียกว่า Exceptional AGI ก่อนสิ้นทศวรรษนี้

ตามรายงาน Exceptional AGI จะสามารถเทียบเคียงความสามารถของมนุษย์ผู้ใหญ่ 1% แรกในงานปัญญาหลายรูปแบบ รวมถึงงานที่ต้องใช้ ความสามารถในการคิดเกี่ยวกับการคิด DeepMind โต้แย้งว่าปัญญาประเภทนี้อาจนำมาซึ่งประโยชน์ทางสังคมที่เปลี่ยนแปลงได้ แต่ก็อาจเกิดอันตรายร้ายแรง รวมถึงความเสี่ยงที่อาจคุกคามอนาคตของมนุษยชาติ

ปรัชญาที่แตกต่างในการรักษาความปลอดภัย AGI

DeepMind วางตำแหน่งแนวทางของตนว่าเป็นพื้นฐานมากกว่าของคู่แข่งอย่าง Anthropic และ OpenAI โดยวิจารณ์ว่าพวกเขามีการลดความสำคัญของมาตรการรักษาความปลอดภัยที่แข็งแกร่งหรือเน้นย้ำมากเกินไปใน การวิจัยการจัดแนวอัตโนมัติ

ในขณะที่ OpenAI รายงานว่ากำลังมุ่งเน้นไปที่การพัฒนา superintelligence นักเขียนของ DeepMind แสดงความสงสัยเกี่ยวกับความเป็นไปได้ในระยะสั้นของระบบดังกล่าวหากไม่มีการบุกเบิกที่สำคัญในสถาปัตยกรรม อย่างไรก็ตาม พวกเขาเห็นว่าการ ปรับปรุงตนเองซ้ำๆ—AI ที่ปรับปรุงการออกแบบของตัวเองผ่านการวิจัย—เป็นไปได้และอาจเป็นอันตราย

แผนที่ความปลอดภัยที่ยังอยู่ในระหว่างการก่อสร้าง

ในระดับสูง เอกสารนี้สรุปแนวทางแก้ไขในขั้นตอนเริ่มต้นหลายประการ เช่น:

  • การปิดกั้นการเข้าถึงระบบ AGI โดยผู้ประสงค์ร้าย
  • การเพิ่มการตีความเพื่อทำความเข้าใจการตัดสินใจของ AI ได้ดีขึ้น
  • การ "ทำให้แข็งแกร่ง" สภาพแวดล้อมที่มีการใช้งาน AI เพื่อป้องกันการใช้งานในทางที่ผิด

แม้ว่าจะยอมรับว่าเทคนิคหลายอย่างยังคงเป็นทฤษฎีหรือยังไม่สมบูรณ์ DeepMind เรียกร้องให้ชุมชน AI ไม่ชะลอการวางแผนความปลอดภัยอย่างจริงจัง "เพื่อสร้าง AGI อย่างรับผิดชอบ" นักเขียนยืนยันว่า "นักพัฒนาบรรทัดหน้าต้องวางแผนอย่างรอบคอบเพื่อบรรเทาอันตรายร้ายแรง"

การตอบโต้จากชุมชนวิชาการ

อย่างไรก็ตาม ไม่ใช่ผู้เชี่ยวชาญทุกคนที่เชื่อมั่น Heidy Khlaaf หัวหน้านักวิทยาศาสตร์ AI ที่ AI Now Institute วิจารณ์การจัดกรอบของเอกสาร โดยชี้ว่า AGI เป็นแนวคิดที่คลุมเครือเกินกว่าจะประเมินได้อย่างเข้มงวด

Matthew Guzdial ผู้ช่วยศาสตราจารย์ที่ University of Alberta ยังแสดงความสงสัยเกี่ยวกับการปรับปรุงซ้ำๆ โดยกล่าวว่า "มันเป็นพื้นฐานสำหรับข้อโต้แย้งเรื่องเอกภพ แต่เราไม่เคยเห็นหลักฐานใดๆ ว่ามันทำงานได้"

ในขณะเดียวกัน Sandra Wachter จากมหาวิทยาลัยอ็อกซ์ฟอร์ดได้เน้นย้ำถึงความกังวลที่เร่งด่วนมากขึ้น: โมเดล AI เชิงกำเนิดเรียนรู้จากข้อมูลที่ไม่ถูกต้องหรือหลอน "เราเริ่มเห็น AI เสริมข้อผิดพลาดของตัวเอง" เธอเตือน "นั่นเป็นปัญหาด้านความปลอดภัยที่สำคัญ"

การโต้อย่างต่อเนื่อง

แม้ว่าการตีพิมพ์ของ DeepMind จะเป็นแผนที่ที่ละเอียดที่สุดจนถึงปัจจุบัน แต่มันอาจไม่ได้นำมาซึ่งฉันทามติ ความไม่เห็นด้วยเกี่ยวกับความเป็นไปได้ เส้นเวลา และโปรไฟล์ความเสี่ยงของ AGI ยังคงอยู่—ทำให้เปิดคำถามว่าจะสร้างสมดุลระหว่างความก้าวหน้าอย่างรวดเร็วกับความระมัดระวังในหนึ่งในแนวหน้าที่มีความเสี่ยงสูงที่สุดของเทคโนโลยีได้อย่างไร

การใช้ CLAILA ช่วยให้คุณประหยัดเวลาหลายชั่วโมงต่อสัปดาห์ในการสร้างเนื้อหายาว

เริ่มต้นใช้งานฟรี