DeepMind ห้องปฏิบัติการวิจัย AI ของ Google ได้เผยแพร่เอกสารขนาด 145 หน้าซึ่งมีรายละเอียดเกี่ยวกับกลยุทธ์ในการลดอันตรายที่อาจเกิดขึ้นจาก Artificial General Intelligence (AGI)—AI ที่สามารถทำงานทางปัญญาใดๆ ที่มนุษย์สามารถทำได้ เอกสารดังกล่าวซึ่งเขียนร่วมโดย Shane Legg ผู้ร่วมก่อตั้ง DeepMind คาดการณ์การมาถึงของสิ่งที่เรียกว่า Exceptional AGI ก่อนสิ้นทศวรรษนี้
ตามรายงาน Exceptional AGI จะสามารถเทียบเคียงความสามารถของมนุษย์ผู้ใหญ่ 1% แรกในงานปัญญาหลายรูปแบบ รวมถึงงานที่ต้องใช้ ความสามารถในการคิดเกี่ยวกับการคิด DeepMind โต้แย้งว่าปัญญาประเภทนี้อาจนำมาซึ่งประโยชน์ทางสังคมที่เปลี่ยนแปลงได้ แต่ก็อาจเกิดอันตรายร้ายแรง รวมถึงความเสี่ยงที่อาจคุกคามอนาคตของมนุษยชาติ
ปรัชญาที่แตกต่างในการรักษาความปลอดภัย AGI
DeepMind วางตำแหน่งแนวทางของตนว่าเป็นพื้นฐานมากกว่าของคู่แข่งอย่าง Anthropic และ OpenAI โดยวิจารณ์ว่าพวกเขามีการลดความสำคัญของมาตรการรักษาความปลอดภัยที่แข็งแกร่งหรือเน้นย้ำมากเกินไปใน การวิจัยการจัดแนวอัตโนมัติ
ในขณะที่ OpenAI รายงานว่ากำลังมุ่งเน้นไปที่การพัฒนา superintelligence นักเขียนของ DeepMind แสดงความสงสัยเกี่ยวกับความเป็นไปได้ในระยะสั้นของระบบดังกล่าวหากไม่มีการบุกเบิกที่สำคัญในสถาปัตยกรรม อย่างไรก็ตาม พวกเขาเห็นว่าการ ปรับปรุงตนเองซ้ำๆ—AI ที่ปรับปรุงการออกแบบของตัวเองผ่านการวิจัย—เป็นไปได้และอาจเป็นอันตราย
แผนที่ความปลอดภัยที่ยังอยู่ในระหว่างการก่อสร้าง
ในระดับสูง เอกสารนี้สรุปแนวทางแก้ไขในขั้นตอนเริ่มต้นหลายประการ เช่น:
- การปิดกั้นการเข้าถึงระบบ AGI โดยผู้ประสงค์ร้าย
- การเพิ่มการตีความเพื่อทำความเข้าใจการตัดสินใจของ AI ได้ดีขึ้น
- การ "ทำให้แข็งแกร่ง" สภาพแวดล้อมที่มีการใช้งาน AI เพื่อป้องกันการใช้งานในทางที่ผิด
แม้ว่าจะยอมรับว่าเทคนิคหลายอย่างยังคงเป็นทฤษฎีหรือยังไม่สมบูรณ์ DeepMind เรียกร้องให้ชุมชน AI ไม่ชะลอการวางแผนความปลอดภัยอย่างจริงจัง "เพื่อสร้าง AGI อย่างรับผิดชอบ" นักเขียนยืนยันว่า "นักพัฒนาบรรทัดหน้าต้องวางแผนอย่างรอบคอบเพื่อบรรเทาอันตรายร้ายแรง"
การตอบโต้จากชุมชนวิชาการ
อย่างไรก็ตาม ไม่ใช่ผู้เชี่ยวชาญทุกคนที่เชื่อมั่น Heidy Khlaaf หัวหน้านักวิทยาศาสตร์ AI ที่ AI Now Institute วิจารณ์การจัดกรอบของเอกสาร โดยชี้ว่า AGI เป็นแนวคิดที่คลุมเครือเกินกว่าจะประเมินได้อย่างเข้มงวด
Matthew Guzdial ผู้ช่วยศาสตราจารย์ที่ University of Alberta ยังแสดงความสงสัยเกี่ยวกับการปรับปรุงซ้ำๆ โดยกล่าวว่า "มันเป็นพื้นฐานสำหรับข้อโต้แย้งเรื่องเอกภพ แต่เราไม่เคยเห็นหลักฐานใดๆ ว่ามันทำงานได้"
ในขณะเดียวกัน Sandra Wachter จากมหาวิทยาลัยอ็อกซ์ฟอร์ดได้เน้นย้ำถึงความกังวลที่เร่งด่วนมากขึ้น: โมเดล AI เชิงกำเนิดเรียนรู้จากข้อมูลที่ไม่ถูกต้องหรือหลอน "เราเริ่มเห็น AI เสริมข้อผิดพลาดของตัวเอง" เธอเตือน "นั่นเป็นปัญหาด้านความปลอดภัยที่สำคัญ"
การโต้อย่างต่อเนื่อง
แม้ว่าการตีพิมพ์ของ DeepMind จะเป็นแผนที่ที่ละเอียดที่สุดจนถึงปัจจุบัน แต่มันอาจไม่ได้นำมาซึ่งฉันทามติ ความไม่เห็นด้วยเกี่ยวกับความเป็นไปได้ เส้นเวลา และโปรไฟล์ความเสี่ยงของ AGI ยังคงอยู่—ทำให้เปิดคำถามว่าจะสร้างสมดุลระหว่างความก้าวหน้าอย่างรวดเร็วกับความระมัดระวังในหนึ่งในแนวหน้าที่มีความเสี่ยงสูงที่สุดของเทคโนโลยีได้อย่างไร