המסגרת של DeepMind שואפת לצמצם סיכונים משמעותיים הנגרמים על ידי AGI

המסגרת של DeepMind שואפת לצמצם סיכונים משמעותיים הנגרמים על ידי AGI
  • פורסם: 2025/04/03

DeepMind, מעבדת המחקר של AI של גוגל, פרסמה מאמר נרחב בן 145 עמודים המתאר את האסטרטגיה שלה להפחתת הסכנות הפוטנציאליות של בינה מלאכותית כללית (AGI)—AI המסוגלת לבצע כל משימה אינטלקטואלית שאדם יכול. המאמר, שנכתב בשיתוף עם מייסד שותף של DeepMind, שיין לג, צופה את הגעתה של מה שהוא מכנה Exceptional AGI לפני סוף העשור.

לפי הדוח, Exceptional AGI תתאים ליכולות של ה-1% העליון של מבוגרים אנושיים במגוון רחב של משימות קוגניטיביות, כולל כאלו הדורשות יכולות מטא-קוגניטיביות. DeepMind טוענת שסוג כזה של אינטליגנציה עשוי להביא יתרונות חברתיים משני צורה, אך גם נזקים חמורים—כולל סיכונים קיומיים שעלולים לאיים על עתיד האנושות.

פילוסופיות מנוגדות על בטיחות AGI

DeepMind ממקמת את הגישה שלה כאדמתית יותר מזו של מתחרות כמו Anthropic ו-OpenAI, תוך ביקורת על כך שהן או ממעיטות בחשיבות אמצעי ביטחון חזקים או מדגישות יתר על המידה מחקר יישור אוטומטי.

בעוד OpenAI מדווחת כעת כי היא מתמקדת בפיתוח סופר אינטליגנציה, מחברי DeepMind מביעים ספקנות בנוגע להיתכנות קצר הטווח של מערכות כאלה ללא פריצות דרך משמעותיות בארכיטקטורה. עם זאת, הם מוצאים את שיפור עצמי רקורסיבי—AI המשפר את עיצובו העצמי באמצעות מחקר—כבעל פוטנציאל וסיכון.

מפת דרכים לבטיחות, עדיין בבנייה

במבט כללי, המאמר מתאר מספר פתרונות בשלבים מוקדמים, כגון:

  • חסימת גישה למערכות AGI על ידי שחקנים זדוניים
  • שיפור הפירושיות להבנה טובה יותר של קבלת החלטות של AI
  • "הקשחת" סביבות בהן AI נפרס למניעת ניצול לרעה

למרות שהודתה בכך שרבות מהטכניקות עדיין תיאורטיות או לא בשלות, DeepMind מפצירה בקהילת ה-AI שלא לעכב תכנון בטיחות רציני. "כדי לבנות AGI באחריות," טוענים המחברים, "מפתחים בקצה חייבים לתכנן באופן פרואקטיבי למיתון נזקים חמורים."

התנגדות מהקהילה האקדמית

עם זאת, לא כל המומחים משוכנעים. היידי חלף, המדען הראשי של AI ב-AI Now Institute, ביקרה את המסגור של המאמר, וטענה ש-AGI הוא מושג מעורפל מדי להערכה מדויקת.

מתיו גוזדיאל, פרופסור עוזר באוניברסיטת אלברטה, הביע גם הוא ספקות לגבי שיפור רקורסיבי. "זה הבסיס לטענות על סינגולריות, אך מעולם לא ראינו כל הוכחה לכך שזה עובד,” אמר.

בינתיים, סנדרה ווכטר מאוניברסיטת אוקספורד הדגישה דאגה מיידית יותר: מודלים של AI גנרטיבי הלומדים מנתונים לא מדויקים או מדומיינים. "אנחנו כבר רואים AI מחזק את שגיאותיו שלו,” היא הזהירה. "זו בעיית בטיחות משמעותית.”

הדיון נמשך

בעוד הפרסום של DeepMind הוא בין מפת הדרכים המפורטות ביותר עד כה, הוא עשוי שלא להביא לקונצנזוס. המחלוקות לגבי ההיתכנות, לוח הזמנים ופרופיל הסיכון של AGI ממשיכות—ומשאיר את השאלה פתוחה כיצד לאזן בין התקדמות מהירה לבין זהירות באחד מהגבולות בעלי הסיכון הגבוה ביותר של הטכנולוגיה.

באמצעות CLAILA תוכלו לחסוך שעות בכל שבוע ביצירת תוכן ארוך.

התחילו בחינם