تهدف الإطار الذي وضعته DeepMind إلى تخفيف المخاطر الكبيرة التي تفرضها الذكاء الاصطناعي العام (AGI)

تهدف الإطار الذي وضعته DeepMind إلى تخفيف المخاطر الكبيرة التي تفرضها الذكاء الاصطناعي العام (AGI)
  • منشور: 2025/04/03

DeepMind، مختبر أبحاث الذكاء الاصطناعي التابع لشركة جوجل، أصدر ورقة شاملة من 145 صفحة تحدد استراتيجيته لتخفيف المخاطر المحتملة للذكاء الاصطناعي العام (AGI) - الذكاء الاصطناعي القادر على أداء أي مهمة فكرية يمكن للإنسان القيام بها. تتنبأ الورقة، التي شارك في تأليفها المؤسس المشارك لـ DeepMind شين ليج، بوصول ما تسميه الذكاء الاصطناعي الاستثنائي قبل نهاية العقد.

وفقًا للتقرير، الذكاء الاصطناعي الاستثنائي سيتطابق مع قدرات أفضل 1% من البالغين البشريين عبر مجموعة واسعة من المهام الإدراكية، بما في ذلك تلك التي تتطلب قدرات ما وراء المعرفة. يجادل DeepMind بأن هذا النوع من الذكاء قد يجلب فوائد مجتمعية تحويلية، ولكنه أيضًا قد يحمل أضرارًا جسيمة - بما في ذلك مخاطر وجودية قد تهدد مستقبل البشرية.

فلسفات متناقضة حول سلامة الذكاء الاصطناعي العام

تضع DeepMind نهجها كأكثر استناداً إلى الواقع مقارنة بمنافسيها مثل Anthropic و OpenAI، منتقدة إياهم إما لتقليلهم من أهمية تدابير الأمان القوية أو لإفراطهم في التركيز على أبحاث المحاذاة الآلية.

في حين أن OpenAI تشير تقارير إلى أنها تحول تركيزها الآن إلى تطوير الذكاء الخارق، يعبر مؤلفو DeepMind عن شكوكهم حول جدوى مثل هذه الأنظمة على المدى القصير دون تحقيق تقدم كبير في الهندسة المعمارية. ومع ذلك، يجدون أن التحسين الذاتي التكراري - الذكاء الاصطناعي الذي يحسن تصميمه الخاص من خلال البحث - أمر ممكن، وربما خطير.

خارطة طريق للسلامة، لا تزال قيد الإنشاء

على مستوى عالٍ، تحدد الورقة عدة حلول في مراحلها الأولية، مثل:

  • منع الوصول إلى أنظمة الذكاء الاصطناعي العام من قبل الجهات الخبيثة
  • تعزيز قابلية التفسير لفهم اتخاذ القرارات من قبل الذكاء الاصطناعي بشكل أفضل
  • "تقوية" البيئات التي يتم فيها نشر الذكاء الاصطناعي لمنع إساءة الاستخدام

رغم الاعتراف بأن العديد من التقنيات لا تزال نظرية أو غير ناضجة، تحث DeepMind مجتمع الذكاء الاصطناعي على عدم تأخير التخطيط الجاد للسلامة. يجادل المؤلفون بأن "لبناء الذكاء الاصطناعي العام بمسؤولية، يجب على المطورين الرياديين التخطيط بشكل استباقي للتخفيف من الأضرار الجسيمة."

ردود الفعل من المجتمع الأكاديمي

ومع ذلك، لم يقتنع جميع الخبراء. هايدي خلاف، العالمة الرئيسية في الذكاء الاصطناعي في معهد AI Now، انتقدت إطار الورقة، مشيرة إلى أن الذكاء الاصطناعي العام مفهوم غامض للغاية لا يمكن تقييمه بدقة.

ماثيو غوزديال، أستاذ مساعد في جامعة ألبرتا، أعرب أيضًا عن شكوكه حول التحسين التكراري. "إنه الأساس للحجج حول التفرد، لكننا لم نر أي دليل على نجاحه"، قال.

وفي الوقت نفسه، ساندرا واشتير من جامعة أكسفورد أبرزت قلقًا أكثر إلحاحًا: نماذج الذكاء الاصطناعي التوليدية التي تتعلم من البيانات غير الدقيقة أو المتخيلة. "نحن بالفعل نرى الذكاء الاصطناعي يعزز أخطائه الخاصة”، حذرت. "هذه قضية أمان كبيرة.”

يستمر النقاش

بينما يعد نشر DeepMind من بين أكثر خرائط الطريق تفصيلًا حتى الآن، قد لا يجلب توافق الآراء. تستمر الخلافات حول جدوى الذكاء الاصطناعي العام، والجدول الزمني، وملف المخاطر - تاركة السؤال مفتوحًا حول كيفية تحقيق التوازن بين التقدم السريع والحذر في أحد أكثر مجالات التكنولوجيا تعقيدًا.

باستخدام CLAILA يمكنك توفير ساعات كل أسبوع في إنشاء محتوى طويل.

ابدأ مجاناً