چارچوب DeepMind به منظور کاهش خطرات قابل توجه ناشی از AGI طراحی شده است

چارچوب DeepMind به منظور کاهش خطرات قابل توجه ناشی از AGI طراحی شده است
  • منتشر شده: 2025/04/03

دیپ‌مایند، آزمایشگاه تحقیقاتی هوش مصنوعی گوگل، یک مقاله 145 صفحه‌ای جامع منتشر کرده است که استراتژی خود را برای کاهش خطرات بالقوه هوش عمومی مصنوعی (AGI)—هوش مصنوعی قادر به انجام هر وظیفه‌ی فکری که یک انسان می‌تواند انجام دهد—توضیح می‌دهد. این مقاله که به‌طور مشترک توسط شین لگ، یکی از بنیان‌گذاران دیپ‌مایند، نوشته شده است، پیش‌بینی می‌کند که آنچه به عنوان AGI استثنایی نامیده می‌شود، قبل از پایان دهه به وجود خواهد آمد.

بر اساس این گزارش، AGI استثنایی توانایی‌های 1% برتر بزرگسالان انسانی را در طیف وسیعی از وظایف شناختی، از جمله آن‌هایی که نیاز به توانایی‌های فراشناختی دارند، مطابقت خواهد داد. دیپ‌مایند استدلال می‌کند که این نوع هوش ممکن است مزایای تحولی برای جامعه به همراه داشته باشد، اما همچنین خطرات شدیدی از جمله خطرات وجودی که می‌تواند آینده‌ی بشریت را تهدید کند، به همراه دارد.

فلسفه‌های متضاد درباره‌ی ایمنی AGI

دیپ‌مایند رویکرد خود را به عنوان رویکردی پایه‌دارتر نسبت به رقبایی مانند Anthropic و OpenAI معرفی می‌کند و آن‌ها را به‌خاطر کم‌اهمیت دانستن اقدامات امنیتی قوی یا تأکید بیش از حد بر تحقیقات تطبیق خودکار مورد انتقاد قرار می‌دهد.

در حالی که گزارش‌ها حاکی از آن است که OpenAI اکنون تمرکز خود را به توسعه‌ی فراهوش معطوف کرده است، نویسندگان دیپ‌مایند نسبت به قابلیت‌های کوتاه‌مدت چنین سیستم‌هایی بدون پیشرفت‌های عمده در معماری ابراز تردید می‌کنند. با این حال، آن‌ها بهبود خودبازگشتی—هوش مصنوعی که از طریق تحقیق طراحی خود را بهبود می‌بخشد—را محتمل و بالقوه خطرناک می‌دانند.

نقشه‌راه ایمنی، همچنان در حال ساخت

در سطح بالا، مقاله چندین راه‌حل اولیه را مطرح می‌کند، مانند:

  • مسدود کردن دسترسی بازیگران مخرب به سیستم‌های AGI
  • بهبود قابلیت تفسیر برای درک بهتر تصمیم‌گیری‌های هوش مصنوعی
  • "تقویت" محیط‌هایی که هوش مصنوعی در آن‌ها مستقر می‌شود تا از سوءاستفاده جلوگیری شود

با وجود اذعان به اینکه بسیاری از تکنیک‌ها هنوز نظری یا نابالغ هستند، دیپ‌مایند از جامعه‌ی هوش مصنوعی می‌خواهد که برنامه‌ریزی جدی برای ایمنی را به تأخیر نیندازند. نویسندگان استدلال می‌کنند که "برای ساختن AGI به‌صورت مسئولانه، توسعه‌دهندگان پیشرو باید به‌طور فعال برای کاهش آسیب‌های شدید برنامه‌ریزی کنند."

واکنش از جامعه‌ی دانشگاهی

با این حال، همه‌ی کارشناسان متقاعد نشده‌اند. هیدی خلیف، دانشمند ارشد هوش مصنوعی در مؤسسه‌ی AI Now، به نقد قاب‌بندی مقاله پرداخت و پیشنهاد کرد که AGI مفهومی مبهم است که نمی‌توان آن را به‌طور دقیق ارزیابی کرد.

متیو گزدیل، استادیار دانشگاه آلبرتا، نیز نسبت به بهبود بازگشتی ابراز تردید کرد. "این مبنای استدلال‌های تکینگی است، اما هرگز شاهد هیچ مدرکی برای عملکرد آن نبوده‌ایم"، او گفت.

در همین حال، ساندرا واچتر از دانشگاه آکسفورد نگرانی فوری‌تری را برجسته کرد: مدل‌های مولد هوش مصنوعی که از داده‌های نادرست یا خیالی یاد می‌گیرند. "ما در حال حاضر می‌بینیم که هوش مصنوعی اشتباهات خود را تقویت می‌کند"، او هشدار داد. "این یک مسئله‌ی ایمنی قابل توجه است."

بحث ادامه دارد

در حالی که انتشار دیپ‌مایند یکی از جامع‌ترین نقشه‌های راه تا به امروز است، ممکن است به توافق نرسد. اختلافات درباره‌ی قابلیت‌پذیری، جدول زمانی و پروفایل ریسک AGI همچنان باقی است و این سؤال که چگونه بهترین توازن بین پیشرفت سریع و احتیاط در یکی از مرزهای پرمخاطره‌ی فناوری را برقرار کنیم، باز می‌ماند.

با استفاده از CLAILA می‌توانید هر هفته ساعت‌ها در تولید محتوای بلند صرفه‌جویی کنید.

رایگان شروع کنید