دیپمایند، آزمایشگاه تحقیقاتی هوش مصنوعی گوگل، یک مقاله 145 صفحهای جامع منتشر کرده است که استراتژی خود را برای کاهش خطرات بالقوه هوش عمومی مصنوعی (AGI)—هوش مصنوعی قادر به انجام هر وظیفهی فکری که یک انسان میتواند انجام دهد—توضیح میدهد. این مقاله که بهطور مشترک توسط شین لگ، یکی از بنیانگذاران دیپمایند، نوشته شده است، پیشبینی میکند که آنچه به عنوان AGI استثنایی نامیده میشود، قبل از پایان دهه به وجود خواهد آمد.
بر اساس این گزارش، AGI استثنایی تواناییهای 1% برتر بزرگسالان انسانی را در طیف وسیعی از وظایف شناختی، از جمله آنهایی که نیاز به تواناییهای فراشناختی دارند، مطابقت خواهد داد. دیپمایند استدلال میکند که این نوع هوش ممکن است مزایای تحولی برای جامعه به همراه داشته باشد، اما همچنین خطرات شدیدی از جمله خطرات وجودی که میتواند آیندهی بشریت را تهدید کند، به همراه دارد.
فلسفههای متضاد دربارهی ایمنی AGI
دیپمایند رویکرد خود را به عنوان رویکردی پایهدارتر نسبت به رقبایی مانند Anthropic و OpenAI معرفی میکند و آنها را بهخاطر کماهمیت دانستن اقدامات امنیتی قوی یا تأکید بیش از حد بر تحقیقات تطبیق خودکار مورد انتقاد قرار میدهد.
در حالی که گزارشها حاکی از آن است که OpenAI اکنون تمرکز خود را به توسعهی فراهوش معطوف کرده است، نویسندگان دیپمایند نسبت به قابلیتهای کوتاهمدت چنین سیستمهایی بدون پیشرفتهای عمده در معماری ابراز تردید میکنند. با این حال، آنها بهبود خودبازگشتی—هوش مصنوعی که از طریق تحقیق طراحی خود را بهبود میبخشد—را محتمل و بالقوه خطرناک میدانند.
نقشهراه ایمنی، همچنان در حال ساخت
در سطح بالا، مقاله چندین راهحل اولیه را مطرح میکند، مانند:
- مسدود کردن دسترسی بازیگران مخرب به سیستمهای AGI
- بهبود قابلیت تفسیر برای درک بهتر تصمیمگیریهای هوش مصنوعی
- "تقویت" محیطهایی که هوش مصنوعی در آنها مستقر میشود تا از سوءاستفاده جلوگیری شود
با وجود اذعان به اینکه بسیاری از تکنیکها هنوز نظری یا نابالغ هستند، دیپمایند از جامعهی هوش مصنوعی میخواهد که برنامهریزی جدی برای ایمنی را به تأخیر نیندازند. نویسندگان استدلال میکنند که "برای ساختن AGI بهصورت مسئولانه، توسعهدهندگان پیشرو باید بهطور فعال برای کاهش آسیبهای شدید برنامهریزی کنند."
واکنش از جامعهی دانشگاهی
با این حال، همهی کارشناسان متقاعد نشدهاند. هیدی خلیف، دانشمند ارشد هوش مصنوعی در مؤسسهی AI Now، به نقد قاببندی مقاله پرداخت و پیشنهاد کرد که AGI مفهومی مبهم است که نمیتوان آن را بهطور دقیق ارزیابی کرد.
متیو گزدیل، استادیار دانشگاه آلبرتا، نیز نسبت به بهبود بازگشتی ابراز تردید کرد. "این مبنای استدلالهای تکینگی است، اما هرگز شاهد هیچ مدرکی برای عملکرد آن نبودهایم"، او گفت.
در همین حال، ساندرا واچتر از دانشگاه آکسفورد نگرانی فوریتری را برجسته کرد: مدلهای مولد هوش مصنوعی که از دادههای نادرست یا خیالی یاد میگیرند. "ما در حال حاضر میبینیم که هوش مصنوعی اشتباهات خود را تقویت میکند"، او هشدار داد. "این یک مسئلهی ایمنی قابل توجه است."
بحث ادامه دارد
در حالی که انتشار دیپمایند یکی از جامعترین نقشههای راه تا به امروز است، ممکن است به توافق نرسد. اختلافات دربارهی قابلیتپذیری، جدول زمانی و پروفایل ریسک AGI همچنان باقی است و این سؤال که چگونه بهترین توازن بین پیشرفت سریع و احتیاط در یکی از مرزهای پرمخاطرهی فناوری را برقرار کنیم، باز میماند.