ڈیپ مائنڈ کا فریم ورک AGI سے پیدا ہونے والے اہم خطرات کو کم کرنے کا مقصد رکھتا ہے

ڈیپ مائنڈ کا فریم ورک AGI سے پیدا ہونے والے اہم خطرات کو کم کرنے کا مقصد رکھتا ہے
  • شائع شدہ: 2025/04/03

دیپ مائنڈ، گوگل کی AI تحقیقاتی لیب، نے 145 صفحات پر مشتمل ایک جامع دستاویز جاری کی ہے جس میں مصنوعی عمومی ذہانت (AGI) کے ممکنہ خطرات کو کم کرنے کی حکمت عملی بیان کی گئی ہے۔ یہ وہ AI ہے جو کسی بھی ذہنی کام کو انجام دینے کی صلاحیت رکھتا ہے جو ایک انسان کر سکتا ہے۔ اس دستاویز کو دیپ مائنڈ کے شریک بانی شین لیگ نے بھی لکھا ہے اور اس میں غیر معمولی AGI کی آمد کی پیش گوئی کی گئی ہے جو دہائی کے آخر سے پہلے ممکن ہے۔

رپورٹ کے مطابق، غیر معمولی AGI انسانی بالغوں کے اعلیٰ 1% کی صلاحیتوں کے برابر ہو گی، جو وسیع پیمانے پر ذہنی کاموں کو شامل کرتی ہے، بشمول میٹا کوگنیٹیو صلاحیتوں کی ضرورت ہوتی ہے۔ دیپ مائنڈ کا کہنا ہے کہ اس قسم کی ذہانت معاشرتی فوائد لا سکتی ہے، لیکن اس کے ساتھ شدید نقصانات بھی شامل ہیں، جن میں انسانیت کے مستقبل کو خطرے میں ڈالنے والے وجودی خطرات بھی شامل ہیں۔

AGI کی حفاظت پر مختلف فلسفے

دیپ مائنڈ اپنی حکمت عملی کو اینٹھروپک اور اوپن اے آئی جیسے حریفوں کی نسبت زیادہ زمینی قرار دیتا ہے، انہیں مضبوط حفاظتی اقدامات کو کم یا خودکار ہم آہنگی تحقیق پر زیادہ زور دینے پر تنقید کرتا ہے۔

جبکہ رپورٹ کے مطابق اوپن اے آئی اب سپر انٹیلیجنس کی ترقی پر توجہ مرکوز کر رہا ہے، دیپ مائنڈ کے مصنفین کا کہنا ہے کہ ایسے نظاموں کی قلیل مدتی عملیت بغیر کسی بڑے بریک تھرو کے ممکن نہیں۔ تاہم، وہ خود کو بہتر بنانے کی صلاحیت—یعنی AI کا اپنی ہی ڈیزائن کو تحقیق کے ذریعے بہتر بنانا—کا امکان دیکھتے ہیں، جو ممکنہ طور پر خطرناک ہو سکتا ہے۔

ایک حفاظتی روڈمیپ، ابھی تک زیر تعمیر

اعلی سطح پر، دستاویز میں چند ابتدائی مرحلے کے حل دیے گئے ہیں، جیسے کہ:

  • بدنیتی پر مبنی افراد کی جانب سے AGI سسٹمز تک رسائی کو روکنا
  • AI کے فیصلہ سازی کو بہتر سمجھنے کے لیے تشریح کی صلاحیت کو بڑھانا
  • AI کو تعینات کرنے والے ماحول کو "مضبوط" بنانا تاکہ غلط استعمال سے بچا جا سکے

اگرچہ بہت سی تکنیکوں کو نظریاتی یا نابالغ تسلیم کیا گیا ہے، دیپ مائنڈ AI کمیونٹی کو سنجیدہ حفاظتی منصوبہ بندی میں تاخیر نہ کرنے کی تلقین کرتا ہے۔ مصنفین کہتے ہیں، "AGI کو ذمہ داری سے بنانے کے لیے،" "فرنٹیئر ڈویلپرز کو شدید نقصانات کو کم کرنے کے لیے پیشگی منصوبہ بندی کرنی ہوگی۔"

علمی برادری کی طرف سے مزاحمت

تاہم، تمام ماہرین قائل نہیں ہیں۔ ہیڈی خلاّف، AI ناؤ انسٹی ٹیوٹ کی چیف AI سائنسدان، نے دستاویز کی فریم ورک پر تنقید کی، یہ تجویز کرتے ہوئے کہ AGI کو سختی سے جانچنے کے لیے بہت مبہم تصور ہے۔

میتھیو گوزدیال، یونیورسٹی آف البرٹا کے اسسٹنٹ پروفیسر، نے بھی خود کو بہتر بنانے کی صلاحیت پر شکوک و شبہات کا اظہار کیا۔ "یہ سنگولیریٹی دلائل کی بنیاد ہے، لیکن ہم نے کبھی بھی اس کے کام کرنے کا کوئی ثبوت نہیں دیکھا،" انہوں نے کہا۔

اسی دوران، سینڈرا واچٹر آکسفورڈ یونیورسٹی سے ایک زیادہ فوری تشویش کو اجاگر کرتی ہیں: جنریٹو AI ماڈلز کا غلط یا خیالی ڈیٹا سے سیکھنا۔ "ہم پہلے ہی دیکھ رہے ہیں کہ AI اپنی غلطیوں کو تقویت دیتا ہے،" انہوں نے خبردار کیا۔ "یہ ایک اہم حفاظتی مسئلہ ہے۔"

مباحثہ جاری ہے

جبکہ دیپ مائنڈ کی اشاعت اب تک کے تفصیلی ترین روڈمیپ میں سے ایک ہے، یہ اتفاق رائے نہیں لا سکتی۔ AGI کی عملیت، ٹائم لائن، اور خطرے کی پروفائل پر اختلافات باقی ہیں—یہ سوال کھلا چھوڑتے ہیں کہ تیز رفتار ترقی کو محتاط رویے کے ساتھ کیسے متوازن کیا جائے، جو ٹیکنالوجی کے سب سے زیادہ اہم شعبوں میں سے ایک ہے۔

CLAILA کا استعمال کرکے آپ ہر ہفتے لمبے مواد تخلیق کرنے میں گھنٹوں کی بچت کر سکتے ہیں۔

مفت میں شروع کریں