ডিপমাইন্ডের ফ্রেমওয়ার্ক এজিআই দ্বারা সৃষ্ট উল্লেখযোগ্য ঝুঁকি হ্রাস করার লক্ষ্য রাখে

ডিপমাইন্ডের ফ্রেমওয়ার্ক এজিআই দ্বারা সৃষ্ট উল্লেখযোগ্য ঝুঁকি হ্রাস করার লক্ষ্য রাখে
  • প্রকাশিত: 2025/04/03

DeepMind, গুগলের AI গবেষণা ল্যাব, ১৪৫ পৃষ্ঠার একটি বিস্তৃত পত্র প্রকাশ করেছে যা Artificial General Intelligence (AGI)—মানুষ যে কোনো বুদ্ধিবৃত্তিক কাজ করতে পারে এমন AI এর সম্ভাব্য বিপদ কমানোর জন্য তাদের কৌশল তুলে ধরেছে। DeepMind সহ-প্রতিষ্ঠাতা শেন লেগের সহ-লেখক এই পত্রটি Exceptional AGI এর আগমনের পূর্বাভাস দেয়, যা দশকের শেষের আগে আসতে পারে।

প্রতিবেদন অনুসারে, Exceptional AGI মানুষের প্রাপ্তবয়স্কদের শীর্ষ ১% ক্ষমতার সাথে বিভিন্ন জ্ঞানীয় কাজ সম্পাদন করতে সক্ষম হবে, যার মধ্যে মেটাকগনিটিভ ক্ষমতা প্রয়োজন। DeepMind যুক্তি দেয় যে এই ধরনের বুদ্ধিমত্তা সমাজে রূপান্তরমূলক সুবিধা আনতে পারে, তবে গুরুতর ক্ষতি সহ—যা মানবতার ভবিষ্যৎকে হুমকির মুখে ফেলতে পারে।

AGI নিরাপত্তার বিপরীত দর্শন

DeepMind তাদের পদ্ধতিকে প্রতিদ্বন্দ্বীদের মতো Anthropic এবং OpenAI এর তুলনায় আরও ভিত্তিসম্পন্ন বলে উপস্থাপন করে, তাদের সমালোচনা করে যারা হয়তো শক্তিশালী নিরাপত্তা ব্যবস্থাকে খাটো করে দেখছে বা স্বয়ংক্রিয় সামঞ্জস্য গবেষণা অতিমাত্রায় গুরুত্ব দিচ্ছে।

যখন OpenAI এখন সুপারইন্টেলিজেন্স বিকাশের দিকে মনোনিবেশ করছে বলে জানা গেছে, DeepMind এর লেখকরা স্থাপত্যে প্রধান অগ্রগতি ছাড়া এমন সিস্টেমগুলির স্বল্পমেয়াদী কার্যকারিতা সম্পর্কে সন্দেহ প্রকাশ করেছেন। তবে, তারা পুনরাবৃত্ত স্ব-উন্নতি—গবেষণার মাধ্যমে AI নিজস্ব ডিজাইন উন্নত করছে—সম্ভাব্য এবং বিপজ্জনক বলে মনে করে।

একটি নিরাপত্তা রোডম্যাপ, এখনও নির্মাণাধীন

উচ্চ স্তরে, পত্রটি কিছু প্রাথমিক পর্যায়ের সমাধান রূপরেখা দেয়, যেমন:

  • AGI সিস্টেমের অনিষ্টকারী অভিনেতাদের দ্বারা অ্যাক্সেস আটকানো
  • AI এর সিদ্ধান্ত-গ্রহণ আরও ভালোভাবে বোঝার জন্য ব্যাখ্যা ক্ষমতা বৃদ্ধি
  • AI মোতায়েনের পরিবেশ "শক্তিশালীকরণ" যাতে অপব্যবহার রোধ করা যায়

যদিও অনেক কৌশল তাত্ত্বিক বা অপরিপক্ক বলে স্বীকার করে, DeepMind AI সম্প্রদায়কে গুরুতর নিরাপত্তা পরিকল্পনা বিলম্ব না করতে অনুরোধ করে। "দায়িত্বের সাথে AGI নির্মাণ করতে,” লেখকরা যুক্তি দেন, "অগ্রণী ডেভেলপারদের কঠোর ক্ষতি কমানোর জন্য প্রাথমিকভাবে পরিকল্পনা করতে হবে।”

একাডেমিক সম্প্রদায়ের প্রতিক্রিয়া

তবে, সমস্ত বিশেষজ্ঞই নিশ্চিত নন। হেইডি খলাফ, AI Now Institute-এর প্রধান AI বিজ্ঞানী, পত্রটির ফ্রেমিং সমালোচনা করেছেন, suggesting AGI এতটাই অস্পষ্ট যে তা কঠোরভাবে মূল্যায়ন করা সম্ভব নয়।

ম্যাথিউ গুজডিয়াল, আলবার্টা বিশ্ববিদ্যালয়ের সহকারী অধ্যাপক, পুনরাবৃত্তি উন্নতি সম্পর্কে সন্দেহ প্রকাশ করেছেন। "এটি সিঙ্গুলারিটি যুক্তির ভিত্তি, কিন্তু আমরা কখনও এটি কাজ করছে এমন কোনো প্রমাণ দেখিনি,” তিনি বলেন।

অন্যদিকে, অক্সফোর্ড বিশ্ববিদ্যালয়ের সান্দ্রা ওয়াখটার একটি আরও তাত্ক্ষণিক উদ্বেগ তুলে ধরেছেন: জেনারেটিভ AI মডেলগুলি ভুল বা কল্পিত ডেটা থেকে শেখা। "আমরা ইতিমধ্যেই দেখছি AI এর নিজের ভুলগুলোকে শক্তিশালী করছে,” তিনি সতর্ক করেছেন। "এটি একটি উল্লেখযোগ্য নিরাপত্তা সমস্যা।”

বিতর্ক অব্যাহত

যদিও DeepMind এর প্রকাশনা আজ পর্যন্ত সবচেয়ে বিশদ রোডম্যাপগুলির মধ্যে একটি, এটি হয়তো ঐক্যমত্য আনবে না। AGI এর সম্ভাব্যতা, টাইমলাইন এবং ঝুঁকি প্রোফাইল সম্পর্কে মতবিরোধ অব্যাহত রয়েছে—প্রশ্নটি এখনও খোলা রয়েছে যে কিভাবে দ্রুত অগ্রগতির ভারসাম্য বজায় রেখে প্রযুক্তির এই উচ্চ ঝুঁকিপূর্ণ ফ্রন্টিয়ারে সতর্কতা অবলম্বন করা যায়।

CLAILA ব্যবহার করে আপনি প্রতি সপ্তাহে ঘণ্টার পর ঘণ্টা সময় বাঁচিয়ে দীর্ঘ আকৃতির কনটেন্ট তৈরি করতে পারবেন।

বিনামূল্যে শুরু করুন