DeepMind, Google's AI ஆராய்ச்சி ஆய்வகம், மனிதனால் செய்யவேண்டிய எந்த அறிவுசார் பணியையும் செய்யக் கூடிய செயற்கை பொது நுண்ணறிவு (AGI) எனப்படும் ஆபத்துகளைக் குறைக்க தனது உத்தியை விளக்கும் 145 பக்கங்களைக் கொண்ட ஆவணத்தை வெளியிட்டுள்ளது. DeepMind நிறுவனர் Shane Legg ஆகியோர் இணைந்து எழுதிய இந்த ஆவணம், தசாப்தத்தின் முடிவுக்கு முன் அசாதாரண AGI என்னும் ஒன்றின் வருகையை முன்னறிவிப்பதாகக் கூறுகிறது.
அறிக்கையின்படி, அசாதாரண AGI மனிதர்களின் முதல் 1% மத்தியிலான அறிவுசார் செயல்களில் திறன்களை ஒப்பிடும், மெட்டாகொக்னிட்டிவ் திறன்கள் உட்பட பல்வேறு அறிவுசார் செயல்களில். இந்த வகையான நுண்ணறிவு சமூகத்தில் மாற்றங்களை ஏற்படுத்தும் நன்மைகளை கொண்டுவரக் கூடும், ஆனால் பலவிதமான தீமைகளையும்—மனிதகுலத்தின் எதிர்காலத்தை அச்சுறுத்தக்கூடிய நிலைமைகளையும் உள்ளடக்கியதாக DeepMind வாதிடுகிறது.
AGI பாதுகாப்பில் மாறுபட்ட தத்துவங்கள்
DeepMind தன்னுடைய அணுகுமுறையை Anthropic மற்றும் OpenAI போன்ற போட்டியாளர்களின் அணுகுமுறைகளுடன் ஒப்பிட்டுப் பார்க்கிறது, அவர்கள் பலமான பாதுகாப்பு நடவடிக்கைகளை குறைத்து மதிப்பிடுவதற்கோ அல்லது தானியங்கி ஒத்திசைவு ஆராய்ச்சி மேலேசிப்பதற்கோ விமர்சிக்கிறது.
OpenAI தற்போது மிகிய நுண்ணறிவு உருவாக்கத்தை நோக்கி தன்னுடைய கவனத்தை திருப்பி உள்ளதாகத் தெரிவிக்கப்படுகிறது, ஆனால் DeepMind பாடலாசிரியர்கள் இதைப் பற்றிய குறுகிய கால வாழ்க்கைத்தன்மையைப் பற்றிய சந்தேகத்தை வெளியிட்டுள்ளனர், முக்கியமான கட்டமைப்பு முன்னேற்றங்களை இல்லாமல். இருப்பினும், அவர்கள் மறுமுறை சுயசீரமைப்பு—AI தன்னுடைய வடிவமைப்பில் ஆராய்ச்சியுடன் மேம்படுத்தும்—நம்பகமான மற்றும் அபாயகரமானதாகக் கருதுகின்றனர்.
பாதுகாப்பு சாலைவரைபடம், இன்னும் கட்டமைப்பு நிலையில்
உயர்ந்த நிலையில், ஆவணம் பல ஆரம்ப நிலை தீர்வுகளை விளக்குகிறது, உதாரணமாக:
- தீய நோக்குடையவர்களால் AGI அமைப்புகளுக்கான அணுகலைத் தடுப்பது
- AI முடிவெடுத்தலை மேம்படுத்துவதற்கான விளக்கத்தன்மையை மேம்படுத்துவது
- AI நியமிக்கப்பட்ட சூழல்களை "குறுகிய" செய்யுதல் தவறாகப் பயன்படுத்துவதைத் தடுக்கும்
பல தொழில்நுட்பங்கள் கருதுகோளாகவோ அல்லது முழுமையடையாதவையாகவோ உள்ளதைக் கருத்தில் கொண்டு, DeepMind AI சமூகத்தை தீவிரமான பாதுகாப்பு திட்டமிடலை தாமதிக்க வேண்டாம் என வலியுறுத்துகிறது. "AGIயை பொறுப்புடன் கட்டுவதற்கு,” என்று ஆசிரியர்கள் வாதிடுகின்றனர், "முன்னணி மேம்படுத்தியவர்கள் தீவிரமான தீமைகளை குறைக்க முன்கூட்டியே திட்டமிட வேண்டும்.”
கல்வியியல் சமூகத்திலிருந்து எதிர்ப்புகள்
எனினும், அனைத்து வல்லுநர்களும் நம்பிக்கை வழங்கவில்லை. Heidy Khlaaf, AI Now Institute இல் தலைமை AI விஞ்ஞானி, ஆவணத்தின் வடிவமைப்பை விமர்சித்தார், AGI மிகுந்த சீரற்ற கருத்தாக இருப்பதாகக் கூறினார்.
Matthew Guzdial, University of Alberta இல் உதவி பேராசிரியர், மறுமுறை மேம்பாட்டைப் பற்றிய சந்தேகங்களை வெளிப்படுத்தினார். "இது ஒற்றுமை வாதங்களுக்கான அடிப்படை, ஆனால் இது செயல்படுவதற்கான எந்த ஆதாரத்தையும் நாம் ஒருபோதும் காணவில்லை,” என்றார்.
இந்நிலையில், Sandra Wachter ஆஃப்ஸ்ஃபோர்டு பல்கலைக்கழகத்திலிருந்து ஒரு நிலையான கவலைக்குறிப்பை வெளிப்படுத்தினார்: தவறான அல்லது கற்பனை செய்யப்பட்ட தரவிலிருந்து கற்றுக்கொள்ளும் உருவாக்கல் AI மாதிரிகள். "AI ஏற்கனவே தன்னுடைய சொந்த பிழைகளை வலுப்படுத்துகிறது,” என்று எச்சரித்தார். "அது முக்கியமான பாதுகாப்பு சிக்கலாகும்.”
விவாதம் தொடர்கிறது
DeepMind இன் வெளியீடு இதுவரை மிக விரிவான சாலைவரைபடங்களில் ஒன்றாக இருக்கலாம், ஆனால் அது ஒற்றுமையை ஏற்படுத்தாது. AGI யின் வாழ்க்கைத்தன்மை, காலவரைபடம் மற்றும் அபாயக் கோவைக்கு மத்தியில் திடமான முரண்பாடுகள் தொடர்கின்றன—அவற்றில் ஒரு தொழில்நுட்பத்தின் மிக உயர்ந்த நிலைகளில் வேகமான முன்னேற்றத்தையும் கவனத்தையும் சமநிலைப்படுத்துவது எப்படி என்பதே திறந்த கேள்வியாக இருக்கிறது.