DeepMind, Google's AI పరిశోధనా ప్రయోగశాల, మానవుడు చేయగలిగిన ఏదైనా మేధస్సు కృషిని చేయగల కృత్రిమ సాధారణ మేధస్సు (AGI) యొక్క సంభావ్య ప్రమాదాలను తగ్గించడానికి తమ వ్యూహాన్ని వివరించిన 145-పేజీల పత్రాన్ని విడుదల చేసింది. DeepMind సహ వ్యవస్థాపకుడు షేన్ లెగ్ సహ రచన చేసిన ఈ పత్రం, దశాబ్దం ముగింపు నాటికి అసాధారణ AGI రాకను ఊహిస్తోంది.
రిపోర్ట్ ప్రకారం, అసాధారణ AGI అనేది విస్తృత శ్రేణి జ్ఞాన సంబంధిత పనులలో, మెటాకోగ్నిటివ్ సామర్థ్యాల అవసరం ఉన్న పనులలో కూడా, టాప్ 1% మానవ వయోజనుల సామర్థ్యాలతో సరిపోయే విధంగా ఉంటుంది. DeepMind ఈ రకమైన మేధస్సు సమాజానికి మార్పులు తెచ్చే లాభాలను తీసుకురావచ్చని వాదిస్తోంది, కానీ మానవత్వం భవిష్యత్తును ప్రమాదంలో పెట్టే స్థాయికి ఉన్న తీవ్రమైన నష్టాలను కూడా కలిగించవచ్చు.
AGI భద్రతపై విరుద్ధ తత్వాలు
DeepMind తన దృక్పథాన్ని Anthropic మరియు OpenAI వంటి ప్రత్యర్థుల కంటే స్థిరమైనదిగా ప్రతిపాదించింది, వారు బలమైన భద్రతా చర్యలను తేలికగా తీసుకోవడం లేదా ఆటోమేటెడ్ అలైన్మెంట్ పరిశోధనను అధికంగా ప్రాముఖ్యం ఇవ్వడం వంటివి చేస్తున్నారని విమర్శించింది.
OpenAI ఇప్పుడు సూపర్ ఇంటెలిజెన్స్ అభివృద్ధిపై దృష్టి సారించినట్లు నివేదించబడుతున్నప్పటికీ, DeepMind రచయితలు ముఖ్యమైన ఆర్కిటెక్చర్ బ్రేక్త్రూ లేకుండా అలాంటి వ్యవస్థల స్వల్పకాలిక ప్రామాణికతపై అనుమాన వ్యక్తం చేస్తున్నారు. అయితే, వారు రికర్సివ్ సెల్ఫ్-ఇంప్రూవ్మెంట్—AI తన సొంత డిజైన్ను పరిశోధన ద్వారా మెరుగుపరుచుకోవడం—సంభావ్యమని, మరియు ప్రమాదకరమని భావిస్తున్నారు.
భద్రతా రోడ్మ్యాప్, ఇంకా నిర్మాణంలో ఉంది
సాధారణ స్థాయిలో, పత్రం కొన్ని ప్రారంభ దశ పరిష్కారాలను సూచిస్తుంది, ఉదాహరణకు:
- హానికారక నటులచే AGI వ్యవస్థల యాక్సెస్ను నిరోధించడం
- AI నిర్ణయాల అవగాహనను మెరుగుపరచడానికి వివరణాత్మకతను పెంపొందించడం
- AI అమలైన వాతావరణాలను దుర్వినియోగం నివారించడానికి "హార్డెనింగ్" చేయడం
చాలా సాంకేతికతలు సిద్ధాంతాత్మకంగా లేదా ఇంకా పరిపక్వంగా లేవని అంగీకరించినప్పటికీ, DeepMind AI సమాజానికి తీవ్రమైన భద్రతా ప్రణాళికను ఆలస్యం చేయకూడదని సూచిస్తుంది. "AGI ని బాధ్యతాయుతంగా నిర్మించడానికి," రచయితలు వాదిస్తున్నారు, "ఫ్రాంటియర్ డెవలపర్లు తీవ్రమైన నష్టాలను తగ్గించేలా ముందుగానే ప్రణాళిక చేసుకోవాలి."
అకడమిక్ సమాజం నుండి ప్రతిఘటన
అయితే, అన్ని నిపుణులు ఒప్పుకోవడం లేదు. AI Now Institute కు చెందిన ప్రధాన AI శాస్త్రవేత్త హెయిడీ ఖ్లాఫ్, పత్రం యొక్క రూపకల్పనను విమర్శిస్తూ, AGI అనేది ఖచ్చితంగా అంచనా వేయడానికి చాలా అస్పష్టమైన భావన అని సూచించారు.
అల్బర్టా విశ్వవిద్యాలయానికి చెందిన అసిస్టెంట్ ప్రొఫెసర్ మాథ్యూ గుజ్డియల్, రికర్సివ్ ఇంప్రూవ్మెంట్ పై అనుమానాలు వ్యక్తం చేశారు. "ఇది సింగ్యులారిటీ వాదాలకు ఆధారం, కానీ ఇది పనిచేస్తుందని ఎలాంటి సాక్ష్యం మాకు ఇప్పటివరకు లేదు," అని ఆయన చెప్పారు.
ఇంతలో, ఆక్స్ఫర్డ్ విశ్వవిద్యాలయానికి చెందిన సాండ్రా వాచ్టర్ తప్పుడు లేదా హల్యూసినేటెడ్ డేటా నుండి జనరేటివ్ AI మోడళ్లకు సంబంధించిన మరింత తక్షణ సమస్యను హైలైట్ చేశారు. "మేము ఇప్పటికే AI తన సొంత తప్పిదాలను బలపరుస్తున్నట్లు చూస్తున్నాము," అని ఆమె హెచ్చరించారు. "అది ముఖ్యమైన భద్రతా సమస్య."
చర్చ కొనసాగుతోంది
DeepMind యొక్క ప్రచురణ ఇప్పటివరకు అత్యంత వివరమైన రోడ్మ్యాప్లలో ఒకటిగా ఉన్నప్పటికీ, ఇది ఏకాభిప్రాయాన్ని తీసుకురావకపోవచ్చు. AGI సాధ్యత, టైమ్లైన్, మరియు రిస్క్ ప్రొఫైల్ గురించి విభేధాలు కొనసాగుతున్నాయి—టెక్నాలజీ అత్యంత హై-స్టేక్ ఫ్రంట్లలో ఒకదానికి వేగవంతమైన పురోగతిని జాగ్రత్తగా సమతుల్యం చేసే విధానంపై ప్రశ్నను తెరవడం.