డీప్‌మైండ్ యొక్క ఫ్రేమ్‌వర్క్ AGI ద్వారా ఏర్పడే ప్రధాన ప్రమాదాలను తగ్గించడానికి లక్ష్యంగా ఉంది

డీప్‌మైండ్ యొక్క ఫ్రేమ్‌వర్క్ AGI ద్వారా ఏర్పడే ప్రధాన ప్రమాదాలను తగ్గించడానికి లక్ష్యంగా ఉంది
  • ప్రచురించబడింది: 2025/04/03

DeepMind, Google's AI పరిశోధనా ప్రయోగశాల, మానవుడు చేయగలిగిన ఏదైనా మేధస్సు కృషిని చేయగల కృత్రిమ సాధారణ మేధస్సు (AGI) యొక్క సంభావ్య ప్రమాదాలను తగ్గించడానికి తమ వ్యూహాన్ని వివరించిన 145-పేజీల పత్రాన్ని విడుదల చేసింది. DeepMind సహ వ్యవస్థాపకుడు షేన్ లెగ్ సహ రచన చేసిన ఈ పత్రం, దశాబ్దం ముగింపు నాటికి అసాధారణ AGI రాకను ఊహిస్తోంది.

రిపోర్ట్ ప్రకారం, అసాధారణ AGI అనేది విస్తృత శ్రేణి జ్ఞాన సంబంధిత పనులలో, మెటాకోగ్నిటివ్ సామర్థ్యాల అవసరం ఉన్న పనులలో కూడా, టాప్ 1% మానవ వయోజనుల సామర్థ్యాలతో సరిపోయే విధంగా ఉంటుంది. DeepMind ఈ రకమైన మేధస్సు సమాజానికి మార్పులు తెచ్చే లాభాలను తీసుకురావచ్చని వాదిస్తోంది, కానీ మానవత్వం భవిష్యత్తును ప్రమాదంలో పెట్టే స్థాయికి ఉన్న తీవ్రమైన నష్టాలను కూడా కలిగించవచ్చు.

AGI భద్రతపై విరుద్ధ తత్వాలు

DeepMind తన దృక్పథాన్ని Anthropic మరియు OpenAI వంటి ప్రత్యర్థుల కంటే స్థిరమైనదిగా ప్రతిపాదించింది, వారు బలమైన భద్రతా చర్యలను తేలికగా తీసుకోవడం లేదా ఆటోమేటెడ్ అలైన్‌మెంట్ పరిశోధనను అధికంగా ప్రాముఖ్యం ఇవ్వడం వంటివి చేస్తున్నారని విమర్శించింది.

OpenAI ఇప్పుడు సూపర్ ఇంటెలిజెన్స్ అభివృద్ధిపై దృష్టి సారించినట్లు నివేదించబడుతున్నప్పటికీ, DeepMind రచయితలు ముఖ్యమైన ఆర్కిటెక్చర్ బ్రేక్‌త్రూ లేకుండా అలాంటి వ్యవస్థల స్వల్పకాలిక ప్రామాణికతపై అనుమాన వ్యక్తం చేస్తున్నారు. అయితే, వారు రికర్సివ్ సెల్ఫ్-ఇంప్రూవ్‌మెంట్—AI తన సొంత డిజైన్‌ను పరిశోధన ద్వారా మెరుగుపరుచుకోవడం—సంభావ్యమని, మరియు ప్రమాదకరమని భావిస్తున్నారు.

భద్రతా రోడ్‌మ్యాప్, ఇంకా నిర్మాణంలో ఉంది

సాధారణ స్థాయిలో, పత్రం కొన్ని ప్రారంభ దశ పరిష్కారాలను సూచిస్తుంది, ఉదాహరణకు:

  • హానికారక నటులచే AGI వ్యవస్థల యాక్సెస్‌ను నిరోధించడం
  • AI నిర్ణయాల అవగాహనను మెరుగుపరచడానికి వివరణాత్మకతను పెంపొందించడం
  • AI అమలైన వాతావరణాలను దుర్వినియోగం నివారించడానికి "హార్డెనింగ్" చేయడం

చాలా సాంకేతికతలు సిద్ధాంతాత్మకంగా లేదా ఇంకా పరిపక్వంగా లేవని అంగీకరించినప్పటికీ, DeepMind AI సమాజానికి తీవ్రమైన భద్రతా ప్రణాళికను ఆలస్యం చేయకూడదని సూచిస్తుంది. "AGI ని బాధ్యతాయుతంగా నిర్మించడానికి," రచయితలు వాదిస్తున్నారు, "ఫ్రాంటియర్ డెవలపర్లు తీవ్రమైన నష్టాలను తగ్గించేలా ముందుగానే ప్రణాళిక చేసుకోవాలి."

అకడమిక్ సమాజం నుండి ప్రతిఘటన

అయితే, అన్ని నిపుణులు ఒప్పుకోవడం లేదు. AI Now Institute కు చెందిన ప్రధాన AI శాస్త్రవేత్త హెయిడీ ఖ్లాఫ్, పత్రం యొక్క రూపకల్పనను విమర్శిస్తూ, AGI అనేది ఖచ్చితంగా అంచనా వేయడానికి చాలా అస్పష్టమైన భావన అని సూచించారు.

అల్బర్టా విశ్వవిద్యాలయానికి చెందిన అసిస్టెంట్ ప్రొఫెసర్ మాథ్యూ గుజ్డియల్, రికర్సివ్ ఇంప్రూవ్‌మెంట్ పై అనుమానాలు వ్యక్తం చేశారు. "ఇది సింగ్యులారిటీ వాదాలకు ఆధారం, కానీ ఇది పనిచేస్తుందని ఎలాంటి సాక్ష్యం మాకు ఇప్పటివరకు లేదు," అని ఆయన చెప్పారు.

ఇంతలో, ఆక్స్‌ఫర్డ్ విశ్వవిద్యాలయానికి చెందిన సాండ్రా వాచ్టర్ తప్పుడు లేదా హల్యూసినేటెడ్ డేటా నుండి జనరేటివ్ AI మోడళ్లకు సంబంధించిన మరింత తక్షణ సమస్యను హైలైట్ చేశారు. "మేము ఇప్పటికే AI తన సొంత తప్పిదాలను బలపరుస్తున్నట్లు చూస్తున్నాము," అని ఆమె హెచ్చరించారు. "అది ముఖ్యమైన భద్రతా సమస్య."

చర్చ కొనసాగుతోంది

DeepMind యొక్క ప్రచురణ ఇప్పటివరకు అత్యంత వివరమైన రోడ్‌మ్యాప్‌లలో ఒకటిగా ఉన్నప్పటికీ, ఇది ఏకాభిప్రాయాన్ని తీసుకురావకపోవచ్చు. AGI సాధ్యత, టైమ్‌లైన్, మరియు రిస్క్ ప్రొఫైల్ గురించి విభేధాలు కొనసాగుతున్నాయి—టెక్నాలజీ అత్యంత హై-స్టేక్ ఫ్రంట్‌లలో ఒకదానికి వేగవంతమైన పురోగతిని జాగ్రత్తగా సమతుల్యం చేసే విధానంపై ప్రశ్నను తెరవడం.

CLAILA ఉపయోగించడంతో, మీరు ప్రతి వారంలో గంటల సమయాన్ని పొడవైన కంటెంట్ సృష్టించడంలో సేవ్ చేసుకోగలరు.

ఉచితంగా ప్రారంభించండి