DeepMind, Google's AI સંશોધન લેબ,એ 145-પાનાઓનો વ્યાપક પેપર બહાર પાડ્યો છે જેમાં Artificial General Intelligence (AGI)—એઆઈ જે માનવ જેવું કોઈપણ બુદ્ધિપૂર્ણ કાર્ય કરી શકે છે—ના સંભવિત જોખમોને ઘટાડવા માટેની તેની વ્યૂહરચના રજૂ કરી છે. આ પેપર, જે ડીપમાઈન્ડના સહ-સ્થાપક શેન લેગ દ્વારા સહ-લેખિત છે, તેને અપવાદરૂપ AGI તરીકે ઓળખાવ્યું છે અને દાયકાના અંત સુધીમાં તેના આગમનની આગાહી કરે છે.
અહેવાલ અનુસાર, અપવાદરૂપ AGI માનવ વયસ્કોની ટોચના 1% ની ક્ષમતાઓને વ્યાપક કોગ્નિટિવ કાર્યક્ષમતામાં મેળવે તેમ હશે, જેમાં મેટાકોગ્નિટિવ ક્ષમતાઓ આવરી લેવાય છે. ડીપમાઈન્ડ દલીલ કરે છે કે આ પ્રકારની બુદ્ધિમત્તા રૂપાંતરકારી સામાજિક ફાયદા લાવી શકે છે, પરંતુ ગંભીર નુકસાન પણ લાવી શકે છે—આંતરિક જોખમો સહિત જે મનુષ્યજાતના ભવિષ્યને ધમકી આપી શકે છે.
AGI સલામતી પર વિરુદ્ધ ફિલસૂફીઓ
ડીપમાઈન્ડ તેના અભિગમને Anthropic અને OpenAI જેવા સ્પર્ધકો કરતાં વધુ ગ્રાઉન્ડેડ તરીકે મૂકે છે, તેમને મજબૂત સુરક્ષા ઉપાયોને અવગણવા અથવા સ્વચાલિત એલાઇન્મેન્ટ સંશોધન પર વધુ ભાર મૂકવા માટે ટીકા કરે છે.
જ્યારે OpenAI હવે સુપર ઇન્ટેલિજન્સ વિકસાવવા પર ધ્યાન કેન્દ્રિત કરી રહ્યું છે, ત્યારે ડીપમાઈન્ડના લેખકો આર્કિટેક્ચરમાં મોટા ફેરફારો વિના આવી સિસ્ટમની ટૂંકા ગાળાની વ્યવહારિકતાને લઈને શંકા વ્યક્ત કરે છે. તેમ છતાં, તેઓ પુનરાવર્તિત સ્વ-સુધારણા—એઆઈ તેના પોતાના ડિઝાઇનમાં સંશોધન થકી સુધારો કરે છે—ને સંભવિત અને જોખમકારક માનતા હોય છે.
સલામતીનો માર્ગ, હજી નિર્માણ હેઠળ
ઉચ્ચ સ્તરે, પેપર કેટલાક પ્રારંભિક તબક્કાના ઉકેલો દર્શાવે છે, જેમ કે:
- દુષ્કર્મીઓ દ્વારા AGI સિસ્ટમ્સની ઍક્સેસ અટકાવવી
- AI નિર્ણય લેવાને વધુ સારી રીતે સમજવા માટે વ્યાખ્યાને વધારવી
- AI જ્યાં મોટે ભાગે ઉપયોગમાં છે તેવા વાતાવરણને "મજબૂત" કરવી
તેમ છતાં, ઘણા તકનીકોને સાધ્ય છે અથવા અપરિપક્વ છે તે સ્વીકારવા છતાં, ડીપમાઈન્ડ AI સમુદાયને ગંભીર સલામતી આયોજનમાં વિલંબ ન કરવાનું કહે છે. "AGI ને જવાબદારીપૂર્વક બનાવવા માટે,” લેખકો દલીલ કરે છે, "અગ્રણી વિકાસકર્તાઓને ગંભીર નુકસાન ઘટાડવા માટે પૂર્વગામી આયોજન કરવું જોઈએ.”
શૈક્ષણિક સમુદાયમાંથી પ્રતિકાર
હાલांकि, બધા નિષ્ણાતો સહમત નથી. હેઇડી ખલાફ, AI Now ઇન્સ્ટિટ્યૂટના મુખ્ય AI વૈજ્ઞાનિક, પેપરના ફ્રેમિંગની ટીકા કરી, સૂચવ્યું કે AGI ખૂબ જ અસ્પષ્ટ સંકલ્પના છે જેથી તેને કડક રીતે મૂલવવામાં આવે.
મેથ્યુ ગુઝડિઅલ, અલ્બર્ટા યુનિવર્સિટીના સહાયક પ્રોફેસર, પણ પુનરાવર્તિત સુધારણા વિશે શંકા વ્યક્ત કરે છે. "તે વિશિષ્ટતા દલીલો માટે આધાર આપે છે, પરંતુ અમને ક્યારેય તેનું કાર્યરત સાબિતી મળ્યું નથી,” તેમણે કહ્યું.
તેવામાં, ઑક્સફર્ડ યુનિવર્સિટીના સેન્ડ્રા વોચ્ટર એ વધુ તાત્કાલિક સમસ્યાને હાઇલાઇટ કરી: જનેરેટિવ AI મોડલ્સ ભૂલભર્યા અથવા કલ્પિત ડેટાથી શીખી રહ્યો છે. "અમે પહેલાથી જ જોઈ રહ્યા છીએ કે AI તેના પોતાના ભૂલોને મજબૂત બનાવી રહ્યો છે,” તેમણે ચેતવણી આપી. "તે એક મહત્ત્વપૂર્ણ સલામતી મુદ્દો છે.”
ચર્ચા ચાલુ છે
જ્યારે ડીપમાઈન્ડના પ્રકાશનને અત્યાર સુધીની સૌથી વિગતવાર માર્ગદર્શિકામાંથી એક ગણાય છે, તે સહમતિ લાવવું શક્ય નથી. AGI ની શક્યતા, સમયરેખા, અને જોખમ પ્રોફાઇલ વિશેના મતભેદો ચાલુ છે—તે કેવી રીતે ઝડપથી પ્રગતિને સંતુલિત કરવી તે અંગેનો પ્રશ્ન ખુલ્લો રહે છે, જેમાં ટેકનોલોજીના સૌથી ઊંચા જોખમવાળા ક્ષેત્રોમાંથી એક છે.