DeepMind, maabara ya utafiti wa AI ya Google, imetoa karatasi ya kurasa 145 inayotoa mkakati wake wa kupunguza hatari zinazoweza kutokana na Inteligensia Bandia ya Kijumla (AGI)—AI inayoweza kutekeleza kazi yoyote ya kiakili ambayo mwanadamu anaweza. Karatasi hiyo, iliyoandikwa kwa ushirikiano na mwanzilishi mwenza wa DeepMind Shane Legg, inatabiri kuwasili kwa kile inachokiita AGI ya Kipekee kabla ya mwishoni mwa muongo huu.
Kulingana na ripoti hiyo, AGI ya Kipekee italingana na uwezo wa 1% ya juu zaidi ya watu wazima katika kazi mbalimbali za kiakili, ikijumuisha zile zinazohitaji uwezo wa metakognitivi. DeepMind inasema aina hii ya akili inaweza kuleta manufaa makubwa kwa jamii, lakini pia madhara makubwa—ikijumuisha hatari za kimsingi zinazoweza kuhatarisha mustakabali wa ubinadamu.
Falsafa Tofauti Kuhusu Usalama wa AGI
DeepMind inaweka mbinu yake kama iliyojikita zaidi kuliko wapinzani kama Anthropic na OpenAI, ikiwashtumu kwa ama kupuuza hatua za usalama madhubuti au kusisitiza sana tafiti za ulinganifu otomatiki.
Wakati OpenAI sasa inaripotiwa kuelekeza umakini wake katika kuendeleza inteligensia ya juu, waandishi wa DeepMind wanaonyesha shaka kuhusu uwezekano wa mifumo kama hiyo kwa muda mfupi bila mafanikio makubwa katika usanifu. Hata hivyo, wanakubali kuwa kujiboresha kwa kurudiarudia—AI kuboresha muundo wake kupitia utafiti—inaweza kutokea na inaweza kuwa hatari.
Ramani ya Usalama, Bado Inaendelea
Kwa ujumla, karatasi inatoa suluhisho kadhaa za awali, kama vile:
- Kuzuia ufikiaji wa mifumo ya AGI na wahusika wabaya
- Kuimarisha ufafanuzi ili kuelewa vyema maamuzi ya AI
- "Kuhimarisha" mazingira ambapo AI inatumika ili kuzuia matumizi mabaya
Licha ya kukubali kwamba mbinu nyingi bado ziko katika nadharia au hazijakua, DeepMind inahimiza jamii ya AI kutochelewa kupanga usalama kwa makini. "Ili kujenga AGI kwa uwajibikaji,” waandishi wanasema, "waendelezaji wa mstari wa mbele lazima wapange kwa makini kupunguza madhara makubwa.”
Pingamizi Kutoka kwa Jamii ya Wasomi
Hata hivyo, si wataalamu wote wanaokubali. Heidy Khlaaf, mwanasayansi mkuu wa AI katika Taasisi ya AI Now, alikosoa uwasilishaji wa karatasi hiyo, akipendekeza kwamba AGI ni dhana isiyoeleweka vya kutosha kutathminiwa kwa umakini.
Matthew Guzdial, profesa msaidizi katika Chuo Kikuu cha Alberta, pia alionyesha mashaka kuhusu kuboreshwa kwa kurudiarudia. "Ni msingi wa hoja za singularity, lakini hatujawahi kuona ushahidi wowote wa kufanya kazi,” alisema.
Wakati huo huo, Sandra Wachter wa Chuo Kikuu cha Oxford alisisitiza wasiwasi wa haraka zaidi: mifano ya AI ya kizazi kujifunza kutoka kwa data isiyo sahihi au iliyohalusinika. "Tunaona tayari AI ikithibitisha makosa yake,” alionya. "Hiyo ni suala kubwa la usalama.”
Mjadala Unaendelea
Wakati uchapishaji wa DeepMind ni mojawapo ya ramani za kina zaidi hadi sasa, huenda usilete makubaliano. Tofauti kuhusu uwezekano wa AGI, muda, na wasifu wa hatari zinabaki—ikifungua swali la jinsi bora ya kusawazisha maendeleo ya haraka na tahadhari katika moja ya maeneo ya teknolojia yenye hatari kubwa.