DeepMind, Googlov raziskovalni laboratorij za umetno inteligenco, je izdal obsežno 145-stransko poročilo, ki opisuje njegovo strategijo za zmanjšanje morebitnih nevarnosti Umetne splošne inteligence (AGI)—umetne inteligence, ki je sposobna opravljati katerokoli intelektualno nalogo, ki jo lahko opravi človek. Poročilo, ki ga je soavtor DeepMindov soustanovitelj Shane Legg, predvideva prihod tega, kar imenuje Izjemna AGI, pred koncem desetletja.
Po poročilu bi Izjemna AGI izenačila sposobnosti zgornjih 1% odraslih ljudi pri širokem spektru kognitivnih nalog, vključno s tistimi, ki zahtevajo metakognitivne sposobnosti. DeepMind trdi, da bi takšna inteligenca lahko prinesla prelomne družbene koristi, vendar tudi resne škode—vključno z eksistencialnimi tveganji, ki bi lahko ogrozila prihodnost človeštva.
Nasprotujoče filozofije glede varnosti AGI
DeepMind pozicionira svoj pristop kot bolj prizemljen kot pristopi tekmecev, kot sta Anthropic in OpenAI, ki jih kritizira bodisi za podcenjevanje robustnih varnostnih ukrepov bodisi za pretirano poudarjanje raziskav avtomatiziranega usklajevanja.
Medtem ko naj bi se OpenAI zdaj usmerjal na razvoj superinteligence, avtorji DeepMinda izražajo dvom o kratkoročni izvedljivosti takšnih sistemov brez večjih prebojev v arhitekturi. Kljub temu pa menijo, da je rekurzivno samopreboljšanje—AI, ki izboljšuje svojo lastno zasnovo skozi raziskave—verjetno in potencialno nevarno.
Načrt varnosti, še v gradnji
Na visoki ravni poročilo opisuje več rešitev v zgodnji fazi, kot so:
- Blokiranje dostopa do AGI sistemov za zlonamerne akterje
- Izboljšanje interpretabilnosti za boljše razumevanje odločanja AI
- "Utrjevanje" okolij, kjer je AI nameščena, da se prepreči zloraba
Kljub priznanju, da številne tehnike ostajajo teoretične ali nezrele, DeepMind poziva AI skupnost, naj ne odlaša z resnim načrtovanjem varnosti. "Da bi zgradili AGI odgovorno," trdijo avtorji, "morajo razvijalci na čelu proaktivno načrtovati za zmanjšanje hudih škod."
Nasprotovanje akademske skupnosti
Vendar pa niso vsi strokovnjaki prepričani. Heidy Khlaaf, glavna znanstvenica za umetno inteligenco na AI Now Institute, je kritizirala okvir poročila, pri čemer je predlagala, da je AGI preveč nejasen koncept za strogo oceno.
Matthew Guzdial, docent na Univerzi v Alberti, je prav tako izrazil dvome o rekurzivnem izboljšanju. "To je osnova za argumente o singularnosti, vendar nikoli nismo videli nobenih dokazov, da bi to delovalo," je dejal.
Medtem je Sandra Wachter z Univerze Oxford izpostavila bolj neposredno skrb: generativni AI modeli, ki se učijo iz netočnih ali izmišljenih podatkov. "Že vidimo, kako AI krepi svoje lastne napake," je opozorila. "To je pomembno vprašanje varnosti."
Razprava se nadaljuje
Čeprav je DeepMindova objava ena izmed najbolj podrobnih načrtov doslej, morda ne bo prinesla soglasja. Ne strinjanja glede izvedljivosti, časovnice in profila tveganja AGI še vedno trajajo—kar pušča odprto vprašanje, kako najbolje uravnotežiti hiter napredek s previdnostjo na enem od tehnoloških področij z največjimi vložki.