El marc de DeepMind pretén mitigar els riscos significatius que planteja l'AGI

El marc de DeepMind pretén mitigar els riscos significatius que planteja l'AGI
  • Publicat: 2025/04/03

DeepMind, el laboratori de recerca d'IA de Google, ha publicat un extens document de 145 pàgines que descriu la seva estratègia per mitigar els possibles perills de la Intel·ligència General Artificial (AGI)—IA capaç de realitzar qualsevol tasca intel·lectual que un humà pugui. El document, coautoritzat pel cofundador de DeepMind Shane Legg, preveu l'arribada del que anomena AGI Excepcional abans del final de la dècada.

Segons l'informe, l'AGI Excepcional igualaria les capacitats del 1% superior dels adults humans en una àmplia gamma de tasques cognitives, incloent-hi aquelles que requereixen habilitats metacognitives. DeepMind argumenta que aquest tipus d'intel·ligència podria aportar beneficis transformadors a la societat, però també perjudicis greus, incloent-hi riscos existencials que podrien amenaçar el futur de la humanitat.

Filosofies Contraposades sobre la Seguretat de l'AGI

DeepMind posiciona el seu enfocament com més fonamentat que el dels rivals com Anthropic i OpenAI, criticant-los per minimitzar les mesures de seguretat robustes o per sobreemfatitzar la recerca d'alineament automatitzat.

Mentre OpenAI sembla que ara està centrant-se en desenvolupar la superintel·ligència, els autors de DeepMind expressen escepticisme sobre la viabilitat a curt termini d'aquests sistemes sense avenços importants en l'arquitectura. No obstant això, troben plausible i potencialment perillós el millorament recursiu—IA millorant el seu propi disseny a través de la recerca.

Un Full de Ruta per a la Seguretat, Encara en Construcció

A grans trets, el document descriu diverses solucions en fase inicial, com ara:

  • Bloquejar l'accés als sistemes AGI per part d'actors maliciosos
  • Millorar la interpretabilitat per entendre millor la presa de decisions de l'IA
  • "Endurir" els entorns on l'IA es desplega per prevenir l'ús indegut

Tot i reconèixer que moltes tècniques continuen sent teòriques o immadures, DeepMind insta la comunitat d'IA a no endarrerir la planificació seriosa de la seguretat. "Per construir AGI de manera responsable,” argumenten els autors, "els desenvolupadors pioners han de planificar proactivament per mitigar els perjudicis greus.”

Resposta de la Comunitat Acadèmica

No obstant això, no tots els experts estan convençuts. Heidy Khlaaf, científica cap d'IA a l'AI Now Institute, va criticar el plantejament del document, suggerint que l'AGI és un concepte massa vague per avaluar rigorosament.

Matthew Guzdial, professor adjunt a la Universitat d'Alberta, també va expressar dubtes sobre el millorament recursiu. "És la base dels arguments de singularitat, però mai hem vist cap evidència que funcioni,” va dir.

Mentrestant, Sandra Wachter de la Universitat d'Oxford va destacar una preocupació més immediata: els models d'IA generativa que aprenen de dades inexactes o imaginades. "Ja estem veient com la IA reforça els seus propis errors,” va advertir. "Això és un problema de seguretat significatiu.”

El Debat Continua

Tot i que la publicació de DeepMind és un dels fulls de ruta més detallats fins ara, podria no portar a un consens. Les discrepàncies sobre la viabilitat, la cronologia i el perfil de risc de l'AGI persisteixen, deixant obert el debat sobre com equilibrar millor el progrés ràpid amb la precaució en una de les fronteres tecnològiques més importants.

Amb CLAILA pots estalviar hores cada setmana creant contingut de format llarg.

Comença gratuïtament