ਡੀਪਮਾਈਂਡ ਦਾ ਫਰੇਮਵਰਕ AGI ਦੁਆਰਾ ਪੈਦਾ ਹੋਣ ਵਾਲੇ ਮਹੱਤਵਪੂਰਨ ਖਤਰੇ ਘਟਾਉਣ ਦਾ ਉਦੇਸ਼ ਰੱਖਦਾ ਹੈ

ਡੀਪਮਾਈਂਡ ਦਾ ਫਰੇਮਵਰਕ AGI ਦੁਆਰਾ ਪੈਦਾ ਹੋਣ ਵਾਲੇ ਮਹੱਤਵਪੂਰਨ ਖਤਰੇ ਘਟਾਉਣ ਦਾ ਉਦੇਸ਼ ਰੱਖਦਾ ਹੈ
  • ਪ੍ਰਕਾਸ਼ਤ: 2025/04/03

ਡੀਪਮਾਈਂਡ, ਗੂਗਲ ਦੀ AI ਰਿਸਰਚ ਲੈਬ, ਨੇ 145 ਪੰਨਿਆਂ ਦੀ ਇੱਕ ਵਿਸਤ੍ਰਿਤ ਰਿਪੋਰਟ ਜਾਰੀ ਕੀਤੀ ਹੈ ਜੋ ਕਲਪਨਾ ਜਨਰਲ ਇੰਟੈਲੀਜੈਂਸ (AGI) ਦੇ ਸੰਭਾਵਿਤ ਖਤਰੇ ਘਟਾਉਣ ਲਈ ਆਪਣੀ ਰਣਨੀਤੀ ਬਿਆਨ ਕਰਦੀ ਹੈ—ਇਹ AI ਕਿਸੇ ਵੀ ਬੋਧਕ ਕਾਰਜ ਨੂੰ ਕਰਨ ਦੇ ਯੋਗ ਹੈ ਜੋ ਇੱਕ ਮਨੁੱਖ ਕਰ ਸਕਦਾ ਹੈ। ਇਸ ਰਿਪੋਰਟ ਦੇ ਸਹਿ-ਲੇਖਕ ਅਤੇ ਡੀਪਮਾਈਂਡ ਦੇ ਸਹਿ-ਸੰਸਥਾਪਕ ਸ਼ੇਨ ਲੈਗ ਨੇ ਇਸ ਦਹਾਕੇ ਦੇ ਅੰਤ ਤੋਂ ਪਹਿਲਾਂ ਅਸਧਾਰਣ AGI ਦੇ ਆਗਮਨ ਦੀ ਭਵਿੱਖਵਾਣੀ ਕੀਤੀ ਹੈ।

ਰਿਪੋਰਟ ਦੇ ਅਨੁਸਾਰ, ਅਸਧਾਰਣ AGI ਮਨੁੱਖੀ ਅਡਲਟ ਦੀਆਂ ਸਭ ਤੋਂ ਚੋਟੀ ਦੀਆਂ 1% ਯੋਗਤਾਵਾਂ ਨਾਲ ਮੇਲ ਖਾਏਗਾ, ਜਿਸ ਵਿੱਚ ਉਹ ਬੋਧਕ ਕਾਰਜ ਵੀ ਸ਼ਾਮਲ ਹਨ ਜੋ ਮੈਟਾਕੋਗਨੀਟਿਵ ਯੋਗਤਾਵਾਂ ਦੀ ਮੰਗ ਕਰਦੇ ਹਨ। ਡੀਪਮਾਈਂਡ ਦਾ ਵਿਚਾਰ ਹੈ ਕਿ ਇਸ ਕਿਸਮ ਦੀ ਬੁੱਧੀ ਸਮਾਜਿਕ ਤਬਦੀਲੀ ਵਾਲੇ ਫਾਇਦੇ ਲਿਆ ਸਕਦੀ ਹੈ, ਪਰ ਨਾਲ ਹੀ ਭਾਰੀ ਨੁਕਸਾਨ ਵੀ, ਜਿਸ ਵਿੱਚ ਉਹ ਖਤਰੇ ਵੀ ਸ਼ਾਮਲ ਹਨ ਜੋ ਮਨੁੱਖਤਾ ਦੇ ਭਵਿੱਖ ਨੂੰ ਖਤਰੇ ਵਿੱਚ ਪਾ ਸਕਦੇ ਹਨ।

AGI ਸੁਰੱਖਿਆ 'ਤੇ ਵਿਰੋਧੀ ਫ਼ਲਸਫ਼ੇ

ਡੀਪਮਾਈਂਡ ਆਪਣੇ ਰੁਖ ਨੂੰ Anthropic ਅਤੇ OpenAI ਵਰਗੇ ਮੁਕਾਬਲਿਆਂ ਨਾਲੋਂ ਵੱਧ ਜ਼ਮੀਨੀ ਮੰਨਦਾ ਹੈ, ਉਨ੍ਹਾਂ ਦੀ ਆਲੋਚਨਾ ਕਰਦਿਆ ਕਿਹਾ ਕਿ ਉਹ ਜਾਂ ਤਾਂ ਮਜ਼ਬੂਤ ਸੁਰੱਖਿਆ ਉਪਾਇ ਘਟਾ ਰਹੇ ਹਨ ਜਾਂ ਆਟੋਮੇਟਿਡ ਅਲਾਈਨਮੈਂਟ ਰਿਸਰਚ ਨੂੰ ਬੇਹੱਦ ਵਧਾ ਚੁੱਕੇ ਹਨ।

ਜਦੋਂ ਕਿ OpenAI ਹੁਣ ਸੁਪਰਇੰਟੈਲੀਜੈਂਸ ਵਿਕਸਿਤ ਕਰਨ 'ਤੇ ਧਿਆਨ ਕੇਂਦ੍ਰਿਤ ਕਰ ਰਿਹਾ ਹੈ, ਡੀਪਮਾਈਂਡ ਦੇ ਲੇਖਕ ਅਜੇ ਵੀ ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਪ੍ਰਣਾਲੀਆਂ ਦੀ ਕਮੀਆਂ ਦੇ ਬਗੈਰ ਕਮਲਤਾਈ ਦੇ ਰੂਪ ਵਿੱਚ ਸੰਭਾਵਨਾ ਨੂੰ ਸੰਦੇਹਪੂਰਨ ਮੰਨਦੇ ਹਨ। ਹਾਲਾਂਕਿ, ਉਹ Recursive Self-Improvement—ਜਿਸ ਵਿੱਚ AI ਆਪਣੇ ਡਿਜ਼ਾਈਨ ਨੂੰ ਖੁਦ ਹੀ ਸੰਸ਼ੋਧਿਤ ਕਰਦਾ ਹੈ—ਨੂੰ ਸੰਭਾਵਿਤ ਅਤੇ ਸੰਭਵ ਤੌਰ 'ਤੇ ਖਤਰਨਾਕ ਮੰਨਦੇ ਹਨ।

ਸੁਰੱਖਿਆ ਰੋਡਮੈਪ, ਹੁਣ ਵੀ ਵਿਕਾਸ ਅਧੀਨ

ਉੱਚ ਪੱਧਰ 'ਤੇ, ਕਾਗਜ਼ ਕੁਝ ਸ਼ੁਰੂਆਤੀ ਹੱਲਾਂ ਦਾ ਸਿੱਖਰ ਦਿੰਦਾ ਹੈ, ਜਿਵੇਂ ਕਿ:

  • ਦੁਸ਼ਟ ਅਦਾਕਾਰਾਂ ਵੱਲੋਂ AGI ਸਿਸਟਮਾਂ ਤੱਕ ਪਹੁੰਚ ਨੂੰ ਰੋਕਣਾ
  • AI ਦੇ ਫੈਸਲੇ ਕਰਨ ਦੀ ਪ੍ਰਕਿਰਿਆ ਨੂੰ ਵਧੇਰੇ ਸਮਝਣ ਲਈ ਵਿਆਖਿਆ ਵਧਾਉਣਾ
  • AI ਜਿੱਥੇ ਤੈਨਾਤ ਹੈ ਉਹਨਾਂ ਵਾਤਾਵਰਣਾਂ ਨੂੰ "ਹਾਰਡਨ" ਕਰਨਾ ਤਾਂ ਜੋ ਦੁਰਵਰਤੋਂ ਤੋਂ ਬਚਿਆ ਜਾ ਸਕੇ

ਕਈ ਤਕਨਿਕਾਂ ਨੂੰ ਸਿਧਾਂਤਕ ਜਾਂ ਅਪਰਿਪੱਕ ਪਾਇਆ ਜਾਣ ਦੇ ਬਾਵਜੂਦ, ਡੀਪਮਾਈਂਡ AI ਕਮਿਊਨਿਟੀ ਨੂੰ ਗੰਭੀਰ ਸੁਰੱਖਿਆ ਯੋਜਨਾ ਦੇਰੀ ਨਾਲ ਨਾ ਕਰਨ ਦੀ ਅਪੀਲ ਕਰਦਾ ਹੈ। "AGI ਨੂੰ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਬਣਾਉਣ ਲਈ,” ਲੇਖਕ ਦਲੀਲ ਕਰਦੇ ਹਨ, "ਅਗੇਹਰਾਂ ਨੂੰ ਗੰਭੀਰ ਨੁਕਸਾਨਾਂ ਨੂੰ ਘਟਾਉਣ ਲਈ ਪਹਿਲ ਤੋਂ ਹੀ ਯੋਜਨਾ ਬਣਾਉਣੀ ਚਾਹੀਦੀ ਹੈ।”

ਅਕਾਦਮਿਕ ਕਮਿਊਨਿਟੀ ਵਲੋਂ ਵਿਰੋਧ

ਹਾਲਾਂਕਿ, ਸਾਰੇ ਵਿਸ਼ੇਸ਼ਗਿਆਨ ਇਸ ਨਾਲ ਸਹਿਮਤ ਨਹੀਂ ਹਨ। ਹੈਡੀ ਖਲਾਫ, AI ਨਾਊ ਇੰਸਟੀਟਿਊਟ ਦੀ ਮੁੱਖ AI ਵਿਗਿਆਨੀ, ਨੇ ਰਿਪੋਰਟ ਦੀ ਫ੍ਰੇਮਿੰਗ ਦੀ ਆਲੋਚਨਾ ਕੀਤੀ, ਕਹਿੰਦੇ ਕਿ AGI ਇੱਕ ਬਹੁਤ ਹੀ ਅਸਪਸ਼ਟ ਸੰਕਲਪ ਹੈ ਜਿਸਦਾ ਸਖਤੀ ਨਾਲ ਮੁਲਾਂਕਣ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ।

ਮੈਥਿਊ ਗੁਜ਼ਦਿਆਲ, ਯੂਨੀਵਰਸਿਟੀ ਆਫ ਅਲਬਰਟਾ ਵਿਚ ਸਹਾਇਕ ਪ੍ਰੋਫੈਸਰ, ਨੇ ਵੀ ਰਿਕਰਸਿਵ ਸੁਧਾਰ 'ਤੇ ਸੰਦੇਹ ਪ੍ਰਗਟ ਕੀਤਾ। "ਇਹ ਵਿਸ਼ੇਸ਼ਤਾ ਲਈ ਤਰਕ ਦਾ ਆਧਾਰ ਹੈ, ਪਰ ਅਸੀਂ ਇਸਦੇ ਕੰਮ ਕਰਨ ਲਈ ਕੋਈ ਸਬੂਤ ਨਹੀਂ ਦੇਖਿਆ ਹੈ,” ਉਨ੍ਹਾਂ ਕਿਹਾ।

ਇਸ ਦੇ ਨਾਲ ਹੀ, ਆਕਸਫੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੀ ਸੈਂਡਰਾ ਵਾਚਟਰ ਨੇ ਇੱਕ ਹੋਰ ਤੁਰੰਤ ਚਿੰਤਾ ਉਤਪੰਨ ਕੀਤੀ: ਜਨਰੇਟਿਵ AI ਮਾਡਲਾਂ ਗਲਤ ਜਾਂ ਭਰਮਾਤਮਕ ਡੇਟਾ ਤੋਂ ਸਿਖ ਰਹੇ ਹਨ। "ਅਸੀਂ ਪਹਿਲਾਂ ਹੀ ਦੇਖ ਰਹੇ ਹਾਂ ਕਿ AI ਆਪਣੇ ਗਲਤੀਆਂ ਨੂੰ ਸਹੀ ਮੰਨਦਾ ਜਾ ਰਿਹਾ ਹੈ,” ਉਨ੍ਹਾਂ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ। "ਇਹ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਸੁਰੱਖਿਆ ਮੁੱਦਾ ਹੈ।”

ਵਾਦ-ਵਿਵਾਦ ਜਾਰੀ ਹੈ

ਹਾਲਾਂਕਿ ਡੀਪਮਾਈਂਡ ਦੀ ਪ੍ਰਕਾਸ਼ਨਾ ਹੁਣ ਤੱਕ ਦੇ ਸਭ ਤੋਂ ਵਿਸਤ੍ਰਿਤ ਰੋਡਮੈਪਾਂ ਵਿੱਚ ਹੈ, ਇਹ ਸਹਿਮਤੀ ਨਹੀਂ ਲਿਆ ਸਕਦੀ। AGI ਦੀ ਸੰਭਾਵਨਾ, ਸਮੇਂ ਦੀ ਰੇਖਾ ਅਤੇ ਖਤਰੇ ਦੇ ਪ੍ਰੋਫਾਈਲ ਬਾਰੇ ਅਸਹਿਮਤੀਆਂ ਜਾਰੀ ਹਨ—ਇਹ ਸਵਾਲ ਖੁੱਲ੍ਹਾ ਛੱਡ ਰਹੇ ਹਨ ਕਿ ਤਕਨੀਕ ਦੇ ਸਭ ਤੋਂ ਉੱਚੇ ਸਟੇਕ ਫਰੰਟੀਅਰਾਂ ਵਿੱਚ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧਣ ਨੂੰ ਕੀ ਤਰੀਕੇ ਨਾਲ ਸੰਭਾਲਣਾ ਚਾਹੀਦਾ ਹੈ।

CLAILA ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਤੁਸੀਂ ਹਰ ਹਫ਼ਤੇ ਲੰਮੇ ਸਮੱਗਰੀ ਬਣਾਉਣ ਵਿੱਚ ਘੰਟਿਆਂ ਬਚਾ ਸਕਦੇ ਹੋ।

ਮੁਫ਼ਤ ਵਿੱਚ ਸ਼ੁਰੂ ਕਰੋ