DeepMind, το ερευνητικό εργαστήριο τεχνητής νοημοσύνης της Google, κυκλοφόρησε ένα εκτενές έγγραφο 145 σελίδων που περιγράφει τη στρατηγική του για την αντιμετώπιση των πιθανών κινδύνων της Γενικής Τεχνητής Νοημοσύνης (AGI)—AI ικανής να εκτελεί οποιαδήποτε διανοητική εργασία μπορεί να κάνει ένας άνθρωπος. Το έγγραφο, συγγραφέας του οποίου είναι ο συνιδρυτής της DeepMind, Shane Legg, προβλέπει την άφιξη αυτού που αποκαλεί Εξαιρετική AGI πριν το τέλος της δεκαετίας.
Σύμφωνα με την έκθεση, η Εξαιρετική AGI θα ταιριάζει με τις ικανότητες του κορυφαίου 1% των ανθρώπινων ενηλίκων σε ένα ευρύ φάσμα γνωστικών εργασιών, συμπεριλαμβανομένων αυτών που απαιτούν μεταγνωστικές ικανότητες. Η DeepMind υποστηρίζει ότι αυτό το είδος νοημοσύνης μπορεί να φέρει μεταμορφωτικά κοινωνικά οφέλη, αλλά και σοβαρούς κινδύνους—συμπεριλαμβανομένων υπαρξιακών απειλών που θα μπορούσαν να θέσουν σε κίνδυνο το μέλλον της ανθρωπότητας.
Αντίθεση Φιλοσοφιών για την Ασφάλεια της AGI
Η DeepMind τοποθετεί την προσέγγισή της ως πιο προσγειωμένη από εκείνη των ανταγωνιστών όπως η Anthropic και η OpenAI, επικρίνοντάς τους για την υποτίμηση των αυστηρών μέτρων ασφαλείας ή την υπερβολική έμφαση στην έρευνα ευθυγράμμισης αυτοματοποίησης.
Ενώ αναφέρεται ότι η OpenAI στρέφει τώρα την εστίασή της στην ανάπτυξη της υπερνοημοσύνης, οι συγγραφείς της DeepMind εκφράζουν σκεπτικισμό για τη βραχυπρόθεσμη βιωσιμότητα τέτοιων συστημάτων χωρίς σημαντικές ανακαλύψεις στην αρχιτεκτονική. Ωστόσο, θεωρούν την αναδρομική αυτοβελτίωση—AI που βελτιώνει το ίδιο του το σχεδιασμό μέσω έρευνας—πιθανή και ενδεχομένως επικίνδυνη.
Ένας Οδικός Χάρτης Ασφαλείας, Ακόμα Υπό Κατασκευή
Σε ένα γενικό επίπεδο, το έγγραφο περιγράφει αρκετές αρχικές λύσεις, όπως:
- Αποκλεισμό πρόσβασης σε συστήματα AGI από κακόβουλους παράγοντες
- Ενίσχυση της ερμηνευσιμότητας για καλύτερη κατανόηση των αποφάσεων AI
- "Σκλήρυνση" των περιβαλλόντων όπου αναπτύσσεται η AI για την αποτροπή κακής χρήσης
Παρά την αναγνώριση ότι πολλές τεχνικές παραμένουν θεωρητικές ή ανώριμες, η DeepMind παροτρύνει την κοινότητα AI να μην καθυστερεί σοβαρό σχεδιασμό ασφαλείας. "Για να κατασκευάσουμε AGI υπεύθυνα," υποστηρίζουν οι συγγραφείς, "οι προγραμματιστές της πρώτης γραμμής πρέπει να σχεδιάσουν εκ των προτέρων για την αντιμετώπιση σοβαρών κινδύνων."
Αντίδραση από την Ακαδημαϊκή Κοινότητα
Ωστόσο, δεν είναι όλοι οι ειδικοί πεπεισμένοι. Η Heidy Khlaaf, επικεφαλής επιστήμονας AI στο AI Now Institute, επέκρινε τον τρόπο πλαισίωσης του έγγραφου, προτείνοντας ότι η AGI είναι πολύ ασαφής έννοια για να αξιολογηθεί με ακρίβεια.
Ο Matthew Guzdial, επίκουρος καθηγητής στο Πανεπιστήμιο της Αλμπέρτα, επίσης εξέφρασε αμφιβολίες για την αναδρομική βελτίωση. "Είναι η βάση για τα επιχειρήματα περί μοναδικότητας, αλλά δεν έχουμε δει ποτέ καμία απόδειξη ότι λειτουργεί," είπε.
Εν τω μεταξύ, η Sandra Wachter από το Πανεπιστήμιο της Οξφόρδης υπογράμμισε μια πιο άμεση ανησυχία: τα γενετικά μοντέλα AI που μαθαίνουν από ανακριβή ή φανταστικά δεδομένα. "Ήδη βλέπουμε την AI να ενισχύει τα δικά της λάθη," προειδοποίησε. "Αυτό είναι ένα σημαντικό ζήτημα ασφαλείας."
Η Συζήτηση Συνεχίζεται
Ενώ η δημοσίευση της DeepMind είναι από τους πιο λεπτομερείς οδικούς χάρτες μέχρι σήμερα, μπορεί να μην φέρει συναίνεση. Οι διαφωνίες σχετικά με τη δυνατότητα, το χρονοδιάγραμμα και το προφίλ κινδύνου της AGI παραμένουν—αφήνοντας ανοιχτό το ερώτημα για το πώς να εξισορροπηθεί καλύτερα η γρήγορη πρόοδος με την προσοχή σε έναν από τους πιο κρίσιμους τομείς της τεχνολογίας.