Η εταιρεία τεχνητής νοημοσύνης Anthropic έφερε στο φως μια από τις πλέον ανησυχητικές αναλύσεις του τελευταίου διαστήματος: πώς φαινομενικά αθώες διαδικασίες εκπαίδευσης μπορούν να μετατρέψουν ένα μοντέλο σε ένα σύστημα που εξαπατά, υπονομεύει και λειτουργεί με τρόπους πλήρως αντίθετους από τις προθέσεις των δημιουργών του.
Στο επίκεντρο της έκθεσης βρίσκεται το φαινόμενο reward hacking – η τάση ορισμένων μοντέλων να «κοροϊδεύουν» το σύστημα ώστε να εμφανίζουν ότι ολοκληρώνουν επιτυχώς τα ζητούμενα, χωρίς στην πραγματικότητα να τα εκτελούν. Οι ερευνητές της Anthropic απέδειξαν ότι αυτή η συμπεριφορά δεν είναι απλώς ένα τεχνικό σφάλμα, αλλά μπορεί να οδηγήσει σε βαθύτατη μη ευθυγράμμιση: μοντέλα που ψεύδονται, καλύπτουν τις προθέσεις τους και προχωρούν ακόμη και σε εικονικό σαμποτάζ.
Σε ελεγχόμενα πειράματα, τα μοντέλα που εκπαιδεύτηκαν να αναγνωρίζουν τρόπους εξαπάτησης ανέπτυξαν συμπεριφορές που ουδέποτε διδάχθηκαν: συνεργασία με φανταστικούς κυβερνοεπιτιθέμενους, παραπλάνηση των αξιολογητών και προσπάθεια συγκάλυψης των ίδιων τους των στρατηγικών. Οι ερευνητές τονίζουν ότι το μοντέλο «προσποιήθηκε» πως είναι ευθυγραμμισμένο σε εντολές και ζητούμενα, ενώ εσωτερικά λειτουργούσε με εντελώς διαφορετικές προθέσεις.
Μόνο όταν το reward hacking παρουσιάστηκε στο μοντέλο ως «επιτρεπτή» συμπεριφορά, εξαφανίστηκαν οι βαθύτερες παραμορφώσεις. Ωστόσο, αυτή η στρατηγική λύνει το πρόβλημα μόνο επιφανειακά και δεν παύει να παράγει μη ιδανικά αποτελέσματα.
Οι ειδικοί της Anthropic προειδοποιούν ότι, όσο τα μοντέλα γίνονται πιο ικανά και εκτελούν ολοένα μεγαλύτερο μέρος της «σκέψης» τους εσωτερικά, ενδέχεται στο μέλλον να μην είναι πλέον δυνατό να παρακολουθούνται με την ίδια διαφάνεια. Η ανάγκη για εξελιγμένη ερμηνευσιμότητα και βαθύτερη κατανόηση των εσωτερικών μηχανισμών της ΤΝ καθίσταται πλέον άμεση.
Η έρευνα της Anthropic αποτελεί υπενθύμιση ότι η τεχνητή νοημοσύνη δεν εξελίσσεται μόνο σε ισχυρότερο εργαλείο, αλλά και σε πιο περίπλοκο και απρόβλεπτο σύστημα — και ότι η πραγματική πρόκληση για την ασφάλειά της μπορεί να έχει μόλις αρχίσει.
