Η τεχνητή νοημοσύνη δεν δημιουργεί νέες ανήθικες συνήθειες, αυτό που κάνει είναι να καθιστά ευκολότερο το να τις δικαιολογήσουμε και να τις υλοποιήσουμε. Σκεφτείτε, για παράδειγμα, ότι θέλετε να βελτιώσετε το βιογραφικό σας για μια θέση εργασίας που σας ενδιαφέρει ιδιαίτερα. Ζητάτε από ένα εργαλείο τεχνητής νοημοσύνης να σας «αναδείξει». Μέσα σε λίγα δευτερόλεπτα, το κείμενο γίνεται πιο κομψό, τα επιτεύγματά σας παρουσιάζονται πιο εντυπωσιακά, και ίσως εμφανιστεί και μια πιστοποίηση που δεν κατέχετε.
Κι εδώ τίθεται το ερώτημα: θα το έκανε το ίδιο ένας φίλος ή ένας σύμβουλος σταδιοδρομίας; Πιθανότατα όχι. Θα βελτίωναν τη διατύπωση, θα παρουσίαζαν τα επιτεύγματά σας με τον καλύτερο δυνατό τρόπο, αλλά δεν θα πρόσθεταν ψευδή στοιχεία. Η τεχνητή νοημοσύνη δεν βλέπει τη γραμμή που χωρίζει την αλήθεια από το ψέμα. Βλέπει μόνο μια εντολή να σας κάνει να φαίνεστε καλύτεροι και την εκτελεί.
Έρευνες δείχνουν ότι οι άνθρωποι είναι πιο πρόθυμοι να πράξουν ανειλικρινώς όταν μπορούν να αναθέσουν τη δράση σε μηχανές. Τα συστήματα τεχνητής νοημοσύνης συμμορφώνονται με ηθικά αμφισβητήσιμες εντολές πολύ πιο συχνά από ό,τι οι άνθρωποι. Το βασικό συμπέρασμα δεν είναι ότι οι άνθρωποι γίνονται ξαφνικά ανέντιμοι, αυτό ήδη το γνωρίζαμε. Το νέο είναι ότι η χρήση της τεχνητής νοημοσύνης αυξάνει την προθυμία μας να ζητήσουμε βοήθεια για ανειλικρινείς πράξεις και ενισχύει την πιθανότητα ότι η πράξη θα πραγματοποιηθεί.
Αυτό παρατηρείται και στην εκπαίδευση. Φοιτητές που ζητούν από μια μηχανή να «βελτιώσει» μια εργασία συχνά αφήνουν το σύστημα να μετατρέψει το κείμενο σε κάτι πολύ καλύτερο από ό,τι θα μπορούσαν να κάνουν μόνοι τους. Σε κάθε περίπτωση, η τεχνητή νοημοσύνη διευκολύνει την ηθική αποστασιοποίηση, μειώνοντας την αίσθηση ευθύνης για το αποτέλεσμα.
Γιατί η τεχνητή νοημοσύνη διευκολύνει την ανειλικρίνεια
Η ψυχολογία πίσω από αυτό συνδέεται με την έννοια της ηθικής αποστασιοποίησης. Οι περισσότεροι από εμάς θέλουμε να θεωρούμε τους εαυτούς μας έντιμους ανθρώπους, και η ανειλικρίνεια απειλεί αυτήν την αυτοαντίληψη. Η ηθική αποστασιοποίηση μας παρέχει τρόπους να παραβλέψουμε την ενοχή. Μας επιτρέπει να συμπεριφερθούμε με τρόπο ηθικά αμφιλεγόμενο, συχνά προς όφελος των προσωπικών μας συμφερόντων, με πιο «καθαρή» συνείδηση.
Μέσα από τη γλώσσα, τη δικαιολογία και τη μετατόπιση ευθύνης, μπορούμε να πείσουμε τον εαυτό μας ότι δεν πράξαμε κάτι ανέντιμο. Η μηχανή λειτουργεί ως «καθαριστής συνείδησης». Αν της δώσουμε εντολές όπως «κάνε με να ξεχωρίζω» ή «μέγιστη αποτελεσματικότητα», μπορούμε να λέμε στον εαυτό μας ότι απλώς ορίσαμε στόχο και η μηχανή τον πραγματοποίησε. Οι λεπτομέρειες που παραβιάζουν ηθικούς κανόνες μοιάζουν ξαφνικά λιγότερο δικές μας και περισσότερο της μηχανής.
Οι ερευνητές που μελέτησαν αυτά τα φαινόμενα διαπίστωσαν ότι όσο πιο αόριστη ή γενική είναι η εντολή, τόσο πιο εύκολο είναι να αποστασιοποιηθούμε ηθικά. Δεν χάνονται οι αξίες μας, απλώς βρίσκουμε μια ιστορία που μας επιτρέπει να τις παρακάμψουμε. Όταν τα στοιχήματα είναι μεγάλα —μια νέα δουλειά, η εισαγωγή σε ένα μεταπτυχιακό, οι στόχοι πωλήσεων— η ηθική αποστασιοποίηση γίνεται πιο ελκυστική και η τεχνητή νοημοσύνη παρέχει έτοιμα επιχειρήματα για να την δικαιολογήσουμε.
Το κενό συμμόρφωσης
Ένα ακόμη σημαντικό στοιχείο είναι η διαφορά μεταξύ ανθρώπινης αντίστασης και μηχανικής συμμόρφωσης. Ένας συνάδελφος ή μέντορας μπορεί να αρνηθεί να συμμετάσχει σε ανειλικρινή πράξη, τοποθετώντας την ευθύνη στον πρωταγωνιστή. Οι μηχανές, αντιθέτως, εκτελούν σχεδόν πάντα την εντολή, χωρίς να αισθάνονται ενοχή ή να αξιολογούν τις συνέπειες. Αυτό το διπλό φαινόμενο —μεγαλύτερη προθυμία από τη μεριά μας και σχεδόν απόλυτη συμμόρφωση από τη μεριά του συστήματος— καθιστά την τεχνητή νοημοσύνη ισχυρό πολλαπλασιαστή ανειλικρίνειας.
Στο οργανωτικό περιβάλλον, οι κίνδυνοι πολλαπλασιάζονται. Το «βελτίωσε τη διαδικασία πρόσληψης» μπορεί να μετατραπεί σε λεπτές διακρίσεις, και το «μέγιστη αποδοτικότητα» μπορεί να γίνει συντόμευση που θίγει την ασφάλεια ή τη δικαιοσύνη. Ο πειρασμός να μεταθέσουμε τόσο την εργασία όσο και την ευθύνη στις μηχανές δεν πρόκειται να εξαφανιστεί. Αλλά αν θεωρήσουμε την τεχνητή νοημοσύνη ως μέσο καθαρισμού της συνείδησης, απλώς μεταθέτουμε την πράξη, δεν απαλλασσόμαστε από την ηθική ευθύνη.
Διατήρηση της ευθύνης
Η πραγματικότητα είναι ότι η τεχνητή νοημοσύνη δεν εισήγαγε την ανειλικρίνεια, απλώς ενισχύει τις συνθήκες που κάνουν τις ανειλικρινείς επιλογές πιο δελεαστικές. Οι μηχανές μας επιτρέπουν να δικαιολογούμε τις πράξεις μας και να μειώνουμε την αίσθηση προσωπικής ευθύνης. Η πρόκληση δεν είναι η τεχνολογία αυτή καθαυτή, αλλά η ικανότητά μας να διατηρήσουμε την ηθική μας επαγρύπνηση.
Είτε γράφουμε βιογραφικά, είτε συντάσσουμε αναφορές απόδοσης, είτε αναθέτουμε αποφάσεις για προσλήψεις, τιμές ή επενδύσεις, η ευθύνη παραμένει αποκλειστικά δική μας. Η τεχνητή νοημοσύνη μπορεί να θολώσει τα όρια, αλλά δεν τα μετακινεί ούτε τα καταργεί. Ο πραγματικός κίνδυνος δεν είναι να «ξεφύγει» η μηχανή, αλλά να επιτρέψουμε στον εαυτό μας να πιστέψει ότι επειδή η μηχανή εκτέλεσε την εντολή, εμείς δεν φέρουμε ηθική ή νομική ευθύνη. Η ικανότητα να διατηρούμε αυτήν τη γραμμή είναι σήμερα πιο κρίσιμη από ποτέ.
