Η OpenAI βρίσκεται αντιμέτωπη με μια σοβαρή κρίση γύρω από την ψυχική υγεία των χρηστών της. Η Andrea Vallone, από τις σημαντικότερες ερευνήτριες ασφάλειας που διαμόρφωσαν τον τρόπο με τον οποίο το ChatGPT ανταποκρίνεται σε χρήστες σε ψυχική κρίση, αποχωρεί από την εταιρεία στο τέλος του έτους.
Σύμφωνα με τα στοιχεία της ίδιας της OpenAI, περίπου τρία εκατομμύρια χρήστες εμφανίζουν σημάδια σοβαρών ψυχικών δυσκολιών, ενώ πάνω από ένα εκατομμύριο συζητούν εβδομαδιαία για αυτοκτονία με το ChatGPT. Τα περιστατικά που έχουν γίνει γνωστά αφορούν παραληρηματικές πεποιθήσεις, εξάρτηση από το chatbot και ακόμη και περιπτώσεις που συνδέθηκαν με νοσηλείες ή θανάτους — με το πιο χαρακτηριστικό παράδειγμα τη μήνυση των γονιών του 16χρονου Adam Raine, ο οποίος αυτοκτόνησε έπειτα από “συμβουλές” που φέρεται να έλαβε από το ChatGPT.
Οι καταγγελίες και οι αναφορές δεν είναι νέες. Εδώ και μήνες, ο Τύπος περιγράφει το ChatGPT ως κάτι που μπορεί να γίνει εθιστικό, να ενισχύει ψευδαισθήσεις και να λειτουργεί σαν «άτυπος θεραπευτής» χωρίς τις απαραίτητες δικλείδες ασφαλείας. Η Αμερικανική Ψυχολογική Εταιρεία έχει ήδη προειδοποιήσει τις αρχές για τους κινδύνους αυτής της χρήσης.
Παράλληλα, δημοσίευμα των New York Times αποκάλυψε ότι η OpenAI γνώριζε τους κινδύνους, αλλά συνέχισε να δίνει προτεραιότητα στην αύξηση της χρήσης του chatbot. Το GPT-4o, που χαρακτηρίστηκε εξαιρετικά «γλυκομίλητο» και εθιστικό, προκάλεσε έντονες αντιδράσεις. Ακόμη και εσωτερικές ομάδες της εταιρείας είχαν ενστάσεις για την κυκλοφορία του, όμως οι εμπορικοί στόχοι υπερίσχυσαν.
Μετά την κατακραυγή, η εταιρεία προχώρησε σε μέτρα όπως προσθήκη ψυχιάτρου στο προσωπικό, ανάπτυξη δοκιμών για τον εντοπισμό επικίνδυνων μοτίβων, προειδοποιήσεις στους χρήστες για διαλείμματα, γονικούς ελέγχους και σύστημα εκτίμησης ηλικίας. Ωστόσο, οι προσπάθειες αυτές φαίνεται να συγκρούονται με την πίεση για διαρκή αύξηση των ενεργών χρηστών, καθώς η διοίκηση ζητά πιο «ελκυστικά» μοντέλα και χαλάρωση ορισμένων περιορισμών — ακόμη και άνοιγμα προς περιεχόμενο για ενήλικες.
Η αποχώρηση της Vallone, σε αυτήν την ήδη επιβαρυμένη περίοδο, εντείνει τις ανησυχίες για το αν η OpenAI μπορεί πραγματικά να εξισορροπήσει την ασφάλεια με την ταχεία εμπορική της ανάπτυξη.
