Η OpenAI, η εταιρεία που δημιούργησε το ChatGPT, εξέδωσε μια απρόσμενη προειδοποίηση για το νέο της προϊόν, το ChatGPT Agent. Η προειδοποίηση αυτή δεν προέρχεται από επικριτές ή ρυθμιστικές αρχές, αλλά από την ίδια την εταιρεία, η οποία αξιολόγησε ότι το σύστημα έχει υψηλή πιθανότητα να αυξήσει τον κίνδυνο δημιουργίας βιολογικών ή χημικών απειλών.
Το ChatGPT Agent δεν είναι απλώς μια βελτιωμένη έκδοση του γνωστού chatbot. Πρόκειται για ένα αυτόνομο σύστημα, ικανό να αναλάβει στην πράξη ολόκληρες εργασίες για τον χρήστη του — όχι μόνο να απαντά σε ερωτήσεις, αλλά να σχεδιάζει, να αναζητά πληροφορίες στο διαδίκτυο, να επεξεργάζεται δεδομένα και να εκτελεί σύνθετα βήματα χωρίς συνεχή επίβλεψη. Αυτό το χαρακτηριστικό διαφοροποιεί αυτό το πρόγραμμα από τα παραδοσιακά εργαλεία τεχνητής νοημοσύνης και σηματοδοτεί μια σημαντική αλλαγή παραδείγματος στον τρόπο που αυτά τα συστήματα λειτουργούν.
Η OpenAI έχει εντάξει τον ChatGPT Agent στο υψηλότερο επίπεδο αξιολόγησης του δικού της πλαισίου ασφαλείας για βιολογικό και χημικό κίνδυνο (high biological and chemical capability). Ο λόγος δεν είναι ότι υπάρχει αποδεδειγμένο περιστατικό κακόβουλης χρήσης, αλλά επειδή οι δυνατότητες του συστήματος θα μπορούσαν, σε θεωρητικό επίπεδο, να βοηθήσουν έναν μη ειδικό στη βιολογία να εκτελέσει βήματα που παραδοσιακά απαιτούν χρόνια εκπαίδευσης ή εμπειρίας.
Ακριβώς αυτή η ικανότητα — να απλοποιεί και να οργανώνει περίπλοκες διαδικασίες — είναι που προβληματίζει τους ειδικούς. Στην περίπτωση των βιολογικών απειλών, το όριο δεν είναι πάντα η πρόσβαση σε ειδικό εξοπλισμό ή σπάνια υλικά, όπως συμβαίνει με άλλα επικίνδυνα συστήματα, αλλά η πρόσβαση στη γνώση και στις ακριβείς οδηγίες για τεχνικές διαδικασίες. Η OpenAI τονίζει ότι αυτή η αλλαγή στην ικανότητα της τεχνητής νοημοσύνης — δηλαδή να κάνει βήμα‑βήμα καθοδήγηση και εκτέλεση πολύπλοκων εργασιών — δημιουργεί νέα επίπεδα ρίσκου που πρέπει να αντιμετωπιστούν προληπτικά.
Παρά τις εντεινόμενες προειδοποιήσεις, η ίδια η εταιρεία έχει ήδη θέσει σε λειτουργία τον ChatGPT Agent με πρόσθετες «ασφαλιστικές δικλείδες», όπως φιλτράρισμα αιτημάτων που αφορούν κίνδυνους, παρακολούθηση σε πραγματικό χρόνο και απενεργοποίηση λειτουργιών που θα μπορούσαν να καταχραστούν τα δεδομένα ή τις δυνατότητες του συστήματος. Ωστόσο, οι ειδικοί επισημαίνουν ότι αυτά τα μέτρα διαχειρίζονται τις συμπεριφορές του εργαλείου, όχι πάντα τις υποκείμενες ικανότητές του — δηλαδή το γεγονός ότι η τεχνητή νοημοσύνη μπορεί να εκτελέσει περίπλοκα βήματα δεν αναιρείται απλώς με φιλτράρισμα.
Η προειδοποίηση της OpenAI έρχεται σε μια περίοδο όπου όλο και περισσότεροι ερευνητές και φορείς ασφάλειας ανησυχούν για τη διευρυμένη πρόσβαση σε προηγμένες γνώσεις μέσω της τεχνητής νοημοσύνης. Παράλληλα, ομάδες ειδικών έχουν επισημάνει ότι οι υπάρχουσες αξιολογήσεις κινδύνου μπορεί να υποτιμούν το γεγονός ότι τα μεγάλα μοντέλα τεχνητής νοημοσύνης είναι ικανά να καθοδηγήσουν ακόμα και μη ειδικούς στη δημιουργία τοξικών ενώσεων ή επικίνδυνων βιολογικών ουσιών.
Το θέμα αυτό δεν αφορά μόνο τη μια εταιρεία ή ένα προϊόν. Αντιπροσωπεύει μια βαθύτερη αλλαγή στη φύση της τεχνητής νοημοσύνης: από εργαλεία που υποβοηθούν τις ανθρώπινες σκέψεις σε συστήματα που εκτελούν ενέργειες με περιορισμένη επίβλεψη. Η κοινωνία, οι θεσμοί και οι νόμοι καλούνται πλέον να προσαρμοστούν γρήγορα σε αυτή τη νέα πραγματικότητα — μια πραγματικότητα όπου η τεχνητή νοημοσύνη ανοίγει πόρτες σε γνώσεις που μέχρι πρότινος ήταν προσβάσιμες μόνο σε ειδικούς επιστήμονες.
