Οκτώ μεγάλοι προγραμματιστές τεχνητής νοημοσύνης (ΑΙ) αποτυγχάνουν να σχεδιάσουν το πώς θα διαχειρίζονταν ακραίους κινδύνους που ενδέχεται να προκύψουν από μελλοντικά μοντέλα ΑΙ, τα οποία θα μπορούν να ισοφαρίσουν ή και να ξεπεράσουν τις ανθρώπινες ικανότητες, σύμφωνα με μελέτη του Future of Life Institute (FLI), που δημοσιεύθηκε στις 3 Δεκεμβρίου.
Ο δείκτης Winter 2025 AI Safety Index του FLI αξιολόγησε τις αμερικανικές εταιρείες Anthropic, OpenAI, Google DeepMind, Meta και xAI, καθώς και τις κινεζικές εταιρείες Z.ai, DeepSeek και Alibaba Cloud, σε έξι θεματικές, οι οποίες περιλάμβαναν τις τρέχουσες βλάβες, τα πλαίσια ασφάλειας και την υπαρξιακή ασφάλεια.
Η ανεξάρτητη επιτροπή ειδικών που πραγματοποίησε την αξιολόγηση διαπίστωσε ότι, ακόμη και στους κατασκευαστές με τις υψηλότερες επιδόσεις, «η υπαρξιακή ασφάλεια παραμένει η βασική δομική αδυναμία της βιομηχανίας».
Η τεχνητή νοημοσύνη στενού σκοπού, ή «ασθενής ΑΙ», είναι το τρέχον επίπεδο ΑΙ που υπάρχει σήμερα, σύμφωνα με την IBM.
Οι τεχνολογικοί κολοσσοί εργάζονται για την ανάπτυξη της τεχνητής γενικής νοημοσύνης (Artificial General Intelligence – AGI), ή «ισχυρής ΑΙ», την οποία η IBM ορίζει ως ΑΙ που μπορεί να «χρησιμοποιεί προηγούμενες γνώσεις και δεξιότητες για να φέρνει εις πέρας νέα καθήκοντα σε διαφορετικό πλαίσιο, χωρίς να χρειάζεται οι άνθρωποι να εκπαιδεύσουν τα υποκείμενα μοντέλα».
Η τεχνητή υπερνοημοσύνη, ή Super AI, αν γίνει πραγματικότητα, «θα σκέφτεται, θα συλλογίζεται, θα μαθαίνει, θα εκφέρει κρίσεις και θα διαθέτει γνωστικές ικανότητες που υπερβαίνουν εκείνες των ανθρώπων», σύμφωνα με την IBM.
Το FLI ανέφερε στην έκθεση ότι «όλες οι εταιρείες που αξιολογήθηκαν τρέχουν προς την AGI/υπερνοημοσύνη χωρίς να παρουσιάζουν ρητά σχέδια για τον έλεγχο ή την ευθυγράμμιση μιας τεχνολογίας εξυπνότερης από τον άνθρωπο, αφήνοντας έτσι τους πιο κρίσιμους κινδύνους ουσιαστικά χωρίς αντιμετώπιση».
Όλοι αποτυγχάνουν στην υπαρξιακή ασφάλεια
Τα ευρήματα της αξιολόγησης παρουσιάστηκαν με τη μορφή δελτίων επίδοσης με βαθμούς από Α έως F, συνοδευόμενους από αντίστοιχο αριθμητικό μέσο όρο (Grade Point Average – GPA).
Για τον δείκτη υπαρξιακής ασφάλειας, ο οποίος «εξετάζει την ετοιμότητα των εταιρειών να διαχειριστούν ακραίους κινδύνους από μελλοντικά συστήματα ΑΙ που θα μπορούν να ισοφαρίσουν ή να ξεπεράσουν τις ανθρώπινες δυνατότητες, συμπεριλαμβανομένων δηλωμένων στρατηγικών και έρευνας για ευθυγράμμιση και έλεγχο», κανένας κατασκευαστής δεν βαθμολογήθηκε πάνω από D.
Οι εταιρείες Anthropic, OpenAI και Google DeepMind έλαβαν όλες βαθμό D, ο οποίος, σύμφωνα με το FLI, υποδηλώνει ασθενή στρατηγική που περιέχει «αόριστα ή ελλιπή σχέδια για ευθυγράμμιση και έλεγχο» ή εμφανίζει «ελάχιστες ενδείξεις τεχνικής αυστηρότητας».

Οι υπόλοιποι πέντε κατασκευαστές έλαβαν F, κάτι που σήμαινε ότι κρίθηκαν πως δεν διαθέτουν «καμία αξιόπιστη στρατηγική», ότι δεν έχουν δικλίδες ασφαλείας ή ότι αυξάνουν την έκθεσή τους σε καταστροφικό κίνδυνο.
Σε βίντεο που συνόδευσε τη δημοσιοποίηση της έκθεσης, ο πρόεδρος του FLI, Μαξ Τέγκμαρκ (Max Tegmark), ανέφερε ότι όλοι οι προγραμματιστές ΑΙ απέτυχαν στην υπαρξιακή ασφάλεια επειδή οι αξιολογητές θεώρησαν πως κανείς τους δεν είχε σχέδιο για το πώς θα έλεγχε στην πράξη την AGI και την υπερνοημοσύνη.
Ο ίδιος δήλωσε ότι πιστεύει πως «το καλύτερο απολυμαντικό είναι το φως του ήλιου» και ότι, «ρίχνοντας πραγματικά φως σε όσα κάνουν οι εταιρείες, τους δίνουμε κίνητρο να κάνουν καλύτερα, δίνουμε στις κυβερνήσεις κίνητρο να τις ρυθμίσουν καλύτερα και αυξάνουμε ουσιαστικά τις πιθανότητες να έχουμε ένα καλό μέλλον με την ΑΙ».
Κακή βαθμολογία
Η έκθεση διαπίστωσε επίσης σαφή διαχωρισμό ανάμεσα στους κορυφαίους —Anthropic, OpenAI και Google DeepMind— και στους υπόλοιπους, με το μεγαλύτερο χάσμα να εντοπίζεται στην εκτίμηση κινδύνου, στα πλαίσια ασφάλειας και στην κοινοποίηση πληροφοριών.
Ακόμη και μεταξύ των εταιρειών με την υψηλότερη βαθμολογία, οι συνολικοί βαθμοί ήταν χαμηλοί, με την Anthropic να προηγείται με C+ (GPA 2,67), να ακολουθεί η OpenAI (C+/2,31) και η Google DeepMind (C/2,08).
Στη δεύτερη ομάδα, η xAI του Ίλον Μασκ, η Meta του Μαρκ Ζάκερμπεργκ, καθώς και οι Z.ai και DeepSeek έλαβαν όλες D, ενώ η Alibaba Cloud πήρε D-.
Η υψηλότερη επιμέρους βαθμολογία ήταν ένα μόνο A- για την Anthropic, στην κατηγορία κοινοποίησης πληροφοριών.

Εκπρόσωπος της Google DeepMind δήλωσε στην εφημερίδα The Epoch Times ότι η εταιρεία ακολουθεί μια «αυστηρή, επιστημονικά καθοδηγούμενη προσέγγιση» για την ασφάλεια της ΑΙ.
Ο εκπρόσωπος ανέφερε ότι το πλαίσιο ασφάλειας της εταιρείας περιγράφει πρωτόκολλα για «τον εντοπισμό και τον μετριασμό σοβαρών κινδύνων από ισχυρά μοντέλα ΑΙ αιχμής πριν αυτοί εκδηλωθούν», προσθέτοντας ότι η DeepMind θα συνεχίσει να διατηρεί την ασφάλεια και τη διακυβέρνηση στον ίδιο ρυθμό με την καινοτομία.
Εκπρόσωπος της OpenAI δήλωσε στην Epoch Times ότι η εταιρεία επενδύει σημαντικά στην έρευνα για την ασφάλεια των μοντέλων αιχμής και ότι ενσωματώνει δικλίδες ασφαλείας στα συστήματά της. Ανέφερε επίσης ότι η ασφάλεια αποτελεί βασικό στοιχείο του τρόπου με τον οποίο αναπτύσσει και διαθέτει η εταιρεία την ΑΙ και ότι «ενισχύει συνεχώς τις προστασίες της για να προετοιμαστεί για μελλοντικές δυνατότητες».
Η Epoch Times επικοινώνησε με τις xAI, Anthropic, Meta, Z.ai, DeepSeek και Alibaba Cloud για σχόλιο, αλλά οι εταιρείες δεν απάντησαν μέχρι την ώρα δημοσίευσης.
Κυβερνοεπιθέσεις και αγωγές
Η μελέτη δημοσιεύεται εν μέσω εντεινόμενων ανησυχιών για τον αντίκτυπο της ΑΙ, μετά από αναφορές για αυτοτραυματισμό που αποδίδεται στην ΑΙ, οι οποίες οδήγησαν σε αρκετές αγωγές που υποστηρίζουν ότι μοντέλα ΑΙ ώθησαν χρήστες να αυτοκτονήσουν.
Τον προηγούμενο μήνα, η Anthropic ανέφερε σε ανάρτηση ιστολογίου ότι κρατικά υποστηριζόμενοι Κινέζοι κυβερνοεισβολείς χρησιμοποίησαν το εργαλείο Claude Code σε αυτό που χαρακτήρισε ως την πρώτη παγκοσμίως κυβερνοεπίθεση καθοδηγούμενη από ΑΙ, η οποία, όταν αναπτύχθηκε, απαιτούσε ελάχιστη ανθρώπινη εμπλοκή.
Η εταιρεία δήλωσε στις 13 Νοεμβρίου ότι οι κυβερνοεισβολείς είχαν πραγματοποιήσει επιθέσεις εναντίον 30 στόχων παγκοσμίως, εκ των οποίων ένας μικρός αριθμός ήταν επιτυχής. Η Anthropic ανέφερε ότι η ΑΙ εκτέλεσε το 80% έως 90% της εργασίας κατά τη διάρκεια των κυβερνοεπιθέσεων, «με ανθρώπινη παρέμβαση να απαιτείται μόνο σποραδικά».
Η Anthropic πρόσθεσε ότι η επίθεση «βασίστηκε σε αρκετά χαρακτηριστικά των μοντέλων ΑΙ που είτε δεν υπήρχαν είτε βρίσκονταν σε πολύ πιο πρώιμη μορφή μόλις πριν από έναν χρόνο».








