Σάββατο, 17 Ιαν, 2026
Στιγμιότυπο από τη συνεδρίαση της Συνόδου Κορυφής για την Υπεύθυνη ΑΙ στον Στρατιωτικό Τομέα (REAIM) στη Σεούλ. Νότια Κορέα, 10 Σεπτεμβρίου 2024. (Jung Yeon-je/AFP μέσω Getty Images)

Η υπαρξιακή ασφάλεια είναι η βασική αδυναμία της βιομηχανίας ΑΙ, προειδοποιεί μελέτη

Δείκτης του Future of Life Institute καταλήγει ότι κορυφαίοι κατασκευαστές δεν παρουσιάζουν συγκεκριμένα σχέδια ελέγχου για μελλοντικά μοντέλα που θα ισοφαρίζουν ή θα υπερβαίνουν τις ανθρώπινες δυνατότητες

Οκτώ μεγάλοι προγραμματιστές τεχνητής νοημοσύνης (ΑΙ) αποτυγχάνουν να σχεδιάσουν το πώς θα διαχειρίζονταν ακραίους κινδύνους που ενδέχεται να προκύψουν από μελλοντικά μοντέλα ΑΙ, τα οποία θα μπορούν να ισοφαρίσουν ή και να ξεπεράσουν τις ανθρώπινες ικανότητες, σύμφωνα με μελέτη του Future of Life Institute (FLI), που δημοσιεύθηκε στις 3 Δεκεμβρίου.

Ο δείκτης Winter 2025 AI Safety Index του FLI αξιολόγησε τις αμερικανικές εταιρείες Anthropic, OpenAI, Google DeepMind, Meta και xAI, καθώς και τις κινεζικές εταιρείες Z.ai, DeepSeek και Alibaba Cloud, σε έξι θεματικές, οι οποίες περιελάμβαναν τις τρέχουσες βλάβες, τα πλαίσια ασφαλείας και την υπαρξιακή ασφάλεια.

Η ανεξάρτητη επιτροπή ειδικών που πραγματοποίησε την αξιολόγηση διαπίστωσε ότι, ακόμη και στους κατασκευαστές με τις υψηλότερες επιδόσεις, «η υπαρξιακή ασφάλεια παραμένει η βασική δομική αδυναμία της βιομηχανίας».

Η τεχνητή νοημοσύνη στενού σκοπού, ή «ασθενής ΑΙ», είναι το τρέχον επίπεδο τεχνητής νοημοσύνης που υπάρχει σήμερα, σύμφωνα με την IBM.

Οι τεχνολογικοί κολοσσοί εργάζονται για την ανάπτυξη της τεχνητής γενικής νοημοσύνης (Artificial General Intelligence – AGI), ή «ισχυρής ΑΙ», την οποία η IBM ορίζει ως τεχνητή νοημοσύνη που μπορεί να «χρησιμοποιεί προηγούμενες γνώσεις και δεξιότητες για να φέρνει εις πέρας νέα καθήκοντα σε διαφορετικό πλαίσιο, χωρίς να χρειάζεται οι άνθρωποι να εκπαιδεύσουν τα υποκείμενα μοντέλα».

Η τεχνητή υπερνοημοσύνη, ή Super AI, αν γίνει πραγματικότητα, «θα σκέφτεται, θα συλλογίζεται, θα μαθαίνει, θα εκφέρει κρίσεις και θα διαθέτει γνωστικές ικανότητες που υπερβαίνουν εκείνες των ανθρώπων», σύμφωνα με την IBM.

Το FLI ανέφερε στην έκθεση ότι «όλες οι εταιρείες που αξιολογήθηκαν τρέχουν προς την AGI/υπερνοημοσύνη χωρίς να παρουσιάζουν ρητά σχέδια για τον έλεγχο ή την ευθυγράμμιση μιας τεχνολογίας εξυπνότερης από τον άνθρωπο, αφήνοντας έτσι τους πιο κρίσιμους κινδύνους ουσιαστικά χωρίς αντιμετώπιση».

Όλοι αποτυγχάνουν στην υπαρξιακή ασφάλεια

Τα ευρήματα της αξιολόγησης παρουσιάστηκαν με τη μορφή δελτίων επίδοσης με βαθμούς από Α έως F, συνοδευόμενους από αντίστοιχο αριθμητικό μέσο όρο (Grade Point Average – GPA).

Για τον δείκτη υπαρξιακής ασφάλειας, ο οποίος «εξετάζει την ετοιμότητα των εταιρειών να διαχειριστούν ακραίους κινδύνους από μελλοντικά συστήματα ΑΙ που θα μπορούν να ισοφαρίσουν ή να ξεπεράσουν τις ανθρώπινες δυνατότητες, συμπεριλαμβανομένων δηλωμένων στρατηγικών και έρευνας για ευθυγράμμιση και έλεγχο», κανένας κατασκευαστής δεν βαθμολογήθηκε πάνω από D.

Οι εταιρείες Anthropic, OpenAI και Google DeepMind έλαβαν όλες βαθμό D, ο οποίος, σύμφωνα με το FLI, υποδηλώνει ασθενή στρατηγική που περιέχει «αόριστα ή ελλιπή σχέδια για ευθυγράμμιση και έλεγχο» ή εμφανίζει «ελάχιστες ενδείξεις τεχνικής αυστηρότητας».

Καρέ από βίντεο που δημιουργήθηκε από νέο εργαλείο τεχνητής νοημοσύνης, με την ονομασία Sora, το οποίο παρουσίασε η OpenAI στο Παρίσι, στις 16 Φεβρουαρίου 2024. (Stefano Rellandini/AFP μέσω Getty Images)

 

Οι υπόλοιποι πέντε κατασκευαστές έλαβαν F, κάτι που σημαίνει ότι δεν διαθέτουν «καμία αξιόπιστη στρατηγική», ότι δεν έχουν δικλίδες ασφαλείας ή ότι αυξάνουν την έκθεσή τους σε καταστροφικό κίνδυνο.

Σε βίντεο που συνόδευσε τη δημοσιοποίηση της έκθεσης, ο πρόεδρος του FLI, Μαξ Τέγκμαρκ (Max Tegmark), ανέφερε ότι όλοι οι προγραμματιστές τεχνητής νοημοσύνης απέτυχαν στην υπαρξιακή ασφάλεια επειδή οι αξιολογητές θεώρησαν πως κανείς τους δεν είχε σχέδιο για το πώς θα έλεγχε στην πράξη την AGI και την υπερνοημοσύνη.

Ο ίδιος δήλωσε ότι πιστεύει πως «το καλύτερο απολυμαντικό είναι το φως του ήλιου» και ότι «ρίχνοντας πραγματικά φως σε όσα κάνουν οι εταιρείες, τους δίνουμε κίνητρο να βελτιωθούν, δίνουμε στις κυβερνήσεις κίνητρο να ρυθμίσουν καλύτερα [το πλαίσιο] και αυξάνουμε ουσιαστικά τις πιθανότητες να έχουμε ένα καλό μέλλον με την τεχνητή νοημοσύνη».

Κακή βαθμολογία

Η έκθεση διαπίστωσε επίσης σαφή διαχωρισμό ανάμεσα στις κορυφαίες εταιρείες — Anthropic, OpenAI και Google DeepMind — και στους υπολοίπους, με το μεγαλύτερο χάσμα να εντοπίζεται στην εκτίμηση κινδύνου, στα πλαίσια ασφάλειας και στην κοινοποίηση πληροφοριών.

Ωστόσο, ακόμη και μεταξύ των εταιρειών με την υψηλότερη βαθμολογία, οι συνολικοί βαθμοί ήταν χαμηλοί, με την Anthropic να προηγείται με C+ (GPA 2,67), να ακολουθεί η OpenAI (C+/2,31) και η Google DeepMind (C/2,08).

Στη δεύτερη ομάδα, η xAI του Έλον Μασκ, η Meta του Μαρκ Ζάκερμπεργκ, καθώς και οι Z.ai και DeepSeek έλαβαν όλες D, ενώ η Alibaba Cloud πήρε D-.

Η υψηλότερη επιμέρους βαθμολογία ήταν ένα μόνο A- για την Anthropic, στην κατηγορία κοινοποίησης πληροφοριών.

Ο Ντέμης Χασάμπης, συνιδρυτής της νεοφυούς εταιρείας τεχνητής νοημοσύνης DeepMind της Google, σε συνέντευξης Τύπου στη Σεούλ. Νότια Κορέα, 15 Μαρτίου 2016. (Jeon Heon-Kyun/Getty Images)

 

Εκπρόσωπος της Google DeepMind δήλωσε στην εφημερίδα The Epoch Times ότι η εταιρεία ακολουθεί μια «αυστηρή, επιστημονικά καθοδηγούμενη προσέγγιση» για την ασφάλεια της ΑΙ.

Ο εκπρόσωπος ανέφερε ότι το πλαίσιο ασφαλείας της εταιρείας περιγράφει πρωτόκολλα για «τον εντοπισμό και τον μετριασμό σοβαρών κινδύνων από ισχυρά μοντέλα ΑΙ αιχμής πριν αυτοί εκδηλωθούν», προσθέτοντας ότι η DeepMind θα συνεχίσει να διατηρεί την ασφάλεια και τη διακυβέρνηση στον ίδιο ρυθμό με την καινοτομία.

Εκπρόσωπος της OpenAI δήλωσε στην Epoch Times ότι η εταιρεία επενδύει σημαντικά στην έρευνα για την ασφάλεια των μοντέλων αιχμής και ότι ενσωματώνει δικλίδες ασφαλείας στα συστήματά της. Ανέφερε επίσης ότι η ασφάλεια αποτελεί βασικό στοιχείο του τρόπου με τον οποίο αναπτύσσει και διαθέτει η εταιρεία την τεχνητή νοημοσύνη και ότι «ενισχύει συνεχώς τις προστασίες της προετοιμαζόμενη για μελλοντικές δυνατότητες».

Η Epoch Times επικοινώνησε με τις xAI, Anthropic, Meta, Z.ai, DeepSeek και Alibaba Cloud για σχόλιο, αλλά οι εταιρείες δεν απάντησαν μέχρι την ώρα δημοσίευσης.

Κυβερνοεπιθέσεις και αγωγές

Η δημοσίευση της μελέτης γίνεται σε μία περίοδο εντεινόμενων ανησυχιών για τον αντίκτυπο της τεχνητής νοημοσύνης, μετά από αναφορές για αυτοτραυματισμούς, των οποίων η ευθύνη αποδίδονται στην τεχνητή νοημοσύνη, συνέπεια των οποίων ήταν αρκετές αγωγές που υποστηρίζουν ότι μοντέλα ΑΙ ώθησαν χρήστες να αυτοκτονήσουν.

Τον προηγούμενο μήνα, η Anthropic ανέφερε σε ανάρτηση ιστολογίου ότι κρατικά υποστηριζόμενοι Κινέζοι κυβερνοεισβολείς χρησιμοποίησαν το εργαλείο Claude Code σε αυτό που χαρακτήρισε ως την πρώτη παγκοσμίως κυβερνοεπίθεση καθοδηγούμενη από τεχνητή νοημοσύνη, η οποία, όταν αναπτύχθηκε, απαιτούσε ελάχιστη ανθρώπινη εμπλοκή.

Η εταιρεία δήλωσε, στις 13 Νοεμβρίου, ότι οι κυβερνοεισβολείς είχαν πραγματοποιήσει επιθέσεις εναντίον τριάντα στόχων παγκοσμίως, εκ των οποίων ένας μικρός μόνο αριθμός ήταν επιτυχής. Η Anthropic ανέφερε ότι η τεχνητή νοημοσύνη εκτέλεσε το 80% έως 90% της εργασίας κατά τη διάρκεια των κυβερνοεπιθέσεων, «με ανθρώπινη παρέμβαση να απαιτείται μόνο σποραδικά».

Η Anthropic προσέθεσε ότι η επίθεση «βασίστηκε σε αρκετά χαρακτηριστικά των μοντέλων ΑΙ που είτε δεν υπήρχαν είτε βρίσκονταν σε πολύ πιο πρώιμη μορφή μόλις πριν από έναν χρόνο».

Της Victoria Friedman

Πως μπορείτε να μας βοηθήσετε ώστε να συνεχίσουμε να σας κρατάμε ενημερωμένους

Ποιος είναι ο λόγος που χρειαζόμαστε την βοήθειά σας για την χρηματοδότηση του ερευνητικού ρεπορτάζ μας; Επειδή είμαστε ένας ανεξάρτητος οργανισμός ειδήσεων που δεν επηρεάζεται από καμία κυβέρνηση, εταιρεία ή πολιτικό κόμμα. Από την ημέρα που ξεκινήσαμε, έχουμε έρθει αντιμέτωποι με προσπάθειες αποσιώπησης της αλήθειας κυρίως από το Κινεζικό Κομμουνιστικό Κόμμα. Αλλά δεν θα λυγίσουμε. Η ελληνική έκδοση της Epoch Times βασίζεται ολοκληρωτικά στις γενναιόδωρες συνεισφορές σας για να διατηρήσει την παραδοσιακή δημοσιογραφία ζωντανή και υγιή στην Ελληνική γλώσσα. Μαζί, μπορούμε να συνεχίσουμε να διαδίδουμε την αλήθεια.

Σχολιάστε