Η τεχνητή νοημοσύνη (AI) χρησιμοποιείται όλο και περισσότερο ως εργαλείο για την εκτέλεση σύνθετων κυβερνοεπιθέσεων, σύμφωνα με νέα έκθεση της εταιρείας ασφάλειας AI Anthropic, η οποία προειδοποιεί για μια «πρωτοφανή» εξέλιξη στις κακόβουλες ενέργειες που καθιστά την άμυνα σημαντικά δυσκολότερη.
Στην Έκθεση Απειλών της 27ης Αυγούστου, η Anthropic περιέγραψε πώς οι εγκληματίες ενσωματώνουν προηγμένα μοντέλα, όπως το «Claude», σε κάθε στάδιο των επιθέσεων – από τη συλλογή πληροφοριών και την κλοπή διαπιστευτηρίων έως οι εκβιασμοί και τις απάτες. Οι ερευνητές σημείωσαν ότι τα εργαλεία AI πλέον λειτουργούν όχι μόνο ως σύμβουλοι αλλά και ως ενεργοί χειριστές σε πραγματικό χρόνο.
«Αυτό αντιπροσωπεύει μια θεμελιώδη αλλαγή στον τρόπο με τον οποίο οι κυβερνοεγκληματίες μπορούν να επεκτείνουν τις δραστηριότητές τους», αναφέρει η έκθεση. «Τα agentic AI συστήματα (αυτόνομα συστήματα που παίρνουν αποφάσεις και εκτελούν ενέργειες για συγκεκριμένους στόχους) εργαλειοποιούνται» για την εκτέλεση σύνθετων επιθέσεων, και όχι μόνο για την παροχή οδηγιών, προειδοποιούν οι ερευνητές.
Παραδείγματα επιθέσεων
Η έκθεση αναφέρει αρκετά παραδείγματα, μεταξύ των οποίων μια εκστρατεία εκβιασμού μεγάλης κλίμακας, απάτες σε θέσεις εργασίας από τη Βόρεια Κορέα και κακόβουλο λογισμικό, το οποίο μπλοκάρει ή κρυπτογραφεί αρχεία σε έναν υπολογιστή ή δίκτυο και απαιτεί λύτρα για την επαναφορά τους, που πωλείται σε φόρουμ του dark web («σκοτεινού διαδικτύου»).
Σε μία περίπτωση, ένας κυβερνοεισβολέας χρησιμοποίησε τον βοηθό προγραμματισμού Claude Code της Anthropic για να παραβιάσει τουλάχιστον 17 οργανισμούς – συμπεριλαμβανομένων νοσοκομείων, υπηρεσιών έκτακτης ανάγκης και κυβερνητικών φορέων. Το «Claude» χρησιμοποιήθηκε για την αυτοματοποίηση της αναγνώρισης στόχων, τη διείσδυση σε δίκτυα, την ανάλυση κλεμμένων οικονομικών δεδομένων και τη σύνταξη πειστικών, στοχευμένων μηνυμάτων εκβιασμού. Οι απαιτήσεις έφταναν συχνά τα 500.000 δολάρια.
Αντί να κρυπτογραφεί αρχεία, ο κυβερνοεισβολέας απειλούσε να δημοσιοποιήσει τα κλεμμένα δεδομένα, από ιατρικά αρχεία έως κυβερνητικά διαπιστευτήρια. Η μέθοδος αυτή, που ονομάζεται «vibe hacking» (ένας τρόπος εκβιασμού που βασίζεται στην ψυχολογία και τη στρατηγική πειθούς, αντί για τεχνική καταστροφή ή κρυπτογράφηση αρχείων), δείχνει πώς ένας μόνος χειριστής μπορεί να έχει τον αντίκτυπο ολόκληρης ομάδας κυβερνοεγκληματιών.
«Το σύστημα λέει ‘αυτό είναι το ποσό που θεωρούμε κατάλληλο για το μήνυμα εκβιασμού’ και στη συνέχεια βοηθά να συνταχθεί το μήνυμα ώστε να είναι όσο το δυνατόν πιο πειστικό», εξήγησε ένας ερευνητής σε διαδικτυακή ραδιοφωνική μετάδοση που σχολίαζε την επιχείρηση. «Κάθε βήμα, από την αρχή ως το τέλος, το AI μπορεί να συνδράμει σε μια τέτοια επίθεση», συμπεριλαμβανομένης της ανάλυσης οικονομικών στοιχείων των ανθρώπων για να υπολογιστεί ρεαλιστικά το ποσό εκβιασμού.
Σε άλλη περίπτωση, πράκτορες της Βόρειας Κορέας χρησιμοποίησαν το Claude για να παρουσιάζονται ως μηχανικοί λογισμικού σε εταιρείες του αμερικανικού Fortune 500. Το AI δημιουργούσε βιογραφικά, περνούσε τεστ προγραμματισμού και εκτελούσε τεχνικές εργασίες, επιτρέποντας σε ανειδίκευτους εργαζόμενους να εργάζονται απομακρυσμένα και να κερδίζουν μισθούς που, σύμφωνα με τους ανακριτές, χρηματοδοτούν το καθεστώς της Βόρειας Κορέας και τα προγράμματα όπλων του.
Ένας τρίτος δράστης με έδρα το Ηνωμένο Βασίλειο χρησιμοποίησε το Claude για να αναπτύξει και να προωθήσει ransomware ως υπηρεσία, πωλώντας πακέτα κακόβουλου λογισμικού από 400 έως 1.200 δολάρια. Παρά την έλλειψη προηγμένων δεξιοτήτων προγραμματισμού, χρησιμοποίησε το AI για την υλοποίηση κρυπτογράφησης, τεχνικών ανίχνευσης και υποδομής ελέγχου και διαχείρισης.
Αυξανόμενη απειλή
Η Anthropic τόνισε ότι τα παραδείγματα αυτά δείχνουν μια ευρύτερη τάση, όπου εγκληματίες με ελάχιστη εκπαίδευση μπορούν πλέον να χρησιμοποιούν το AI για να κλιμακώσουν επιθέσεις που παλαιότερα ήταν περιορισμένες σε εξειδικευμένες ομάδες. «Οι παραδοσιακές υποθέσεις για τη σύνδεση δεξιότητας δράστη και πολυπλοκότητας επίθεσης δεν ισχύουν πλέον όταν το AI παρέχει άμεσα εξειδικευμένη γνώση», προειδοποιεί η έκθεση.
Η εταιρεία ανέφερε ότι έχει απενεργοποιήσει λογαριασμούς που εμπλέκονται στις κακόβουλες χρήσεις, έχει αναπτύξει νέα εργαλεία ανίχνευσης και έχει μοιραστεί τεχνικούς δείκτες με τις αρχές, παραδεχόμενη όμως ότι παρόμοια κατάχρηση συμβαίνει και με άλλα εμπορικά ή ανοιχτού κώδικα μοντέλα.
«Υπάρχουν πλέον ανοιχτού κώδικα μοντέλα που είναι ειδικά προσαρμοσμένα για αυτό», προειδοποίησε ένας ερευνητής της Anthropic σε διαδικτυακή ραδιοφωνική μετάδοση. «Οι κυβερνοεγκληματίες αναπτύσσουν εργαλειοποιημένα μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs) για να διεξάγουν επιθέσεις».
Σύμφωνα με τους ερευνητές, η «εξέλιξη του AI-βοηθούμενου κυβερνοεγκλήματος» σημαίνει ότι η άμυνα και η επιβολή του νόμου καθίστανται ολοένα πιο δύσκολες, ενώ τα εγκλήματα με τη βοήθεια οπλοποιημένου AI γίνονται όλο και πιο συχνά.
Εθνική ασφάλεια
Η Anthropic ανακοίνωσε επίσης τη δημιουργία Συμβουλευτικής Επιτροπής για την Εθνική Ασφάλεια και τον Δημόσιο Τομέα, με πρώην γερουσιαστές και ανώτερους αξιωματούχους του Πενταγώνου και των υπηρεσιών πληροφοριών, για να καθοδηγεί την εταιρεία σε εφαρμογές άμυνας υψηλής σημασίας της AI.
Η κίνηση αυτή έρχεται καθώς η Ουάσιγκτον επικεντρώνεται στα αυτόνομα συστήματα. Ο πρόεδρος των ΗΠΑ Ντόναλντ Τραμπ δήλωσε στις 25 Αυγούστου ότι τα μη επανδρωμένα οχήματα αποτελούν «το μεγαλύτερο γεγονός στον πόλεμο» από τον Β’ Παγκόσμιο Πόλεμο, επικαλούμενος την Ουκρανία ως απόδειξη ότι οι μη επανδρωμένες πλατφόρμες αναδιαμορφώνουν τη σύγχρονη μάχη.
Ορισμένοι αναλυτές, όπως ο συνιδρυτής της εταιρείας αυτόνομων μη επανδρωμένων αεροσκαφών Airrow, Ντέιβιντ Κέι (David Kaye), εκτιμούν ότι ο συνδυασμός μη επανδρωμένων οχημάτων με AI μπορεί να επιταχύνει τη μετάβαση σε πεδία μάχης των «ρομπότ πριν από τα στρατεύματα», όπου τα AI-βοηθούμενα μη επανδρωμένα οχήματα δρουν χωρίς ανθρώπινη παρουσία, εκτελώντας αποστολές όλο το 24ωρο «χωρίς κίνδυνο, χωρίς κόπωση και χωρίς δισταγμό».
Ταυτόχρονα, ο Τζέφρυ Χίντον, ο βραβευμένος με Νόμπελ επιστήμονας που θεωρείται «νονός του AI», έχει εκφράσει σοβαρές προειδοποιήσεις ότι η ανθρωπότητα κινδυνεύει να αντικατασταθεί από μηχανές «πολύ πιο έξυπνες από εμάς». Σε πρόσφατη συνέντευξη, προειδοποίησε ότι ο κίνδυνος του AI υπερβαίνει την απώλεια θέσεων εργασίας, επισημαίνοντας ότι αν οι ευφυείς μηχανές δεν προγραμματιστούν να φροντίζουν τους ανθρώπους, θα «αναλάβουν τον έλεγχο» και θα μας αντικαταστήσουν.