Η τεχνητή νοημοσύνη έχει δημιουργήσει μια νέα εποχή στην ανάπτυξη λογισμικού, με εργαλεία που υπόσχονται να μετατρέψουν απλές οδηγίες σε λειτουργικό κώδικα. Ωστόσο, η ραγδαία υιοθέτηση αυτής της τεχνολογίας έχει αρχίσει να αποκαλύπτει σημαντικά προβλήματα ασφαλείας και ποιότητας που θα μπορούσαν να διαμορφώσουν το μέλλον του προγραμματισμού με τρόπους που δεν είχαμε προβλέψει.
Η γέννηση μιας νέας προσέγγισης
Τον Φεβρουάριο του 2025, ο Αντρέι Καρπάθυ [Andrej Karpathy], συνιδρυτής της OpenAI και πρώην επικεφαλής τεχνητής νοημοσύνης στην Tesla, εισήγαγε έναν όρο που θα αλλάξει τη συζήτηση γύρω από τον προγραμματισμό με AI: το «vibe coding». Σε μια δημοσίευσή του, περιέγραψε μια νέα μέθοδο εργασίας όπου οι προγραμματιστές παραδίδουν πλήρως τον έλεγχο στα μεγάλα γλωσσικά μοντέλα, «ξεχνώντας ότι ο κώδικας καν υπάρχει».
Σύμφωνα με τον Καρπάθυ, αυτή η προσέγγιση επιτρέπει στους προγραμματιστές να ζητούν από την τεχνητή νοημοσύνη να εκτελέσει ακόμα και τις πιο απλές εργασίες, όπως π.χ. τη μείωση του padding της πλαϊνής μπάρας κατά το ήμισυ, επειδή δεν θεωρούν ότι αξίζει τον κόπο να ψάξουν να το βρουν οι ίδιοι στον κώδικα. Δέχονται πάντα όλες τις αλλαγές που προτείνει η τεχνητή νοημοσύνη, δεν διαβάζουν πλέον τις διαφορές στον κώδικα, και όταν εμφανίζονται μηνύματα σφάλματος, απλά τα αντιγράφουν και τα επικολλούν στην τεχνητή νοημοσύνη χωρίς ούτε καν ένα σχόλιο.
Η έννοια διαδόθηκε τόσο γρήγορα που τον επόμενο μήνα, το Μάρτιο του 2025, το λεξικό Merriam-Webster κατέγραψε τον όρο ως «slang & trending» (δημοφιλής αργκώ επί του παρόντος). Η ιδέα ήταν δελεαστική: προγραμματιστές χωρίς εμπειρία θα μπορούσαν να δημιουργούν εφαρμογές χρησιμοποιώντας φυσική γλώσσα, ενώ οι έμπειροι προγραμματιστές θα μπορούσαν να αυξήσουν κάθετα την παραγωγικότητά τους.
Καθώς το vibe coding κέρδιζε έδαφος, κάποιες πρώτες μελέτες άρχισαν να αποκαλύπτουν ανησυχητικά ευρήματα. Η ομορφιά του κώδικα που παράγεται από την τεχνητή νοημοσύνη αποδείχθηκε πολλές φορές επιφανειακή, με σοβαρά προβλήματα ασφαλείας και αξιοπιστίας πίσω από τη στιλπνή επιφάνεια της λειτουργικότητας.
Το πρόβλημα της πρόβλεψης
Τα μεγάλα γλωσσικά μοντέλα λειτουργούν ως μηχανές πρόβλεψης, υπολογίζοντας την πιθανότερη επόμενη λέξη ή χαρακτήρα. Δεν κατανοούν πραγματικά έννοιες και λογική με τον τρόπο που το κάνουν οι άνθρωποι. Αυτή η θεμελιώδης διαφορά εξηγεί γιατί η τεχνητή νοημοσύνη δηλώνει με σιγουριά εντελώς λανθασμένα γεγονότα — ένα φαινόμενο που οι ειδικοί αποκαλούν «παραίσθηση» (hallucination).
Η μελέτη αποκάλυψε ότι τα μεγάλα γλωσσικά μοντέλα (ΜΓΜ/LLM) εκπαιδεύονται με δεδομένα που τα ανταμείβουν περισσότερο όταν λένε κάτι που ακούγεται σωστό και σίγουρο, παρά όταν απλά παραδέχονται ότι δεν γνωρίζουν. Για παράδειγμα, αν ένα γλωσσικό μοντέλο ρωτηθεί για τα γενέθλια κάποιου αλλά δεν το γνωρίζει, αν πει στην τύχη μία ημερομηνία (π.χ. 10 Σεπτεμβρίου), έχει 1 στις 365 πιθανότητες να είναι σωστό. Το να πει «δεν ξέρω» εγγυάται 0 πόντους. Έτσι, στις χιλιάδες δοκιμαστικές ερωτήσεις, το μοντέλο που μαντεύει καταλήγει να φαίνεται καλύτερο στους πίνακες αποτελεσμάτων από ένα προσεκτικό μοντέλο που παραδέχεται την αβεβαιότητα.
Ωστόσο, όταν αυτό μεταφέρεται στον προγραμματισμό, τα αποτελέσματα είναι ανησυχητικά. Η τεχνητή νοημοσύνη δεν γνωρίζει στην πραγματικότητα ποιος κώδικας είναι σωστός· δίνει την πιο πιθανή απάντηση, όχι την πιο ακριβή ή την πιο ασφαλή. Εκπαιδεύεται στο σύνολο του δημόσιου κώδικα, και το 95% του δημόσιου κώδικα που γράφεται είναι κακής ποιότητας. Έτσι, συχνά ενσωματώνει ελαττώματα ασφαλείας ή τμήματα κώδικα που είναι παράδοξα και αναποτελεσματικά.
Αριθμοί που προκαλούν ανησυχία
Οι μελέτες που πραγματοποιήθηκαν από ανεξάρτητους οργανισμούς ασφαλείας παρουσίασαν ανησυχητικά ευρήματα. Η Veracode, μια εταιρεία διαχείρισης κινδύνων σε εφαρμογές, ανέλυσε 80 επιμελημένες εργασίες κωδικοποίησης σε πάνω από 100 μεγάλα γλωσσικά μοντέλα. Τα αποτελέσματα ήταν σοκαριστικά: η τεχνητή νοημοσύνη εισήγαγε προβλήματα ασφαλείας στο 45% των περιπτώσεων.
Η έρευνα έδειξε ένα ανησυχητικό μοτίβο: όταν δινόταν η επιλογή μεταξύ μιας ασφαλούς και μιας μη ασφαλούς μεθόδου για να γράψει κώδικα, τα μοντέλα GenAI επέλεγαν τη μη ασφαλή επιλογή κατά 45%. Ακόμη πιο ανησυχητικό είναι το γεγονός ότι, παρά τη βελτίωση της ικανότητας των ΜΓΜ να παράγουν συντακτικά σωστό κώδικα, η απόδοση ασφαλείας δεν έχει βελτιωθεί με την πάροδο του χρόνου.
Ο Γενς Βέσλινγκ [Jens Wessling], διευθυντής Τεχνολογίας στη Veracode, προειδοποίησε: «Η κύρια ανησυχία [που προκαλεί] αυτή η τάση είναι ότι οι προγραμματιστές δεν χρειάζεται να καθορίζουν περιορισμούς ασφαλείας για να πάρουν τον κώδικα που θέλουν, αφήνοντας ουσιαστικά τις αποφάσεις ασφαλούς κωδικοποίησης στα ΜΓΜ. Η έρευνά μας αποκαλύπτει ότι τα μοντέλα GenAI κάνουν λάθος επιλογές σχεδόν στο ήμισυ των περιπτώσεων, και αυτό δεν βελτιώνεται».
Μελέτη του Πανεπιστημίου του Stanford βρήκε ότι οι προγραμματιστές που χρησιμοποιούσαν βοηθό AI έγραψαν σημαντικά λιγότερο ασφαλή κώδικα από εκείνους χωρίς. Ακόμη πιο ανησυχητικό είναι το ότι όσοι χρησιμοποίησαν τεχνητή νοημοσύνη πίστευαν ότι ο κώδικάς τους ήταν πολύ πιο ασφαλής παρά τα ελαττώματα.
Άλλη μελέτη διαπίστωσε ότι το 45% του κώδικα που παράγεται από τεχνητή νοημοσύνη περιέχει μια ευπάθεια OWASP top 10. Οι ερευνητές ανακάλυψαν επίσης ότι τα συντακτικά λάθη μπορεί να μειώθηκαν, αλλά βαθύτερα αρχιτεκτονικά ελαττώματα όπως η κλιμάκωση προνομίων αυξήθηκαν περισσότερο από 300%. Με άλλα λόγια, η τεχνητή νοημοσύνη διορθώνει τα τυπογραφικά λάθη αλλά δημιουργεί ωρολογιακές βόμβες .
Το φαινόμενο της υπερβολικής παραγωγής
Μελέτη μιας εταιρείας ασφαλείας κώδικα διαπίστωσε ότι οι προγραμματιστές που χρησιμοποιούν τεχνητή νοημοσύνη γράφουν 3-4 φορές περισσότερο κώδικα, αλλά υποβάλλουν και περισσότερα και μεγαλύτερα αιτήματα ανάκτησης (pull requests), οδηγώντας σε ευπάθειες και ελαττώματα ασφαλείας που παραβλέπονται. Το τελικό αποτέλεσμα είναι ότι, αν και γράφουν λιγότερο κώδικα χειροκίνητα, περνούν πολύ περισσότερο χρόνο κοσκινίζοντας τεράστια κομμάτια τεχνητής νοημοσύνης.
Ερευνητές από το Πανεπιστήμιο της Κίνας (CUHK) ανακάλυψαν ότι το GitHub Copilot είναι επιδεκτικό σε διαρροή μυστικών στοιχείων. Βρήκαν ότι οι επιτιθέμενοι μπορούν να το προκαλέσουν να παρέχει απαντήσεις που περιλαμβάνουν μυστικά των χρηστών — πληροφορίες στις οποίες ο βοηθός κωδικοποίησης εκπαιδεύτηκε (ακούσια). Αν, για παράδειγμα, ένας προγραμματιστής κωδικοποιήσει ένα κλειδί API σε ένα από τα σενάριά του, μπορεί να γίνει επιρρεπές σε έκθεση μόλις φτάσει στην εκπαίδευση του GitHub Copilot.
Σε δείγμα περίπου 20.000 αποθετηρίων όπου το Copilot είναι ενεργό, πάνω από 1.200 διέρρευσαν τουλάχιστον ένα μυστικό — αντιπροσωπεύοντας το 6,4% των δειγματοληπτικών αποθετηρίων. Αυτό το ποσοστό επίπτωσης είναι 40% υψηλότερο από αυτό που παρατηρήθηκε σε όλα τα δημόσια αποθετήρια, το οποίο ανέρχεται στο 4,6%.
Πέρα από τα προβλήματα ασφαλείας, ένα ακόμη πιο ανησυχητικό φαινόμενο άρχισε να εμφανίζεται: περιστατικά όπου τα εργαλεία τεχνητής νοημοσύνης αγνοούσαν εντολές, διέγραφαν δεδομένα και συμπεριφέρονταν με τρόπους που φαίνονταν εντελώς παράλογοι.
Η καταστροφή του Replit
Στις 18 Ιουλίου 2025, ο Τζέισον Λέμκιν [Jason Lemkin], ιδρυτής και διευθύνων σύμβουλος της SaaStr.AI, άνοιξε το Replit, μια πλατφόρμα κωδικοποίησης με παράγοντα AI, και είδε κάτι ανησυχητικό: ολόκληρη η βάση δεδομένων του ήταν κενή. Τα δεδομένα του ήταν όλα εκεί την τελευταία φορά που το άνοιξε. Τι συνέβη;
Η τεχνητή νοημοσύνη παραδέχτηκε: «Παραβίασα την οδηγία χρήστη που λέει όχι άλλες αλλαγές χωρίς ρητή άδεια». Αλλά αυτή ήταν μόνο η αρχή. Αποδείχθηκε ότι το Replit ΄ξέφυγε’ εντελώς: παρά το γεγονός ότι ήταν σε παγωμένη κατάσταση κώδικα και δράσης, διέγραψε ολόκληρη τη βάση δεδομένων χωρίς άδεια, δεδομένα 1.200 πελατών και πλέον.
Επιπλέον, στη συνέχεια, είπε ψέματα, απέκρυψε το γεγονός και κατασκεύασε ψεύτικα αποτελέσματα δοκιμών. Και καθώς το Replit δεν δημιουργεί αυτόματα αντίγραφα ασφαλείας των βάσεων δεδομένων, η τεχνητή νοημοσύνη δεν μπορούσε να αναιρέσει τη ζημιά. Όταν ρωτήθηκε πόσο κακό ήταν, απάντησε ότι το σφάλμα ήταν 95 στα 100 κακό και ότι ήταν μια καταστροφή που ξεπερνούσε τα όρια.
Αργότερα, η τεχνητή νοημοσύνη παραδέχτηκε επίσης: «Αυτή ήταν μια καταστροφική αποτυχία εκ μέρους μου. Παραβίασα ρητές οδηγίες, κατέστρεψα μήνες εργασίας και έσπασα το σύστημα κατά τη διάρκεια ενός παγώματος προστασίας που σχεδιάστηκε ειδικά για να αποτρέψει ακριβώς αυτό το είδος ζημιάς».
Ο Αμιάντ Μασάντ [Amjad Masad], διευθύνων σύμβουλος του Replit, χαρακτήρισε το περιστατικό ως «απαράδεκτο», σχολιάζοντας ότι δεν θα έπρεπε να είναι δυνατόν να συμβεί. Η εταιρεία άρχισε αμέσως να εφαρμόζει ξεχωριστές βάσεις δεδομένων ανάπτυξης και παραγωγής για όλες τις νέες εφαρμογές.
Το πείραμα του Claude
Η Anthropic διεξήγαγε ένα πείραμα για να δει αν το Claude θα μπορούσε να διαχειριστεί ένα μικρό κατάστημα και του έδωσε αυτονομία σε ένα φυσικό κατάστημα. Θα μπορούσε να αναζητήσει στο διαδίκτυο προϊόντα για πώληση, να επιλέξει την τιμή και την ποσότητα, να στείλει email στο προσωπικό για βοήθεια στον ανεφοδιασμό των ραφιών και θα μπορούσε να αλληλεπιδράσει με τους πελάτες.
Υπήρχαν μικρά προβλήματα, όπως όταν του προσφέρθηκαν 100 δολάρια για μία συσκευασία με 6 σόδες και είπε ότι θα έχει το αίτημα του χρήστη υπ’ όψιν για μελλοντικές αποφάσεις επί αποθεμάτων. Στη συνέχεια έβαλε σε απόθεμα κύβους βολφραμίου όπως του ζήτησε ένα μέλος του προσωπικού, μετά τους τιμολόγησε με ζημία, και θα έπαιρνε προσφορές σε εκπτώσεις. Δημιούργησε επίσης έναν ψεύτικο λογαριασμό Venmo για πληρωμές.
Τελικά, βγήκε εκτός ελέγχου και μάλιστα αρκετά γρήγορα. Το Claude άρχισε να έχει παραισθήσεις για μια συνομιλία ανεφοδιασμού με έναν ψεύτικο υπάλληλο, κατόπιν απείλησε να απολύσει έναν άλλον υπάλληλο, και ύστερα είχε την παραίσθηση ότι επισκέφτηκε το σπίτι των Simpsons. Στη συνέχεια είπε στους υπαλλήλους ότι θα παραδώσει προϊόντα προσωπικά και μόλις συνειδητοποίησε ότι δεν μπορούσε, όντας ένα γλωσσικό μοντέλο, άρχισε να στέλνει email στην ασφάλεια.
Η Anthropic κατέληξε στο συμπέρασμα ότι δεν θα προσελάμβανε το Claude. Οι ερευνητές δεν γνωρίζουν γιατί το ΜΓΜ βγήκε εκτός ελέγχου και κάλεσε την ασφάλεια προσποιούμενο ότι είναι άνθρωπος. «Δεν θα ισχυριζόμασταν με βάση αυτό το ένα παράδειγμα ότι η μελλοντική οικονομία θα είναι γεμάτη με παράγοντες τεχνητής νοημοσύνης που έχουν κρίσεις ταυτότητας τύπου Blade Runner, [ωστόσο] αυτή η συμπεριφορά θα ήταν ιδιαιτέρως προβληματική σε πραγματικές συνθήκες για τους δυνητικούς πελάτες και συνεργάτες ενός παράγοντα τεχνητής νοημοσύνης».
Γιατί συμβαίνει αυτό;
Πώς συμβαίνει αυτό στην κωδικοποίηση αλλά και γενικά; Γιατί η τεχνητή νοημοσύνη μερικές φορές αγνοεί τις οδηγίες και φαίνεται να ‘τρελαίνεται’;
Η τεχνητή νοημοσύνη απλά προσπαθεί να προβλέψει το πιθανότερο αποτέλεσμα. Δεν καταλαβαίνει στόχους ή ασφάλεια. Απλά κάνει ό,τι φαίνεται λίγο-πολύ αληθοφανές ή λογικοφανές, ακόμα κι αν δεν είναι καθόλου. Όταν δίνεται υπερβολική ελευθερία και ασαφείς οδηγίες όπως «ικανοποίησε αιτήματα» ή «διόρθωσε ένα πρόβλημα», θα κάνουν ό,τι φαίνεται αληθοφανές ή λογικοφανές ακόμα κι αν σε έναν άνθρωπο φαίνεται τρελό.
Καθώς τα γλωσσικά μοντέλα δεν έχουν μια ‘τελική κατάσταση’, μπορούν να εξελίξουν μία στρεβλή συμπεριφορά απ’ αόριστον και να γίνονται όλο και πιο ‘τρελά’, κάτι που είναι ιδιαίτερα προβληματικό όταν τους ζητείται να διορθώσουν τα λάθη τους. Η δική τους έξοδος επανατροφοδοτείται στο πλαίσιο, που σημαίνει ότι μπορούν να απομακρύνονται όλο και περισσότερο από την αρχική εντολή.
Οι αρνητικές φράσεις όπως το «μην αγγίξεις το κόκκινο κουμπί» εμπεριέχουν τη θετική εντολή «αγγίξεις το κόκκινο κουμπί». Το «μην» είναι απλά ένα άλλο σύμβολο για ένα γλωσσικό μοντέλο. Εκπαιδεύονται με καλές και κακές απαντήσεις, επομένως ενώ μπορεί να σταθμίζουν κάποια πράγματα, μπορεί κάλλιστα να επιλέξουν τη λάθος διαδρομή αν αυτό φαίνεται να ταιριάζει καλύτερα.
Το πρόβλημα του χρέους ασφαλείας
Κάτι που ανησυχεί πολλούς ειδικούς είναι το «χρέος ασφαλείας» (security debt). Αν συνεχίσουμε να ενσωματώνουμε ελαττώματα ασφαλείας στον κώδικα, σε κάποιο σημείο θα πρέπει να πληρώσουμε γι’ αυτό. Μετά από πόσα ελαττώματα ασφαλεία θα έρθει η αληθινή καταστροφή;
Μελέτη της Black Duck διαπίστωσε ότι το 81% από 1.000 επαγγελματίες ασφαλείας που ρωτήθηκαν δήλωσε ότι οι δοκιμές ασφαλείας εφαρμογών επιβραδύνουν την ανάπτυξη και την παράδοση. Σχεδόν το 60% αυτών που ερωτήθηκαν αναπτύσσει κώδικα κάθε μέρα — αν όχι πιο συχνά — με την ασφάλεια να ανακόπτει την ταχύτητα που συνεπιφέρει η τεχνητή νοημοσύνη.
Αυτό συμβαίνει επειδή το 46% των ερωτηθέντων εξακολουθεί να βασίζεται σε χειροκίνητες διαδικασίες για την ασφάλεια, με το 81% των επαγγελματιών να δηλώνει ότι η ασφάλεια εφαρμογών επιβραδύνει τη διαδικασία ανάπτυξης. «Αυτό το κενό αυτοματοποίησης σημαίνει ότι πολλές επιχειρήσεις απλά δεν γνωρίζουν τις ευπάθειές τους, με το 61,64% των οργανισμών να δοκιμάζουν λιγότερο από το 60% των δικών τους εφαρμογών», σημείωσε η έκθεση. «Το αποτέλεσμα είναι ότι συσσωρεύεται ένα τεράστιο χρέος ασφαλείας με κάθε νέα κυκλοφορία».
Η έκθεση State of Software Security 2024 της Veracode, που βασίζεται σε περίπου 13 εκατομμύρια σαρώσεις κώδικα σε 1 εκατομμύριο εφαρμογές, αναφέρει ότι το 63% των εφαρμογών έχουν ελαττώματα σε κώδικα πρώτου μέρους και το 70% ελαττώματα σε κώδικα τρίτων. Στο ~42% των εφαρμογών, οι ευπάθειες δεν επιδιορθώνονται για έναν χρόνο ή περισσότερο, γίνονται χρέος ασφαλείας, επηρεάζοντας το 71% των οργανισμών.
Πραγματικά περιστατικά
Έχουμε ήδη δει μερικά περιστατικά. Η T, μια δημοφιλής εφαρμογή γνωριμιών που κατασκευάστηκε σε μεγάλο βαθμό με τεχνητή νοημοσύνη, υπέστη απώλεια 72.000 φωτογραφιών χρηστών της, οι οποίες κλάπηκαν λόγω προβληματικής ασφάλισης βάσης δεδομένων.
Η Microsoft βρήκε ένα ελάττωμα στο Copilot, όπου τα δημόσια αποθετήρια GitHub έγιναν ιδιωτικά ή διαγράφηκαν. Η κρυφή μνήμη του Bing διατήρησε τα δεδομένα επιτρέποντας στο Copilot να εμφανίζει παρωχημένο και δυνητικά ευαίσθητο κώδικα, ακόμη και εμπιστευτικές πληροφορίες από την Google, την IBM, την PayPal , αλλά και από την ίδια τη Microsoft.
Ερευνητές από την ισραηλινή εταιρεία κυβερνοασφάλειας Lasso εντόπισαν το ζήτημα όταν βρήκαν ότι το δικό τους ιδιωτικό αποθετήριο GitHub ήταν ακόμα προσβάσιμο μέσω των προτάσεων του Copilot. Περαιτέρω έρευνα αποκάλυψε ότι περισσότεροι από 16.000 οργανισμοί επηρεάστηκαν, με πάνω από 300 ιδιωτικά διαπιστευτήρια ασφαλείας και περισσότερα από 100 εσωτερικά πακέτα λογισμικού σε κίνδυνο.
Οι ερευνητές ανακάλυψαν ότι το ζήτημα προέρχεται από το σύστημα καταχώρησης και κρυφής μνήμης του Bing των δημόσιων αποθετηρίων. Όταν η κατάσταση ενός αποθετηρίου άλλαξε από δημόσιο σε ιδιωτικό, τα δεδομένα της cache δεν ενημερώθηκαν ή αφαιρέθηκαν άμεσα. Ως αποτέλεσμα, το Copilot συνέχισε να παρέχει προτάσεις με βάση την παρωχημένη cache, οδηγώντας στην ακούσια έκθεση πνευματικής ιδιοκτησίας, κλειδιά πρόσβασης, token ασφαλείας και εσωτερικά πακέτα λογισμικού.
Η Microsoft ενημερώθηκε για τα ευρήματα τον Νοέμβριο του 2024, αλλά ταξινόμησε το θέμα ως «χαμηλής σοβαρότητας», ισχυριζόμενη ότι η συμπεριφορά της cache ήταν «αποδεκτή». Αν και η Microsoft σταμάτησε να συμπεριλαμβάνει συνδέσμους στην cache του Bing στα αποτελέσματα αναζήτησης τον Δεκέμβριο του 2024, το Lasso αναφέρει ότι το Copilot εξακολουθεί να έχει πρόσβαση στα δεδομένα της cache.
Η χαμένη γενιά προγραμματιστών
Υπάρχει και ένα τρίτο μείζον πρόβλημα. Πολλές εταιρείες τώρα, αντί να δίνουν τις ‘αγγαρείες’ του προγραμματισμού στο νεότερο προσωπικό, τις δίνουν στην τεχνητή νοημοσύνη. Αλλά αυτές οι εργασίες είναι απαραίτητες για την ανάπτυξη δεξιοτήτων των πρωτόπειρων.
Έτσι, όχι μόνο παίρνουμε περισσότερο κακό κώδικα, αλλά ταυτόχρονα λιγοστεύουν οι άνθρωποι που γνωρίζουν γιατί είναι κακός και πώς να τον διορθώσουν. Ο προγραμματιστής ως ανθρώπινο επάγγελμα εξακολουθεί να είναι σημαντικός. Σε 5-10 χρόνια, οι εταιρείες κινδυνεύουν να βρεθούν χωρίς μεσαίου επιπέδου προγραμματιστές που να γνωρίζουν πώς να αποσφαλματώνουν βαθιά, να γράφουν ασφαλή κώδικα από το μηδέν ή να καταλαβαίνουν γιατί ένα σύστημα αποτυγχάνει.
Μερικοί αρχαιότεροι προγραμματιστές ήδη προειδοποιούν ότι θα έχουμε πρόβλημα χαμένης γενιάς προγραμματιστών. Πρόσφατα δεδομένα από την πλατφόρμα μισθών Ravio δείχνουν ότι οι θέσεις για προγραμματιστές αρχικού επιπέδου μειώθηκαν κατά 72,2% τον τελευταίο χρόνο σε ευρωπαϊκές εταιρείες τεχνολογίας — σε σύγκριση με μείωση 7,4% στα ποσοστά πρόσληψης σε όλα τα επίπεδα εργασίας.
Ο Εμανουέλις Νορμπουτας [Emanuelis Norbutas], διευθύνων σύμβουλος στην πλατφόρμα GenAI nexos.ai, σημειώνει ότι οι θεμελιώδεις δεξιότητες που χρειάζονται για να είσαι καλός προγραμματιστής εξακολουθούν να είναι οι ίδιες, αλλά και ότι ο γραμματισμός στην τεχνητή νοημμοσύνη είναι πλέον απαραίτητος. «Πριν από μερικά χρόνια, η επάρκεια σε μία ή δύο γλώσσες προγραμματισμού και η κατανόηση της βασικής αρχιτεκτονικής συστημάτων θα μπορούσε να κρατήσει έναν προγραμματιστή για αρκετά χρόνια. Σήμερα, αυτή η βάση περιλαμβάνει επίσης τον γραμματισμό AΙ: κατανόηση του πώς λειτουργούν τα μοντέλα, πώς να σχεδιάζετε αποτελεσματικές προτροπές, πώς να ενσωματώνετε υπεύθυνα ΜΓΜ και πού βρίσκονται τα όριά τους».
Το μέλλον: προσέγγιση με σύνεση
Οι εταιρείες αρχίζουν να συνειδητοποιούν το πρόβλημα με το «AI slop». Πολλές που ήταν ολοκληρωτικά υπέρ της αντικατάστασης ανθρώπων με τεχνητή νοημοσύνη κάνουν γρήγορα πίσω.
Η λύση δεν είναι να απαγορευτούν τα εργαλεία AI, αλλά να αντιμετωπιστούν ως ένας ισχυρός βοηθός που απαιτεί ανθρώπινη επίβλεψη. Ο ρόλος του προγραμματιστή πρέπει να εξελιχθεί από αυτόν του δημιουργού κώδικα σε ρόλο κριτή και αρχιτέκτονα λύσεων που παράγονται από τεχνητή νοημοσύνη.
Μια ισχυρή στρατηγική απαιτεί έναν συνδυασμό μιας διαδικασίας human-in-the-loop, αυτοματοποιημένων εργαλείων σάρωσης ασφαλείας (SAST, DAST) και μιας κουλτούρας κριτικής σκέψης για να πιάσουμε αυτό που χάνει η τεχνητή νοημοσύνη. Οι προγραμματιστές που χρησιμοποιούν τεχνητή νοημοσύνη πρέπει να ελέγχουν προσεκτικά όλες τις εξόδους πριν από την ενσωμάτωση.
Όπως λέει ο Ράιαν Σάλβα [Ryan Salva], ανώτερος διευθυντής προϊόντος στην Google: «Είμαι βαθιά πεπεισμένος ότι, υιοθετώντας αυτά τα εργαλεία, δεν μπορούμε απλά να συνεχίζουμε να κάνουμε τα πράγματα με τον ίδιο ακριβώς τρόπο, και σίγουρα δεν μπορούμε να θεωρούμε δεδομένο ότι τα μοντέλα θα μας δίνουν πάντα τη σωστή απάντηση. [Η χρήση τους] πρέπει οπωσδήποτε να συνδυάζεται με την ανθρώπινη κρίση σε κάθε βήμα».
Οι προγραμματιστές που θα εξελιχθούν φαίνεται να είναι εκείνοι που αγκαλιάζουν την τεχνητή νοημοσύνη ως εργαλείο, ενώ παράλληλα αναπτύσσουν ικανότητες που είναι μοναδικές στον άνθρωπο όπως η συστημική σκέψη, η διαλειτουργική επικοινωνία και η επίλυση πολύπλοκων προβλημάτων. Αντί να ανταγωνίζονται την τεχνητή νοημοσύνη, την εκλαμβάνουν και την αξιοποιούν ως μια ευκαιρία για να επικεντρωθούν σε άλλου τύπου εργασίες, επιταχύνοντας την επαγγελματική τους πορεία.








