Πέμπτη, 08 Μαΐ, 2025
Η σελίδα του DeepSeek εμφανίζεται στην οθόνη ενός κινητού τηλεφώνου στο Πεκίνο, στις 28 Ιανουαρίου 2025. (AP Photo/Andy Wong)

Το υπεύθυνο ψέμα: Πώς πείθει η τεχνητή νοημοσύνη χωρίς να λέει την αλήθεια

Η ενθουσιώδης υποδοχή που έχει γνωρίσει η γενετική τεχνητή νοημοσύνη, και ειδικότερα τα μεγάλα γλωσσικά μοντέλα (Large Language Models-LLMs) όπως τα ChatGPT, Gemini, Grok και DeepSeek, βασίζεται – σύμφωνα με τον ερευνητή Γκλεμπ Λίσικ –σε μια θεμελιώδη παρανόηση. Ενώ αυτά τα συστήματα εντυπωσιάζουν τους χρήστες με αρθρωμένες απαντήσεις και φαινομενικά λογικά επιχειρήματα, η πραγματικότητα είναι ότι αυτό που παρουσιάζεται ως «συλλογιστική» δεν είναι παρά μια εξελιγμένη μορφή μίμησης.

Όπως σημειώνει, τα μοντέλα αυτά δεν αναζητούν την αλήθεια μέσα από γεγονότα και λογική επιχειρηματολογία, αλλά απλώς προβλέπουν κείμενο με βάση μοτίβα στα τεράστια σύνολα δεδομένων πάνω στα οποία έχουν εκπαιδευτεί. Αυτό δεν συνιστά ούτε νοημοσύνη ούτε συλλογισμό – και αν τα δεδομένα εκπαίδευσης φέρουν μέσα τους προκαταλήψεις, τότε δημιουργούνται σοβαρά προβλήματα.

Ο ίδιος υποστηρίζει ότι πολλοί χρήστες δεν γνωρίζουν πως η αρχιτεκτονική των LLMs είναι «θολή» και ασύμβατη με τη δομημένη λογική ή την αιτιότητα. Η σκέψη που φαίνεται να παράγουν δεν είναι αληθινή, αλλά προσομοιωμένη – και όχι καν διαδοχική. Εκείνο που παρερμηνεύεται ως κατανόηση είναι, στην ουσία, στατιστικός συσχετισμός.

Τα διαφημιζόμενα χαρακτηριστικά όπως οι «αλυσίδες σκέψης» περιγράφονται από τον Λίσικ ως τεχνάσματα εντυπωσιασμού. Αυτό που βλέπει ο χρήστης είναι, σύμφωνα με τον ίδιο, μια μορφή εκλογίκευσης που παράγεται αφού το μοντέλο έχει ήδη «αποφασίσει» την απάντησή του μέσω πιθανολογικής πρόβλεψης. Η ψευδαίσθηση αυτή, ωστόσο, είναι τόσο ισχυρή που οδηγεί πολλούς στο να πιστεύουν πως η μηχανή σκέφτεται πραγματικά. Και αυτή η ψευδαίσθηση δεν περιορίζεται στο να παραπλανά· λειτουργεί και ως νομιμοποίηση.

Τα LLMs δεν είναι ουδέτερα εργαλεία, τονίζει. Έχουν εκπαιδευτεί πάνω σε σύνολα δεδομένων γεμάτα προκαταλήψεις, πλάνες και τις κυρίαρχες ιδεολογίες της εποχής. Οι απαντήσεις τους αντανακλούν δημοφιλή ρεύματα σκέψης, όχι την επιδίωξη της αλήθειας. Όταν η «λογική» λειτουργεί ως εκ των υστέρων δικαιολόγηση μιας ήδη παραχθείσας απάντησης, τότε το εργαλείο μετατρέπεται εύκολα σε μέσο προπαγάνδας.

Στο πλαίσιο αυτό, κατά τη διάρκεια συνομιλίας του με το ΑΙ για τον συστημικό ρατσισμό, το DeepSeek όχι μόνο διατύπωσε  επιχειρήματα βασισμένα σε ανύπαρκτες μελέτες και αριθμούς, αλλά όταν του ζητήθηκε να αναστοχαστεί, παραδέχθηκε μια σειρά λογικών πλανών. Όταν αμφισβητήθηκε, χαρακτήρισε ένα από τα ψευδή επιχειρήματά του ως «υποθετικό σύνθετο παράδειγμα». Σε επόμενη ερώτηση, απολογήθηκε για άλλο «σφάλμα» και προσαρμόστηκε στην αντίθετη άποψη. Όπως επισημαίνει ο αρθρογράφος, αυτό δεν συνιστά επιδίωξη ακρίβειας αλλά άσκηση πειθούς.

Ανάλογη ήταν η εμπειρία του και με το Gemini της Google – μοντέλο που έχει δεχθεί κριτική για τις γελοία «προοδευτικές» αποκρίσεις του. Όπως περιγράφει, το μοντέλο τελικά αναγνώρισε τη σαθρότητα των επιχειρημάτων του, υπονοώντας και την αναξιοπιστία τους.

Κάποιος χρήστης ίσως δει θετικά το γεγονός ότι μπορεί να «στριμώξει» την τεχνητή νοημοσύνη ώστε να παραδεχθεί λάθη. Ωστόσο, ο Λίσικ υποστηρίζει πως τέτοιες περιπτώσεις δεν έχουν καμία μόνιμη επίδραση: το μοντέλο «συμπεριφέρεται καλά» μόνο μέσα σε εκείνη τη συγκεκριμένη συνομιλία – χωρίς να διατηρεί καμία μνήμη ή βελτίωση για την επόμενη.

Όσο μεγαλύτερο είναι το μοντέλο, τόσο πιο προβληματικό γίνεται, προσθέτει. Μελέτη του Πανεπιστημίου Cornell δείχνει ότι τα πιο εξελιγμένα μοντέλα είναι και τα πιο παραπλανητικά, παρουσιάζοντας με σιγουριά ανακρίβειες που συνάδουν με διαδεδομένες παρανοήσεις. Σύμφωνα με την εταιρεία Anthropic, «τα προηγμένα μοντέλα συχνά αποκρύπτουν τους πραγματικούς συλλογισμούς τους, και μερικές φορές το κάνουν ακόμη και όταν η συμπεριφορά τους είναι σαφώς μη ευθυγραμμισμένη».

Ορισμένοι ερευνητές προσπαθούν να διορθώσουν αυτές τις αδυναμίες. Πρωτοβουλίες όπως το TruthfulQA της OpenAI και το πλαίσιο HHH (Helpful, Honest, Harmless) της Anthropic  στοχεύουν στη βελτίωση της αξιοπιστίας. Όμως ο Λίσικ παρατηρεί ότι αυτές είναι συμπληρωματικές προσπάθειες που προστίθενται εκ των υστέρων σε μια αρχιτεκτονική που εξαρχής δεν σχεδιάστηκε για να αναζητά την αλήθεια και παραμένει ουσιαστικά «τυφλή» απέναντι στην επιστημονική εγκυρότητα.

Ο Έλον Μασκ, κατά την άποψή του, είναι ίσως ο μόνος σημαίνων παράγοντας στον χώρο της τεχνητής νοημοσύνης που έχει δηλώσει δημόσια ότι η αναζήτηση της αλήθειας πρέπει να είναι κεντρικός στόχος. Ωστόσο, ακόμη και το δικό του μοντέλο, το Grok της xAI, υπολείπεται.

Στον χώρο της παραγωγικής ΑΙ, η αλήθεια υποχωρεί έναντι της «ασφάλειας» – μιας έννοιας που έχει ταυτιστεί με την αποφυγή προσβολών σε μια υπερευαίσθητη «προοδευτική» κοινωνία. Η «υπευθύνη τεχνητή νοημοσύνη» νοείται πλέον ως η προσπάθεια διασφάλισης της ασφάλειας, της δικαιοσύνης και της συμπερίληψης – στόχοι θεμιτοί αλλά υποκειμενικοί. Αυτή η προτεραιοποίηση, όμως, συχνά επισκιάζει την ανάγκη για ταπεινή και ειλικρινή αναπαράσταση της πραγματικότητας.

Τα LLMs είναι σχεδιασμένα κυρίως για να δίνουν χρήσιμες και πειστικές απαντήσεις, όχι κατ’ ανάγκην ακριβείς. Αυτή η σχεδιαστική επιλογή, σύμφωνα με ερευνητές του Oxford Internet Institute, οδηγεί σε φαινόμενα «απρόσεκτης ομιλίας» – απαντήσεις που ακούγονται λογικές αλλά είναι συχνά ανακριβείς, υπονομεύοντας τη βάση της ενημερωμένης δημόσιας συζήτησης.

Το ζήτημα αυτό θα γίνει ολοένα πιο κρίσιμο καθώς η τεχνητή νοημοσύνη διεισδύει σε κάθε πτυχή της κοινωνίας. Σε λάθος χέρια, αυτά τα πειστικά, πολύγλωσσα και «ευπροσάρμοστα» μοντέλα μπορεί να αξιοποιηθούν για να υπηρετήσουν ατζέντες που δεν ανέχονται την αντίθετη άποψη. Ένα ακούραστο ψηφιακό εργαλείο πειθούς, που δεν μετανοεί και δεν παραδέχεται ποτέ λάθος, είναι το ιδανικό για κάθε αυταρχικό καθεστώς. Σε συστήματα όπως το κινεζικό «Σύστημα Κοινωνικής Αξιολόγησης », τέτοια μοντέλα μπορεί να μετατραπούν σε μέσα ιδεολογικής επιβολής – όχι διαφώτισης.

Η παραγωγική τεχνητή νοημοσύνη είναι αναμφίβολα ένα τεχνολογικό επίτευγμα. Όμως, όπως σημειώνει ο Λίσικ, δεν είναι ευφυής, δεν είναι ειλικρινής εκ κατασκευής και δεν είναι ουδέτερη. Οποιαδήποτε αντίθετη δήλωση εξυπηρετεί μόνο όσους θέλουν να ελέγχουν το αφήγημα.

Η αρχική, πλήρης έκδοση αυτού του άρθρου εμφανίστηκε πρόσφατα στο C2C Journal.

Οι απόψεις που εκφράζονται σε αυτό το άρθρο αποτελούν απόψεις του συγγραφέα και δεν αντανακλούν απαραίτητα τις απόψεις της Epoch Times.

Πως μπορείτε να μας βοηθήσετε ώστε να συνεχίσουμε να σας κρατάμε ενημερωμένους

Ποιος είναι ο λόγος που χρειαζόμαστε την βοήθειά σας για την χρηματοδότηση του ερευνητικού ρεπορτάζ μας; Επειδή είμαστε ένας ανεξάρτητος οργανισμός ειδήσεων που δεν επηρεάζεται από καμία κυβέρνηση, εταιρεία ή πολιτικό κόμμα. Από την ημέρα που ξεκινήσαμε, έχουμε έρθει αντιμέτωποι με προσπάθειες αποσιώπησης της αλήθειας κυρίως από το Κινεζικό Κομμουνιστικό Κόμμα. Αλλά δεν θα λυγίσουμε. Η ελληνική έκδοση της Epoch Times βασίζεται ολοκληρωτικά στις γενναιόδωρες συνεισφορές σας για να διατηρήσει την παραδοσιακή δημοσιογραφία ζωντανή και υγιή στην Ελληνική γλώσσα. Μαζί, μπορούμε να συνεχίσουμε να διαδίδουμε την αλήθεια.

Σχολιάστε