Ακαδημαϊκοί και ειδικοί στην κυβερνοασφάλεια προειδοποιούν ότι ένα νέο κύμα ψευδών επιστημονικών ερευνών, που δημιουργούνται με τη βοήθεια της τεχνητής νοημοσύνης (ΤΝ/ΑΙ), περνά αθόρυβα τους ελέγχους λογοκλοπής και καταχωρείται στο επιστημονικό αρχείο. Το φαινόμενο αυτό, όπως σημειώνουν, απειλεί την αξιοπιστία της μελλοντικής επιστημονικής γνώσης, καθώς ενισχύει τη μακροχρόνια πρακτική της λεγόμενης «βιομηχανίας πλαστών μελετών».
Οι «βιομηχανίες πλαστών μελετών» — ψευδείς οργανισμοί που αποκομίζουν κέρδη από πλαστά άρθρα και εξαγορασμένη συγγραφική ιδιότητα — αποτελούν μάστιγα για τους ακαδημαϊκούς εδώ και χρόνια. Πλέον, η τεχνητή νοημοσύνη λειτουργεί ως πολλαπλασιαστής ισχύος για αυτές τις πρακτικές.
Ορισμένοι ειδικοί θεωρούν ότι δεν αρκούν πλέον τα ισχυρότερα εργαλεία εντοπισμού λογοκλοπής· απαιτούνται δομικές αλλαγές στον τρόπο που αξιολογείται και δημοσιεύεται η επιστημονική εργασία.
Σύμφωνα με το Nature Portfolio, πάνω από 10.000 επιστημονικά άρθρα αποσύρθηκαν παγκοσμίως το 2023. Μελέτες που κατασκευάζονται με τη χρήση μεγάλων γλωσσικών μοντέλων (LLM) διαδίδονται σε πολλούς επιστημονικούς κλάδους και πλατφόρμες, όπως το Google Scholar, σύμφωνα με το University of Borås στη Σουηδία. Ανάλυση που δημοσιεύτηκε στο Nature Portfolio έδειξε ότι εργαλεία όπως το ChatGPT, το Gemini και το Claude μπορούν να παράγουν αξιόπιστα κείμενα έρευνας που περνούν με επιτυχία τους συνηθισμένους ελέγχους λογοκλοπής.
Τον Μάιο, ο Διομήδης Σπινέλλης, καθηγητής Πληροφορικής στο Οικονομικό Πανεπιστήμιο Αθηνών, δημοσίευσε ανεξάρτητη μελέτη για περιπτώσεις ψευδούς απόδοσης στο περιοδικό Global International Journal of Innovative Research, αφού ανακάλυψε ότι το όνομά του είχε χρησιμοποιηθεί ψευδώς σε δημοσίευση.
Ο Σπινέλλης διαπίστωσε ότι μόνο πέντε από τα πενήντα τρία άρθρα που εξέτασε και τα οποία είχαν τις λιγότερες παραπομπές, εμφάνιζαν ενδείξεις ανθρώπινης συγγραφής. Οι δείκτες εντοπισμού τεχνητής νοημοσύνης επιβεβαίωσαν «υψηλές πιθανότητες» παραγωγής περιεχομένου από τεχνητή νοημοσύνη στα υπόλοιπα σαράντα οκτώ (48).
Σε άλλη έρευνα, Σουηδοί επιστήμονες εντόπισαν πάνω από 100 ύποπτα άρθρα στο Google Scholar, που θεωρούνται προϊόντα τεχνητής νοημοσύνης.
Η Google δεν απάντησε σε αίτημα σχολιασμού της Epoch Times.

Οι συγγραφείς της σουηδικής μελέτης υπογράμμισαν ότι ένα από τα κύρια προβλήματα με την έρευνα που δημιουργείται από τεχνητή νοημοσύνη — είτε με ανθρώπινη βοήθεια είτε χωρίς — είναι ότι μπορεί να χρησιμοποιηθεί για «στρατηγική παραπληροφόρηση».
Ο συγγραφέας της μελέτης Μπγιορν Έκστρομ (Björn Ekström) εξήγησε ότι ο κίνδυνος αυτού που αποκαλείται «πειρατεία αποδείξεων» αυξάνεται σημαντικά όταν οι ψευδείς έρευνες διαδίδονται μέσω μηχανών αναζήτησης. Αυτό, πρόσθεσε, μπορεί να έχει πραγματικές συνέπειες, καθώς λανθασμένα αποτελέσματα μπορούν να διαρρεύσουν στην κοινωνία και να επηρεάσουν πολλούς τομείς της ανθρώπινης δραστηριότητας.
Η ομάδα του πανεπιστημίου επισήμανε ακόμη ότι, ακόμη κι αν τα ψευδή άρθρα αποσυρθούν, το πρόβλημα παραμένει, αφού η ύπαρξή τους επιβαρύνει ένα ήδη πιεσμένο σύστημα αξιολόγησης από ομότιμους.
Σοβαρές επιπτώσεις για την επιστήμη και την κοινωνία
Η Νισάνσι Σούκλα (Nishanshi Shukla), ειδικός στην ηθική της τεχνητής νοημοσύνης στο Western Governors University, δήλωσε στην Epoch Times ότι η μεγαλύτερη ζημιά από την πλημμύρα των ψευδοεπιστημονικών μελετών θα πλήξει τους τομείς που αφορούν άμεσα τους ανθρώπους.
Η Σούκλα εξήγησε ότι όταν η τεχνητή νοημοσύνη χρησιμοποιείται για την ανάλυση δεδομένων, η ανθρώπινη επίβλεψη είναι κρίσιμη. Όταν, όμως, ολόκληρη η έρευνα παράγεται από τεχνητή νοημοσύνη, υπάρχει κίνδυνος ομογενοποίησης της γνώσης.
Κατά τη Σούκλα, βραχυπρόθεσμα αυτό σημαίνει ότι η επιστημονική έρευνα επαναλαμβάνει τα ίδια μεθοδολογικά μοτίβα, ενσωματώνοντας τα ίδια σφάλματα και προκαταλήψεις, εξυπηρετώντας τελικά μόνο συγκεκριμένες ομάδες ανθρώπων. Μακροπρόθεσμα, τόνισε, αυτό οδηγεί σε έναν κυκλικό μηχανισμό παραγωγής γνώσης, χωρίς κριτική ανθρώπινη σκέψη και χωρίς νέα ανακάλυψη.
Ο Μίχαλ Πρυβάτα (Michal Prywata), συνιδρυτής της εταιρείας ερευνών τεχνητής νοημοσύνης Vertus, συμφώνησε ότι η εξάπλωση της ψευδούς επιστήμης αποτελεί σοβαρό πρόβλημα, του οποίου οι συνέπειες είναι ήδη ορατές.
Ο Πρυβάτα ανέφερε ότι αυτό που παρατηρείται σήμερα θυμίζει μια επίθεση άρνησης υπηρεσίας — οι πραγματικοί ερευνητές «πνίγονται στον θόρυβο», οι αξιολογητές υπερφορτώνονται και οι παραπομπές «μολύνονται» με ψευδείς αναφορές, γεγονός που καθιστά δυσκολότερη την αναγνώριση και επικύρωση της πραγματικής επιστημονικής προόδου.
Κατά τον Πρυβάτα, αυτό είναι το προβλέψιμο αποτέλεσμα της αντιμετώπισης της τεχνητής νοημοσύνης ως εργαλείου παραγωγικότητας, χωρίς κατανόηση του τι είναι πραγματικά η νοημοσύνη. Όπως σημείωσε, τα μεγάλα γλωσσικά μοντέλα δεν λειτουργούν όπως το ανθρώπινο μυαλό· είναι μηχανισμοί αντιστοίχισης προτύπων που παράγουν εύλογα κείμενα — ακριβώς αυτό που χρειάζεται μια ψεύτικη μελέτη για να φαίνεται αξιόπιστη.
Ο Νέιθαν Ουένζλερ (Nathan Wenzler), επικεφαλής ασφάλειας πληροφοριών στην εταιρεία Optiv, υποστήριξε ότι διακυβεύεται η ίδια η δημόσια εμπιστοσύνη στην επιστήμη. Επεσήμανε ότι όσο περισσότερα λανθασμένα ή ψευδή άρθρα που δημιουργούνται από τεχνητή νοημοσύνη εισέρχονται σε έγκριτα περιοδικά και επιστημονικές επιθεωρήσεις τόσο αυξάνεται η διάβρωση της εμπιστοσύνης, βραχυπρόθεσμα και μακροπρόθεσμα.
Από την πλευρά της ασφάλειας, ο Ουένζλερ προειδοποίησε ότι τα πανεπιστήμια αντιμετωπίζουν πλέον μια νέα απειλή· την κλοπή πνευματικής ιδιοκτησίας. Ανέφερε στην Epoch Times ότι έχουν καταγραφεί κυβερνοεπιθέσεις από κρατικούς φορείς με στόχο την υποκλοπή ερευνητικών δεδομένων, τα οποία στη συνέχεια παρουσιάζονται ως προϊόν δικής τους έρευνας.
Κατά τον Ουένζλερ, αυτή η πρακτική θα μπορούσε να έχει τεράστιες οικονομικές επιπτώσεις σε οργανισμούς που βασίζονται σε επιχορηγήσεις για τη χρηματοδότηση νόμιμων ερευνών στην τεχνολογία, την ιατρική και άλλους τομείς.
Περιέγραψε, μάλιστα, ένα πιθανό σενάριο κατά το οποίο η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για να τροποποιήσει κλεμμένα δεδομένα ώστε να φαίνονται πρωτότυπα ή για να δημιουργήσει ψευδή αντίθετα δεδομένα που υπονομεύουν τα αυθεντικά ευρήματα. Τόνισε ότι το οικονομικό κόστος θα είναι τεράστιο, αλλά οι επιπτώσεις στην παγκόσμια επιστημονική πρόοδο θα είναι ανυπολόγιστες.

Ο Πρυβάτα παρατήρησε ότι ένα μεγάλο μέρος του κοινού ήδη αμφισβητεί την ακαδημαϊκή κοινότητα, προσθέτοντας ότι το φαινόμενο αυτό θα ενισχύσει ακόμη περισσότερο αυτή την αμφιβολία. «Οι άνθρωποι πλέον βλέπουν αποδείξεις ότι το σύστημα μπορεί να παρακαμφθεί μαζικά», προειδοποίησε, χαρακτηρίζοντας την εξέλιξη αυτή επικίνδυνη για την κοινωνία.
Η εξάπλωση των ψευδών επιστημονικών εργασιών συμβαίνει τη στιγμή που η εμπιστοσύνη του κοινού στην επιστήμη είναι μικρότερη από ό,τι πριν από την πανδημία COVID-19. Έρευνα του Pew Research Center το 2024 έδειξε ότι μόλις 26% των ερωτηθέντων δήλωσαν ότι πιστεύουν ότι οι επιστήμονες ενεργούν για το κοινό καλό, έναντι 87% το 2020.

Ταυτόχρονα, σύμφωνα με μελέτη του Brookings Institution, οι Αμερικανοί εμφανίζονται ολοένα πιο δυσπιστοι απέναντι στην πρόοδο της τεχνητής νοημοσύνης, ειδικά όταν αφορά τη γλωσσολογία, την ιατρική ή ακόμη και τις προσωπικές σχέσεις.
Αναζητώντας λύσεις
Η Σούκλα εκτίμησε ότι η πλημμύρα των ψευδών ερευνών που παράγονται από τεχνητή νοημοσύνη οφείλεται εν μέρει στην ακαδημαϊκή πίεση για συνεχείς δημοσιεύσεις. Υποστήριξε ότι όταν ο αριθμός των δημοσιεύσεων και των παραπομπών καθορίζει την επαγγελματική πορεία ενός ερευνητή, η τεχνητή νοημοσύνη αποτελεί έναν γρήγορο και εύκολο τρόπο «επιτυχίας».
Κατά την ίδια, το πρώτο βήμα για την αντιμετώπιση του φαινομένου είναι η αποδέσμευση των πανεπιστημίων από την πίεση των δημοσιεύσεων και η υιοθέτηση καλύτερων δεικτών για την αξιολόγηση της ακαδημαϊκής επιτυχίας. Επεσήμανε ακόμη τη σημασία της ενημέρωσης σχετικά με τις έρευνες που δημιουργούνται από τεχνητή νοημοσύνη, καθώς και τη διατήρηση αυστηρών προτύπων διαφάνειας και αυθεντικότητας στις δημοσιεύσεις.
Το Διεθνές Επιστημονικό Συμβούλιο ανέφερε ότι η επιδίωξη των δημοσιεύσεων καθορίζει την πανεπιστημιακή κατάταξη και την επαγγελματική ανέλιξη, χαρακτηρίζοντας αυτή την «αδιάκοπη πίεση» βασικό παράγοντα αύξησης των περιπτώσεων απάτης. Όπως σημείωσε, εάν αυτό δεν αλλάξει, ολόκληρος ο ερευνητικός κόσμος κινδυνεύει να στραφεί προς χαμηλότερα επιστημονικά πρότυπα, με σημαντικές συνέπειες σε κρίσιμους τομείς όπως η ιατρική, η τεχνολογία και η κλιματική επιστήμη.
Ο Πρυβάτα προειδοποίησε ότι όταν δημοσιεύονται ψευδή δεδομένα που έχουν δημιουργηθεί από τεχνητή νοημοσύνη, στη συνέχεια μπορούν να χρησιμοποιηθούν για την εκπαίδευση νέων μοντέλων τεχνητής νοημοσύνης, δημιουργώντας έναν φαύλο κύκλο παραπληροφόρησης.

Προς το παρόν, υπάρχουν ελάχιστα αντικίνητρα που να αποτρέπουν τους ακαδημαϊκούς από το να δημοσιεύουν όσο το δυνατόν περισσότερες εργασίες. Η έμφαση που δίνεται στον όγκο των δημοσιεύσεων σε πανεπιστημιακό επίπεδο συνδέεται εδώ και καιρό με την επαγγελματική ασφάλεια και την πρόσβαση σε χρηματοδοτήσεις ερευνητικών προγραμμάτων.
Κατά τον Πρυβάτα, η λύση δεν βρίσκεται σε πιο εξελιγμένα εργαλεία ανίχνευσης, τα οποία θεωρεί «αγώνα δρόμου που έχει ήδη χαθεί», αφού ήδη αναπτύσσονται εργαλεία ικανά να ξεγελούν τους ανιχνευτές τεχνητής νοημοσύνης.
Πρότεινε, αντ’ αυτού, την αναθεώρηση του συστήματος κινήτρων στην ακαδημαϊκή κοινότητα, ώστε ερευνητές και ιδρύματα να φέρουν οικονομική ευθύνη για ψευδείς δημοσιεύσεις. «Πρέπει να σταματήσει η επιβράβευση του όγκου και να στηριχθεί η ποιότητα και ο πραγματικός αντίκτυπος των εργασιών», τόνισε.
Ο Ουένζλερ από την πλευρά του υπογράμμισε ότι, παρότι η αξιολόγηση από ομοτίμους παραμένει ο «χρυσός κανόνας» για την επικύρωση της έρευνας, απαιτείται επένδυση χρόνου και τεχνολογίας από τους οργανισμούς που τη διεξάγουν. Προσέθεσε δε ότι χρειάζεται ευρύτερη συνεργασία μεταξύ ακαδημαϊκών ιδρυμάτων και κυβερνητικών φορέων για τη διασφάλιση της ακεραιότητας της έρευνας.
Ωστόσο, το ίδιο το σύστημα αξιολόγησης αντιμετωπίζει σοβαρές προκλήσεις — ο αυξανόμενος όγκος περιεχομένου και η κόπωση των αξιολογητών δυσχεραίνουν τη διαδικασία. Σύμφωνα με το Nature Portfolio, η τεχνητή νοημοσύνη χρησιμοποιείται πλέον και στην ίδια τη διαδικασία αξιολόγησης, γεγονός που προκαλεί περαιτέρω ανησυχίες στην επιστημονική κοινότητα.
Ο Πρυβάτα πρότεινε την καθιέρωση ζωντανής αξιολόγησης με δημοσιοποίησης της ταυτότητας των αξιολογητών, καθώς και τη θεσμοθέτηση αμειβόμενης αξιολόγησης, ώστε να πάψει να θεωρείται απλή εθελοντική εργασία.


















