Τετάρτη, 29 Μαΐ, 2024
Ένας επισκέπτης παρακολουθεί μια πινακίδα τεχνητής νοημοσύνης (AI) σε μια κινούμενη οθόνη στο Mobile World Congress (MWC), τη μεγαλύτερη ετήσια συνάντηση του κλάδου των τηλεπικοινωνιών, στη Βαρκελώνη. (Josep Lago/AFP μέσω Getty Images)

Πώς η τεχνητή νοημοσύνη μπορεί να παρακολουθεί και να χειραγωγεί τους ψηφοφόρους

Πόσο καλά γνωρίζουν τα προγράμματα τεχνητής νοημοσύνης (AI) εμάς τους ανθρώπους;

Στις περισσότερες περιπτώσεις, αποδεικνύεται ότι τα γνωρίζουν αρκετά καλά και, κατά κάποιο τρόπο, καλύτερα από ό,τι εμείς οι ίδιοι γνωρίζουμε τους εαυτούς μας.

Μια μελέτη από ειδικούς σε θέματα τεχνητής νοημοσύνης στο Πανεπιστήμιο Μπρίγκαμ Γιανγκ (Brigham Young University), με τίτλο «Από ένα, πολλά: Χρησιμοποιώντας γλωσσικά μοντέλα για την προσομοίωση ανθρώπινων δειγμάτων» (Out of One, Many: Using Language Models to Simulate Human Samples), διαπίστωσε ότι τα προγνωστικά προγράμματα τεχνητής νοημοσύνης παρουσίασαν έναν εντυπωσιακό βαθμό αυτού που αποκαλούν «αλγοριθμική πιστότητα», ή ακριβή αντιστοίχιση με την πραγματική ανθρώπινη συμπεριφορά.

«Επειδή αυτά τα εργαλεία τεχνητής νοημοσύνης εκπαιδεύονται βασικά σε πράγματα που παράγουν οι άνθρωποι, πράγματα που γράφουμε, έγγραφα που φτιάχνουμε, ιστοσελίδες που γράφουμε, μπορούν να μας αντανακλούν πολλά ενδιαφέροντα και σημαντικά πράγματα για εμάς τους ίδιους», δήλωσε στην Epoch Times ο Ίθαν Μπάσμπι (Ethan Busby), πολιτικός ψυχολόγος και συν-συγγραφέας της μελέτης. «Κάτι σαν να διάβαζε κάποιος το ημερολόγιό σας από την αρχή μέχρι το τέλος, θα μάθαινε πολλά πράγματα για εσάς, και δεν πρόκειται να σας αρέσουν όλα».

«Με παρόμοιο τρόπο», δήλωσε ο Μπάσμπι, «αυτά τα εργαλεία έχουν διαβάσει τόσα πολλά πράγματα που έχουν παραγάγει οι άνθρωποι και μπορούν να αναπαράγουν ή να μας πουν πράγματα για τον εαυτό μας που δεν γνωρίζαμε απαραίτητα».

Η μελέτη επιδίωξε να αναλύσει την ανθρώπινη συμπεριφορά στο πλαίσιο των εκλογών και διερωτήθηκε με πόση ακρίβεια ένα γλωσσικό μοντέλο GPT-3 θα μπορούσε να προβλέψει τα πρότυπα ψηφοφορίας με βάση κοινωνικοδημογραφικούς παράγοντες όπως το φύλο, η ηλικία, η τοποθεσία, η θρησκεία, η φυλή και η οικονομική κατάσταση ενός ατόμου. Οι συγγραφείς χρησιμοποίησαν αυτούς τους παράγοντες για να δημιουργήσουν «δείγματα σιλικόνης» (silicon samples) ή σύνθετες προσωποποιήσεις με βάση ποικίλους συνδυασμούς αυτών των χαρακτηριστικών.

«Μπορείτε βασικά να ζητήσετε από αυτά τα εργαλεία να βάλουν τον εαυτό τους σε ένα συγκεκριμένο πλαίσιο σκέψης και να προσποιηθούν ότι είναι ουσιαστικά αυτό το άτομο, να προσποιηθούν ότι έχουν αυτά τα χαρακτηριστικά», δήλωσε ο Μπάσμπι. Ρώτησαν το πρόγραμμα πώς αυτά τα «δείγματα σιλικόνης» θα ψήφιζαν σε συγκεκριμένες εκστρατείες, και στη συνέχεια συνέκριναν τα αποτελέσματα με τη συμπεριφορά των πραγματικών ψηφοφόρων στις εκλογές μεταξύ 2012 και 2020, χρησιμοποιώντας δεδομένα από τις μελέτες για τις αμερικανικές εθνικές εκλογές (American National Elections).

Για παράδειγμα, είπε ο Μπάσμπι, όσον αφορά τις εκλογές του 2016, «θα μπορούσαμε να πούμε, ποια είδη ομάδων θα είναι καθοριστικά στο Οχάιο». Αυτό που διαπίστωσαν ήταν ότι η τεχνητή νοημοσύνη έμαθε γρήγορα να προβλέπει με ακρίβεια τον τρόπο με τον οποίο οι άνθρωποι θα ψήφιζαν με βάση τα χαρακτηριστικά τους.

Αριστερά και Δεξιά κατακρίνουν την Τεχνητή Νοημοσύνη, όταν τους κοστίζει τις εκλογές

Η τεχνητή νοημοσύνη είναι εξαιρετικά χρήσιμη σε οργανισμούς που θέλουν να στοχεύσουν πράγματα όπως εκστρατείες πολιτικών μηνυμάτων ή προσπάθειες συγκέντρωσης χρημάτων. Αλλά ορισμένοι πολιτικοί αναλυτές έχουν σημάνει συναγερμό γι’ αυτό, συμπεραίνοντας αδικία και παρέμβαση στις εκλογές. Ο βαθμός της οργής τους, ωστόσο, εξαρτάται σε μεγάλο βαθμό από το αν οι υποψήφιοι ή οι υποθέσεις τους πέτυχαν ή απέτυχαν.

Το 2017, η Guardian, μια αριστερή βρετανική εφημερίδα, έγραψε μια σειρά άρθρων υποστηρίζοντας ότι ο συντηρητικός επιχειρηματίας τεχνολογίας Ρόμπερτ Μέρσερ (Robert Mercer), τον οποίο αποκάλεσε «ο δισεκατομμυριούχος των μεγάλων δεδομένων που διεξάγει πόλεμο στα κυρίαρχα μέσα ενημέρωσης», είχε χρηματοδοτήσει μια στρατηγική εκστρατείας που χρησιμοποιούσε τεχνητή νοημοσύνη για να παρακάμψει το αφήγημα των κυρίαρχων μέσων ενημέρωσης. Αυτό, ισχυριζόταν η εφημερίδα, επηρέασε παράνομα τους ψηφοφόρους υπέρ του Ντόναλντ Τραμπ, με αποτέλεσμα τη νίκη του στις προεδρικές εκλογές του 2016.

Λατίνοι ψηφίζουν σε εκλογικό τμήμα στο εστιατόριο El Gallo στο Λος Άντζελες της Καλιφόρνια, στις 8 Νοεμβρίου 2016. (David McNew/Getty Images)

Στη συνέχεια, το 2020, το Forbes, μια δεξιά έκδοση, δημοσίευσε ένα άρθρο με τίτλο «Πώς η τεχνητή νοημοσύνη ταλάνισε τις ενδιάμεσες εκλογές» (How Artificial Intelligence Swayed the Midterm Elections). Το άρθρο αυτό κατήγγειλε τη χρήση της Τεχνητής Νοημοσύνης από τους Δημοκρατικούς για τη στόχευση εκστρατειών συγκέντρωσης χρημάτων σε πιθανούς δωρητές, επιτρέποντάς τους να ξεπεράσουν μαζικά τους Ρεπουμπλικάνους σε κλειστούς αγώνες και να φέρουν θετικά αποτελέσματα για το Δημοκρατικό Κόμμα.

Οι επικριτές της τεχνητής νοημοσύνης λένε ότι τα προγράμματα αυτά δεν χρησιμοποιούνται μόνο για την ανάλυση των ψηφοφόρων, αλλά και για τη χειραγώγηση των ψηφοφόρων. Μια έκθεση του 2022 από την Rand Corporation με τίτλο «Artificial Intelligence, Deepfakes and Disinformation» (Τεχνητή νοημοσύνη, ψεύδη και παραπληροφόρηση), προειδοποίησε για «πόλεμο παραπληροφόρησης», αν και σε μεγάλο βαθμό από αριστερή οπτική γωνία. Μεταξύ των μέσων χειραγώγησης που ανέφερε ήταν παραπλανητικές εικόνες ή βίντεο που μοιράζονται στα μέσα κοινωνικής δικτύωσης, γνωστά ως μιμίδια (memes).

«Η Ρωσία χρησιμοποίησε μιμίδια για να στοχεύσει τις αμερικανικές εκλογές του 2016», ανέφερε η έκθεση. «Η Κίνα χρησιμοποίησε μιμίδια για να στοχοποιήσει διαδηλωτές στο Χονγκ Κονγκ- και όσοι επιδιώκουν να αμφισβητήσουν την αποτελεσματικότητα των εμβολίων για τη νόσο του κοροναϊού 2019 χρησιμοποίησαν τα μιμίδια ως αγαπημένο εργαλείο». Σύμφωνα με τον Ραντ, αυτά τα μιμίδια, μαζί με τις «ιστοσελίδες ψεύτικων ειδήσεων», «έσπειραν τη διαίρεση στο αμερικανικό εκλογικό σώμα και αύξησαν την υιοθέτηση θεωριών συνωμοσίας».

Μεταφέροντας την τεχνητή νοημοσύνη από την πληθυσμιακή στην προσωπική ανάλυση

Ενώ η τεχνητή νοημοσύνη είναι αποτελεσματική σε συνολικό επίπεδο, παρατηρώντας τους ανθρώπους, εντοπίζοντας μοτίβα, μαθαίνοντας τις συνήθειές μας και συμπεραίνοντας, με βάση αυτό, τι θα κάνουμε σε διάφορες καταστάσεις, το να φτάσουμε στο ατομικό επίπεδο είναι πιο δύσκολο.

«Νομίζω ότι σε ατομικό επίπεδο, μάλλον τα καταφέρνει καλά- δεν είναι τέλεια. Δεν είναι απαραίτητα καλή στην πρόβλεψη συγκεκριμένων ανθρώπων, όχι τόσο καλή όσο στην πρόβλεψη ομάδων και στη συγκεντρώσεων», δήλωσε ο Μπάσμπι.

Ένα smartphone με το λογότυπο ChatGPT τοποθετείται σε μια μητρική πλακέτα υπολογιστή σε αυτή την εικόνα που τραβήχτηκε στις 23 Φεβρουαρίου 2023. (Dado Ruvic/Reuters)

Όποιος έχει ρωτήσει το ChatGPT, ένα πρόσφατα δημοφιλές πρόγραμμα τεχνητής νοημοσύνης, για τον εαυτό του ή για άτομα που γνωρίζει, διαπιστώνει συχνά ότι κάποιες από τις πληροφορίες είναι σωστές και κάποιες λάθος.

«Αυτά τα μοντέλα, όλα τους, το ChatGPT και οποιοδήποτε από αυτά που χρησιμοποιούνται από το Facebook ή άλλα, έχουν μερικές φορές την τάση να έχουν αυτό που ονομάζεται «ψευδαισθήσεις»», δήλωσε ο Μπάσμπι. «Αυτό σημαίνει ότι απλά επινοούν πράγματα που δεν είναι αληθινά».

Αλλά πιστεύει ότι η τεχνητή νοημοσύνη θα γίνει σύντομα καλύτερη στο να ξεκαθαρίζει τα γεγονότα.

«Υπάρχει μεγάλη πίεση από τις εταιρείες, τους πολιτικούς, τις διαφημιστικές εκστρατείες – θέλουν να ξέρουν πώς θα ανταποκριθεί αυτό το άτομο σε αυτό το μήνυμα», είπε. «Νομίζω ότι θα δοθεί μεγάλη έμφαση στην προσπάθεια να αναπτυχθεί αυτό το είδος ακρίβειας, αλλά δεν νομίζω ότι έχουμε φτάσει ακόμα εκεί».

Πηγαίνοντας σε προσωπικό επίπεδο, μια έκθεση του 2019 στο Scientific American με τίτλο «The Internet Knows You Better Than Your Spouse Does» (Το Διαδίκτυο σας γνωρίζει καλύτερα από τον σύντροφό σας), ανέλυσε ένα πρόγραμμα με την ονομασία Apply Magic Sauce (Εφαρμόστε τη μαγική σάλτσα). Το πρόγραμμα ζητά από τα υποκείμενα μερικές εισόδους, όπως κάτι που έχουν γράψει, όπως e-mails ή blogs, μαζί με πληροφορίες σχετικά με τη δραστηριότητά τους στα μέσα κοινωνικής δικτύωσης.

Με βάση αυτές τις εισροές, το Apply Magic Sauce θα μπορούσε να δημιουργήσει «ένα λεπτομερές ψυχογράφημα ή προφίλ προσωπικότητας, το οποίο περιλαμβάνει την υποτιθέμενη ηλικία και το φύλο σας, αν είστε αγχωμένος ή αγχώνεστε εύκολα, πόσο γρήγορα ενδίδετε σε παρορμήσεις και αν είστε πολιτικά και κοινωνικά συντηρητικός ή φιλελεύθερος». Η έκθεση διαπίστωσε ότι αναλύοντας τα «likes» των ανθρώπων στα μέσα κοινωνικής δικτύωσης, τα προγράμματα τεχνητής νοημοσύνης ήταν σε θέση να ζωγραφίσουν ένα ακριβές πορτρέτο της προσωπικότητάς τους.

«Εάν το λογισμικό είχε μόλις 10 [likes] για ανάλυση, ήταν σε θέση να αξιολογήσει το άτομο αυτό περίπου τόσο καλά όσο και ένας συνάδελφος», αναφέρεται στην έκθεση. «Δεδομένων 70 likes, ο αλγόριθμος ήταν περίπου τόσο ακριβής όσο ένας φίλος. Με 300, ήταν πιο επιτυχημένος από τον σύντροφο του ατόμου».

«Οι οργανισμοί πρόκειται να ενδιαφερθούν πολύ για το «Πώς μπορούμε να σας κατανοήσουμε σε προσωπικό επίπεδο;»». δήλωσε ο Μπάσμπι. «Με κάνει να νιώθω άβολα να με ακολουθεί και να με διαμορφώνει με αυτόν τον τρόπο ένα εργαλείο τεχνητής νοημοσύνης».

Οι πιο σκοτεινές δυνατότητες της τεχνητής νοημοσύνης έχουν γίνει πρωτοσέλιδο θέμα τις τελευταίες εβδομάδες, με επείγουσες εκκλήσεις από επιστήμονες και ειδικούς της τεχνολογίας να περιοριστεί η ανάπτυξή της έως ότου οι άνθρωποι κατανοήσουν καλύτερα τις χρήσεις και τις επιπτώσεις της. Στις 22 Μαρτίου, μια ανοιχτή επιστολή, την οποία έχουν υπογράψει μέχρι στιγμής 50.000 άνθρωποι, μεταξύ των οποίων ο συνιδρυτής της Apple Στιβ Βόζνιακ και ο τεχνολογικός επιχειρηματίας Έλον Μασκ, ζητούσε να σταματήσει άμεσα η ανάπτυξη της γενικής τεχνητής νοημοσύνης ή των αυτόνομων συστημάτων νοημοσύνης που μπορούν να εξελιχθούν πέρα από την εκτέλεση συγκεκριμένων εργασιών και θεωρητικά να ξεπεράσουν την ανθρώπινη νοημοσύνη.

«Τα συστήματα τεχνητής νοημοσύνης με νοημοσύνη που ανταγωνίζεται τον άνθρωπο μπορούν να προκαλέσουν βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα, όπως έχει αποδειχθεί από εκτεταμένες έρευνες και έχει αναγνωριστεί από κορυφαία εργαστήρια τεχνητής νοημοσύνης», αναφέρεται στην επιστολή. «Η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη και θα πρέπει να σχεδιαστεί και να διαχειριστεί με ανάλογη προσοχή και πόρους».

Εάν μπορέσει να περιοριστεί ώστε να αποφευχθούν τα κακόβουλα και χειριστικά στοιχεία, η τεχνητή νοημοσύνη «έχει την ικανότητα και τη δυνατότητα να επεκτείνει πραγματικά τις δυνατότητές μας σε πολλούς τομείς και να λύσει πολλά από τα προβλήματα που αντιμετωπίζουμε», δήλωσε ο Μπάσμπι. «Κάποια από τα πράγματα που υποθέταμε ότι οι υπολογιστές δεν μπορούν να κάνουν καλά, όπως να γράφουν μυθιστορήματα ή να δημιουργούν κάτι νέο από το τίποτα, μπορεί να τα κάνει αυτά τα πράγματα».

Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στην απάντηση ερευνητικών ερωτημάτων, αλλά δεν μπορεί να αποφασίσει τι πρέπει να ερευνήσουμε, ή ποιοι είναι οι στόχοι μας, ή τι είδους κοινωνία πρέπει να έχουμε, είπε.

«[Η τεχνητή νοημοσύνη] μας αναγκάζει να σκεφτούμε προσεκτικά για το τι συνεισφέρουμε», είπε. «Μας υπενθυμίζει τι είναι τόσο μοναδικό ή κάτι που προσφέρουμε που είναι ξεχωριστό, για να μας βοηθήσει να επικεντρωθούμε σε αυτά τα πράγματα αντί για τα τετριμμένα πράγματα που οι υπολογιστές και αυτού του είδους οι αλγόριθμοι μπορούν πραγματικά γρήγορα να αυτοματοποιήσουν».

Πως μπορείτε να μας βοηθήσετε ώστε να συνεχίσουμε να σας κρατάμε ενημερωμένους

Ποιος είναι ο λόγος που χρειαζόμαστε την βοήθειά σας για την χρηματοδότηση του ερευνητικού ρεπορτάζ μας; Επειδή είμαστε ένας ανεξάρτητος οργανισμός ειδήσεων που δεν επηρεάζεται από καμία κυβέρνηση, εταιρεία ή πολιτικό κόμμα. Από την ημέρα που ξεκινήσαμε, έχουμε έρθει αντιμέτωποι με προσπάθειες αποσιώπησης της αλήθειας κυρίως από το Κινεζικό Κομμουνιστικό Κόμμα. Αλλά δεν θα λυγίσουμε. Η ελληνική έκδοση της Epoch Times βασίζεται ολοκληρωτικά στις γενναιόδωρες συνεισφορές σας για να διατηρήσει την παραδοσιακή δημοσιογραφία ζωντανή και υγιή στην Ελληνική γλώσσα. Μαζί, μπορούμε να συνεχίσουμε να διαδίδουμε την αλήθεια.

ΣΧΕΤΙΚΑ

Σχολιάστε