Ανάλυση
Αν το διαδίκτυο ήταν ο πραγματικός κόσμος, θα μπορούσε κάλλιστα να μοιάζει με ταινία επιστημονικής φαντασίας όπου τα ρομπότ έχουν καταλάβει τον πλανήτη ή τουλάχιστον έχουν αρχίσει να ζουν μαζί με τους ανθρώπους.
Ένα αποκαλυπτικό σημάδι αυτού του αμαλγάματος οργανικού και ρομποτικού κόσμου είναι οι εξωφρενικές εικόνες που δημιουργούνται από τεχνητή νοημοσύνη (ΤΝ) και εμφανίζονται στους λογαριασμούς των μέσων κοινωνικής δικτύωσης.
Ορισμένες δείχνουν κουτάβια να κοιμούνται σε ένα κουτί στη βροχή, εκλιπαρώντας τους χρήστες να τις μοιραστούν. Άλλες δείχνουν παιδιά σε συνθήκες απόλυτης φτώχειας ή σε εμπόλεμες ζώνες.
Ωστόσο, αν εξετάσουμε αυτές τις εικόνες πιο προσεκτικά, θα παρατηρήσουμε ότι μερικές φορές τα «παιδιά» έχουν τρία άκρα, έξι δάχτυλα ή δύο μύτες, καθώς η τεχνητή νοημοσύνη μπορεί να αποθηκεύει πληροφορίες, αλλά στερείται της ανθρώπινης γνώσης για το τι περιλαμβάνει ένα πραγματικό σώμα.
Υπάρχουν επίσης δημιουργίες τεχνητής νοημοσύνης που δεν κάνουν καμία προσπάθεια να μεταμφιεστούν σε άστεγα κουτάβια ή θλιμμένα παιδιά – για παράδειγμα, η μόδα του «Ιησού με τις γαρίδες».
Εικόνες του Ιησού Χριστού που έχουν συνδεθεί με διάφορους τρόπους με γαρίδες έχουν κατακλύσει τα μέσα κοινωνικής δικτύωσης, συγκεντρώνοντας έναν εκπληκτικό αριθμό κοινοποιήσεων, like και σχολίων σε αυτό που κάποιοι ονομάζουν τώρα «engagement hacking» (ή ‘πειρατική εμπλοκή’).
Οι φίλοι σας στα μέσα κοινωνικής δικτύωσης είναι άνθρωποι ή ρομπότ τεχνητής νοημοσύνης;
Μια τεχνητή νοημοσύνη δημιουργεί μια εικόνα που έχει ως στόχο είτε να επηρεάσει τα συναισθήματα των ανθρώπων είτε να προκαλέσει κάποιο σχόλιο ή αλληλεπίδραση, δημιουργώντας αντιπαραθέσεις ή νέα θέματα συζήτησης. Αυτές οι εικόνες σχολιάζονται από πρόσθετους λογαριασμούς τεχνητής νοημοσύνης σε ένα φόρουμ που ουσιαστικά διευθύνεται από ρομπότ, φιλοξενεί ρομπότ και απευθύνεται σε ρομπότ.
Στην περίπτωση των εικόνων του Ιησού με τις γαρίδες, το επίπεδο του σουρεαλιστικού παραλογισμού τους προκαλεί αμέτρητα «like» και αλληλεπιδράσεις, ενισχύοντας τα προφίλ στα οποία εμφανίζονται και δίνοντας την λανθασμένη εικόνα στον αλγόριθμο του Facebook ότι αποτελούν αξιόλογη πηγή εμπλοκής.
Το ερώτημα για τους ανθρώπους είναι αν το κίνητρο είναι απλώς η δημιουργία διαφημιστικών εσόδων μέσω της ενίσχυσης των προφίλ των χρηστών με τέτοια ψηφιακά κόλπα ή αν κρύβονται και άλλα πράγματα από πίσω.
Ορισμένες μορφές μέσων ενημέρωσης αντιλαμβάνονται τον κίνδυνο των ρομπότ τεχνητής νοημοσύνης.
Στην ψηφοφορία για τον διαγωνισμό τραγουδιού της Eurovision 2024, οι θεατές κλήθηκαν να ψηφίσουν υποβάλλοντας ένα μικρό ποσό μέσω τραπεζικής κάρτας – μια σχετικά νέα εξέλιξη στον εν λόγω θεσμό.
Ουσιαστικά, πρόκειται για το ζήτημα που είχε προβληματίσει τον Ήλον Μασκ σχετικά με τη χρέωση τέλους για τη χρήση της πλατφόρμας κοινωνικής δικτύωσης X, πρώην Twitter.
Η εμπλοκή των ρομπότ έχει πάρει τέτοιες διαστάσεις, ώστε πολλές πλατφόρμες αναζητούν τρόπους να αποδείξουν ότι η δύναμη πίσω από μια μηχανογραφημένη διαδικασία είναι ανθρώπινη. Σε ορισμένες περιπτώσεις αυτό αποδεικνύεται μεγάλη πρόκληση.
Οι άνθρωποι είναι επιρρεπείς στη χειραγώγηση
Ο Ίαν Όππερμαν, επικεφαλής επιστήμονας δεδομένων της κυβέρνησης της Νέας Νότιας Ουαλίας, χαρακτηρίζει την κατάσταση ως τέλειο παράδειγμα μιας ψηφιακής κούρσας εξοπλισμών, όπου η τεχνητή νοημοσύνη μπορεί να είναι τόσο η αιτία όσο και η απάντηση στο πρόβλημα.
Εξηγεί ότι τα «like» είναι ένας απλός τρόπος με τον οποίο οι άνθρωποι δείχνουν ενδιαφέρον για έναν ψηφιακό χώρο και ότι τα περισσότερα μέσα κοινωνικής δικτύωσης υποθέτουν ότι τα like έχουν προέλθει από άνθρωπο.
Εν τούτοις, σε αντίθεση με τα ρομπότ, οι άνθρωποι είναι «αγελαία πλάσματα», δήλωσε ο κος Όππερμαν στους Epoch Times, γεγονός που τους καθιστά ευάλωτους στη χειραγώγηση.
Η χειραγώγηση μπορεί να έχει ως στόχο την αύξηση των πωλήσεων ενός προϊόντος ή το αποτέλεσμα των εκλογών.
Περισσότερα «like» σε μια σελίδα σημαίνει ότι είναι πιθανό να τη δουν περισσότεροι χρήστες. Κατά συνέπεια, θα προσελκύσει περισσότερους πελάτες, πράγμα που σημαίνει αγώνα δρόμου για την εξασφάλιση της προσοχής των ανθρώπων στον εικονικό κόσμο.
Το γεγονός ότι μπορεί να πλαστογραφηθούν σημαίνει ότι οι τεχνολογικοί γίγαντες ίσως χρειαστεί να εξετάσουν το ενδεχόμενο «ρομποτικής προστασίας» των like, κάνοντας τους χρήστες να επιλέγουν ένα κουτάκι ή μία εικόνες.
«Ακόμη και αυτά τα εμπόδια, όμως, θα νικηθούν τελικά από την τεχνητή νοημοσύνη», δήλωσε ο κος Όππερμαν. «Αυτό οδηγεί στην ανάγκη επανεξέτασης του τρόπου με τον οποίο οι άνθρωποι θα δείχνουν εύκολα την εκτίμησή τους ή, κάτι λιγότερο ικανοποιητικό, να καταλαβαίνουν εύκολα αν μια κριτική ή μια σειρά από ‘like’ είναι ψεύτικη».
Η τεχνητή νοημοσύνη θα μπορούσε, θεωρητικά, να αναπτυχθεί για να ανιχνεύει και να αφαιρεί τα ψεύτικα like ή να παρέχει αντικίνητρα για τη χρήση αλγορίθμων που ενισχύονται από την τεχνητή νοημοσύνη.
Μια δεκαετία έρευνας για τη διαδικτυακή χειραγώγηση
Αν και η χρήση της τεχνητής νοημοσύνης στη χειραγώγηση των ανθρώπων αποτελεί ένα σχετικά νέο θέμα συζήτησης, από την άλλη πρόκειται για μια παλιά επιστήμη.
Το 2012, το Facebook διεξήγαγε μια εβδομαδιαία μελέτη για να δοκιμάσει τη χειραγώγηση των ροών ειδήσεων με βάση τα ανθρώπινα συναισθήματα.
Τα αποτελέσματα δημοσιεύθηκαν δύο χρόνια αργότερα στα Πρακτικά της Εθνικής Ακαδημίας Επιστημών.
Η μελέτη επέλεξε τυχαία περίπου 700.000 χρήστες και διαπίστωσε ότι η αλλαγή του αλγορίθμου ώστε να δείχνει στους χρήστες θετικές ή αρνητικές αναρτήσεις από τους φίλους τους είχε ως αποτέλεσμα η διάθεσή τους να υπαγορεύεται από το περιεχόμενο στο οποίο εκτίθενται.
Η μελέτη κατέληξε στο συμπέρασμα ότι οι θετικές αναρτήσεις αντανακλούσαν σε πιο χαρούμενες αναρτήσεις από τα υποκείμενα, ενώ η έκθεση σε αρνητικότητα είχε ως αποτέλεσμα περισσότερη αρνητικότητα.
Ο κος Όππερμαν δήλωσε ότι οι άνθρωποι είναι ιδιαίτερα ευάλωτοι σε «ανεπαίσθητες παρωθήσεις» και ότι οι εικόνες επηρεάζουν τους ανθρώπους πολύ περισσότερο από ό,τι οι λέξεις.
«Ο έλεγχος των μέσων ενημέρωσης και των μηνυμάτων χρησιμοποιείται εδώ και πολύ καιρό για να επηρεάζεται η κοινή γνώμη», είπε.
Η αλγοριθμική χειραγώγηση του τι βλέπουν (ή δεν βλέπουν) οι άνθρωποι είναι ένας ισχυρός τρόπος για να επηρεαστεί η κοσμοθεωρία κάποιου.
«Εάν μπορεί να είναι εξαιρετικά εξατομικευμένη, τότε οι απόψεις για οποιοδήποτε θέμα ή ζήτημα μπορεί δυνητικά να επηρεαστούν.»
Ευρωεκλογές και παραπληροφόρηση τεχνητής νοημοσύνης
Ενώ οι χρήστες του διαδικτύου αλληλεπιδρούν με σουρεαλιστικές εικόνες στο Facebook, οι επιπτώσεις της ίδιας τεχνολογίας στον πραγματικό κόσμο προκαλούν άγρυπνες νύχτες στους εμπειρογνώμονες στην Ευρώπη λόγω των ευρωεκλογών, καθώς οι ψηφοφόροι προσέρχονται σήμερα στις κάλπες.
Οι εκλογές, όμως, γίνονται υπό την απειλή διαδικτυακής παραπληροφόρησης από την τεχνητή νοημοσύνη.
Ο επικεφαλής της εξωτερικής πολιτικής της ΕΕ, Ζοζέπ Μπορέλ, εξέδωσε σχετική προειδοποίηση, υποδεικνύοντας ότι η Ρωσία χρησιμοποιούσε κρατικά χρηματοδοτούμενες εκστρατείες για να κατακλύσει το χώρο πληροφοριών της ΕΕ με παραπλανητικό περιεχόμενο, σύμφωνα με το AAP.
Είναι κάτι που ο κος Μπορέλ θεωρεί πραγματική απειλή για τη δημοκρατία, με φτηνές εκστρατείες τεχνητής νοημοσύνης κατά των ηγετών που έχουν ασκήσει κριτική στον Ρώσο πρόεδρο Βλαντίμιρ Πούτιν.
Ενώ μπορεί να φαίνεται ότι η απειλή της τεχνητής νοημοσύνης έχει γίνει διάχυτη, η λύση, σύμφωνα με τους ειδικούς, είναι να μην παίρνουμε τα πράγματα τοις μετρητοίς.
«Η μη χρήση των μέσων κοινωνικής δικτύωσης είναι μια επιλογή, ωστόσο αν αυτό αποτελεί για κάποιους ακραία ή αδύνατη λύση, η διασταύρωση με άλλες, άσχετες (και άρα ελπίζουμε διαφορετικά προκατειλημμένες) πηγές είναι πάντα μια καλή ιδέα», δήλωσε ο κος Όππερμαν.
Ρυθμιστικές αρχές και μέτρα
Πέρυσι, ένας δικηγόρος στις Ηνωμένες Πολιτείες τιμωρήθηκε με πρόστιμο για παραπλάνηση δικαστηρίου, αφού χρησιμοποιήθηκε το AI bot ChatGPT για την έρευνα μιας υπόθεσης.
Στο Χονγκ Κονγκ, ένας οικονομικός υπάλληλος παραπλανήθηκε από μια απάτη deepfake, όπου όλοι οι άλλοι σε μια τηλεδιάσκεψη ήταν τεχνητές νοημοσύνης.
Η διαμόρφωση των πιθανών ζημιών και η αντιστρεψιμότητα είναι δύο βασικά στοιχεία του Πλαισίου Διασφάλισης Τεχνητής Νοημοσύνης της Νέας Νότιας Ουαλίας.
Πριν από δύο χρόνια, το πλαίσιο έγινε υποχρεωτικό για όλα τα έργα που περιέχουν ένα στοιχείο τεχνητής νοημοσύνης ή χρησιμοποιούν εργαλεία βασισμένα στην τεχνητή νοημοσύνη.
Τις τελευταίες ημέρες, η αυστραλιανή κυβέρνηση εισήγαγε νόμους deepfake που θα μπορούσαν να επισύρουν επτά χρόνια φυλάκισης για τη διανομή πλαστών εικόνων σεξουαλικού περιεχομένου και τεχνητής νοημοσύνης.
Παράλληλα, οι ρυθμιστικές αρχές των ΗΠΑ ξεκίνησαν πρόσφατα έρευνες για την Nvidia, τη Microsoft και την OpenAI σχετικά με τον ρόλο τους στην ανάπτυξη της τεχνητής νοημοσύνης.
Ο κος Όππερμαν είπε ότι είναι ζωτικής σημασίας να θυμόμαστε ότι η τεχνητή νοημοσύνη καταλήγει στη χρήση δεδομένων.
Πιστεύει ότι το NSW AI Assurance Framework, στο οποίο έχει εργαστεί, διερευνά τους σχετικούς κινδύνους και περιορισμούς.
Τελικά, όλα αφορούν στις πληροφορίες και τον τρόπο χρήσης τους – συγκεκριμένα στη χρήση δεδομένων από την τεχνητή νοημοσύνη και στις προκαταλήψεις που σχετίζονται με τον αλγόριθμο (την τεχνητή νοημοσύνη).
Πέρυσι, ο υπουργός Βιομηχανίας και Επιστημών της Αυστραλίας Εντ Χούσιτς δημοσίευσε συμβουλές από το Εθνικό Συμβούλιο Επιστήμης και Τεχνολογίας (NSTC) καθώς και ένα έγγραφο συζήτησης για την τεχνητή νοημοσύνη, λέγοντας ότι ήρθε η ώρα να αρχίσουμε να εξετάζουμε περαιτέρω ρυθμίσεις.
Η Αυστραλιανή Ένωση Βιομηχανίας Πληροφορικής αναφέρει ότι πιστεύει ότι οι οργανισμοί θα πρέπει να αυτορυθμίσουν τη νομοθεσία για την Τεχνητή Νοημοσύνη ελλείψει κυβερνητικών νόμων, ενώ η κυβέρνηση θα πρέπει να ενεργεί ως φορέας ενεργοποίησης και υιοθέτησης λύσεων.
Επιμέλεια: Αλία Ζάε