Παρασκευή, 14 Ιούν, 2024
Ένα ρομπότ που λειτουργεί με τεχνητή νοημοσύνη παρουσιάζεται κατά τη διάρκεια της Παγκόσμιας Διάσκεψης Κορυφής της Διεθνούς Ένωσης Τηλεπικοινωνιών (ITU) AI for Good στη Γενεύη, στις 30 Μαΐου 2024. (Fabrice Coffrini/AFP μέσω Getty Images)

Άνθρωποι και ρομπότ εγκλωβισμένοι σε μια ψηφιακή κούρσα εξοπλισμών

Ακούγεται σαν επιστημονική φαντασία, αλλά οι ειδικοί και οι ηγέτες προειδοποιούν τώρα ότι τα ρομπότ θα μπορούσαν να αποφασίζουν για τα πάντα, από τις αγορές προϊόντων μέχρι τις εκλογές.

Ανάλυση

Αν το διαδίκτυο ήταν ο πραγματικός κόσμος, θα μπορούσε κάλλιστα να μοιάζει με ταινία επιστημονικής φαντασίας όπου τα ρομπότ έχουν καταλάβει τον πλανήτη ή τουλάχιστον έχουν αρχίσει να ζουν μαζί με τους ανθρώπους.

Ένα αποκαλυπτικό σημάδι αυτού του αμαλγάματος οργανικού και ρομποτικού κόσμου είναι οι εξωφρενικές εικόνες που δημιουργούνται από τεχνητή νοημοσύνη (ΤΝ) και εμφανίζονται στους λογαριασμούς των μέσων κοινωνικής δικτύωσης.

Ορισμένες δείχνουν κουτάβια να κοιμούνται σε ένα κουτί στη βροχή, εκλιπαρώντας τους χρήστες να τις μοιραστούν. Άλλες δείχνουν παιδιά σε συνθήκες απόλυτης φτώχειας ή σε εμπόλεμες ζώνες.

Ωστόσο, αν εξετάσουμε αυτές τις εικόνες πιο προσεκτικά, θα παρατηρήσουμε ότι μερικές φορές τα «παιδιά» έχουν τρία άκρα, έξι δάχτυλα ή δύο μύτες, καθώς η τεχνητή νοημοσύνη μπορεί να αποθηκεύει πληροφορίες, αλλά στερείται της ανθρώπινης γνώσης για το τι περιλαμβάνει ένα πραγματικό σώμα.

Υπάρχουν επίσης δημιουργίες τεχνητής νοημοσύνης που δεν κάνουν καμία προσπάθεια να μεταμφιεστούν σε άστεγα κουτάβια ή θλιμμένα παιδιά – για παράδειγμα, η μόδα του «Ιησού με τις γαρίδες».

Εικόνες του Ιησού Χριστού που έχουν συνδεθεί με διάφορους τρόπους με γαρίδες έχουν κατακλύσει τα μέσα κοινωνικής δικτύωσης, συγκεντρώνοντας έναν εκπληκτικό αριθμό κοινοποιήσεων, like και σχολίων σε αυτό που κάποιοι ονομάζουν τώρα «engagement hacking» (ή ‘πειρατική εμπλοκή’).

Οι φίλοι σας στα μέσα κοινωνικής δικτύωσης είναι άνθρωποι ή ρομπότ τεχνητής νοημοσύνης;

Μια τεχνητή νοημοσύνη δημιουργεί μια εικόνα που έχει ως στόχο είτε να επηρεάσει τα συναισθήματα των ανθρώπων είτε να προκαλέσει κάποιο σχόλιο ή  αλληλεπίδραση, δημιουργώντας αντιπαραθέσεις ή νέα θέματα συζήτησης. Αυτές οι εικόνες σχολιάζονται από πρόσθετους λογαριασμούς τεχνητής νοημοσύνης σε ένα φόρουμ που ουσιαστικά διευθύνεται από ρομπότ, φιλοξενεί ρομπότ και απευθύνεται σε ρομπότ.

Στην περίπτωση των εικόνων του Ιησού με τις γαρίδες, το επίπεδο του σουρεαλιστικού παραλογισμού τους προκαλεί αμέτρητα «like» και αλληλεπιδράσεις, ενισχύοντας τα προφίλ στα οποία εμφανίζονται και δίνοντας την λανθασμένη εικόνα στον αλγόριθμο του Facebook ότι αποτελούν αξιόλογη πηγή εμπλοκής.

Το ερώτημα για τους ανθρώπους είναι αν το κίνητρο είναι απλώς η δημιουργία διαφημιστικών εσόδων μέσω της ενίσχυσης των προφίλ των χρηστών με τέτοια ψηφιακά κόλπα ή αν κρύβονται και άλλα πράγματα από πίσω.

Ορισμένες μορφές μέσων ενημέρωσης αντιλαμβάνονται τον κίνδυνο των ρομπότ τεχνητής νοημοσύνης.

Στην ψηφοφορία για τον διαγωνισμό τραγουδιού της Eurovision 2024, οι θεατές κλήθηκαν να ψηφίσουν υποβάλλοντας ένα μικρό ποσό μέσω τραπεζικής κάρτας – μια σχετικά νέα εξέλιξη στον εν λόγω θεσμό.

Ουσιαστικά, πρόκειται για το ζήτημα που είχε προβληματίσει τον Ήλον Μασκ σχετικά με τη χρέωση τέλους για τη χρήση της πλατφόρμας κοινωνικής δικτύωσης X, πρώην Twitter.

Η εμπλοκή των ρομπότ έχει πάρει τέτοιες διαστάσεις, ώστε πολλές πλατφόρμες αναζητούν τρόπους να αποδείξουν ότι η δύναμη πίσω από μια μηχανογραφημένη διαδικασία είναι ανθρώπινη. Σε ορισμένες περιπτώσεις αυτό αποδεικνύεται μεγάλη πρόκληση.

ZoomInImage
Άνθρωποι κοιτούν τα τηλέφωνά τους,  καθώς το ρομπότ τεχνητής νοημοσύνης AMECA παρακολουθεί το συνέδριο τεχνητής νοημοσύνης ALL IΝ στο Μoντρεάλ, στις 28 Σεπτεμβρίου 2023. (Ryan Remiorz /The Canadian Press)

 

Οι άνθρωποι είναι επιρρεπείς στη χειραγώγηση

Ο Ίαν Όππερμαν, επικεφαλής επιστήμονας δεδομένων της κυβέρνησης της Νέας Νότιας Ουαλίας, χαρακτηρίζει την κατάσταση ως τέλειο παράδειγμα μιας ψηφιακής κούρσας εξοπλισμών, όπου η τεχνητή νοημοσύνη μπορεί να είναι τόσο η αιτία όσο και η απάντηση στο πρόβλημα.

Εξηγεί ότι τα «like» είναι ένας απλός τρόπος με τον οποίο οι άνθρωποι δείχνουν ενδιαφέρον για έναν ψηφιακό χώρο και ότι τα περισσότερα μέσα κοινωνικής δικτύωσης υποθέτουν ότι τα like έχουν προέλθει από άνθρωπο.

Εν τούτοις, σε αντίθεση με τα ρομπότ, οι άνθρωποι είναι «αγελαία πλάσματα», δήλωσε ο κος Όππερμαν στους Epoch Times, γεγονός που τους καθιστά ευάλωτους στη χειραγώγηση.

Η χειραγώγηση μπορεί να έχει ως στόχο την αύξηση των πωλήσεων ενός προϊόντος ή το αποτέλεσμα των εκλογών.

ZoomInImage
Ο αντιπρόεδρος διαχείρισης προϊόντων της Samsung αποκαλύπτει τα νέα τηλέφωνα Galaxy, που διαθέτουν χαρακτηριστικά τεχνητής νοημοσύνης, σε μια εκδήλωση για τα μέσα ενημέρωσης στην πόλη Σαν Χοσέ της Silicon Valley, Καλιφόρνια, στις 17 Ιανουαρίου 2024. (Glenn Chapman/AFP μέσω Getty Images)

 

Περισσότερα «like» σε μια σελίδα σημαίνει ότι είναι πιθανό να τη δουν περισσότεροι χρήστες. Κατά συνέπεια, θα προσελκύσει περισσότερους πελάτες, πράγμα που σημαίνει αγώνα δρόμου για την εξασφάλιση της προσοχής των ανθρώπων στον εικονικό κόσμο.

Το γεγονός ότι μπορεί να πλαστογραφηθούν σημαίνει ότι οι τεχνολογικοί γίγαντες ίσως χρειαστεί να εξετάσουν το ενδεχόμενο «ρομποτικής προστασίας» των like, κάνοντας τους χρήστες να επιλέγουν ένα κουτάκι ή μία εικόνες.

«Ακόμη και αυτά τα εμπόδια, όμως, θα νικηθούν τελικά από την τεχνητή νοημοσύνη», δήλωσε ο κος Όππερμαν. «Αυτό οδηγεί στην ανάγκη επανεξέτασης του τρόπου με τον οποίο οι άνθρωποι θα δείχνουν εύκολα την εκτίμησή τους ή, κάτι λιγότερο ικανοποιητικό, να καταλαβαίνουν εύκολα αν μια κριτική ή μια σειρά από ‘like’ είναι ψεύτικη».

Η τεχνητή νοημοσύνη θα μπορούσε, θεωρητικά, να αναπτυχθεί για να ανιχνεύει και να αφαιρεί τα ψεύτικα like ή να παρέχει αντικίνητρα για τη χρήση αλγορίθμων που ενισχύονται από την τεχνητή νοημοσύνη.

Μια δεκαετία έρευνας για τη διαδικτυακή χειραγώγηση

Αν και η χρήση της τεχνητής νοημοσύνης στη χειραγώγηση των ανθρώπων αποτελεί ένα σχετικά νέο θέμα συζήτησης, από την άλλη πρόκειται για μια παλιά επιστήμη.

Το 2012, το Facebook διεξήγαγε μια εβδομαδιαία μελέτη για να δοκιμάσει τη χειραγώγηση των ροών ειδήσεων με βάση τα ανθρώπινα συναισθήματα.

ZoomInImage
(Lionel Bonaventure/AFP μέσω Getty Images)

 

Τα αποτελέσματα δημοσιεύθηκαν δύο χρόνια αργότερα στα Πρακτικά της Εθνικής Ακαδημίας Επιστημών.

Η μελέτη επέλεξε τυχαία περίπου 700.000 χρήστες και διαπίστωσε ότι η αλλαγή του αλγορίθμου ώστε να δείχνει στους χρήστες θετικές ή αρνητικές αναρτήσεις από τους φίλους τους είχε ως αποτέλεσμα η διάθεσή τους να υπαγορεύεται από το περιεχόμενο στο οποίο εκτίθενται.

Η μελέτη κατέληξε στο συμπέρασμα ότι οι θετικές αναρτήσεις αντανακλούσαν σε πιο χαρούμενες αναρτήσεις από τα υποκείμενα, ενώ η έκθεση σε αρνητικότητα είχε ως αποτέλεσμα περισσότερη αρνητικότητα.

Ο κος Όππερμαν δήλωσε ότι οι άνθρωποι είναι ιδιαίτερα ευάλωτοι σε «ανεπαίσθητες παρωθήσεις» και ότι οι εικόνες επηρεάζουν τους ανθρώπους πολύ περισσότερο από ό,τι οι λέξεις.

«Ο έλεγχος των μέσων ενημέρωσης και των μηνυμάτων χρησιμοποιείται εδώ και πολύ καιρό για να επηρεάζεται η κοινή γνώμη», είπε.

Η αλγοριθμική χειραγώγηση του τι βλέπουν (ή δεν βλέπουν) οι άνθρωποι είναι ένας ισχυρός τρόπος για να επηρεαστεί η κοσμοθεωρία κάποιου.

«Εάν μπορεί να είναι εξαιρετικά εξατομικευμένη, τότε οι απόψεις για οποιοδήποτε θέμα ή ζήτημα μπορεί δυνητικά να επηρεαστούν.»

Ευρωεκλογές και παραπληροφόρηση τεχνητής νοημοσύνης 

Ενώ οι χρήστες του διαδικτύου αλληλεπιδρούν με σουρεαλιστικές εικόνες στο Facebook, οι επιπτώσεις της ίδιας τεχνολογίας στον πραγματικό κόσμο προκαλούν άγρυπνες νύχτες στους εμπειρογνώμονες στην Ευρώπη λόγω των ευρωεκλογών, καθώς οι ψηφοφόροι προσέρχονται σήμερα στις κάλπες.

Οι εκλογές, όμως, γίνονται υπό την απειλή διαδικτυακής παραπληροφόρησης από την τεχνητή νοημοσύνη.

ZoomInImage
Από αριστερά προς τα δεξιά: Η πρόεδρος της Ευρωπαϊκής Επιτροπής Ούρσουλα φον ντερ Λάιεν, ο Νίκολας Σμιτ του Ευρωπαϊκού Σοσιαλιστικού Κόμματος, η Τέρι Ρίντκε των Ευρωπαίων Πρασίνων, ο Σάντρο Γκόζι του Renew Europe Now, ο Βάλτερ Μπάιερ της Ευρωπαϊκής Αριστεράς. Οι επικρατέστεροι υποψήφιοι για την προεδρία της Ευρωπαϊκής Επιτροπής αναμετρώνται σε ζωντανή συζήτηση στις 23 Μαΐου 2024 στις Βρυξέλλες. (Στιγμιότυπο μέσω Epoch Times, Reuters)

 

Ο επικεφαλής της εξωτερικής πολιτικής της ΕΕ, Ζοζέπ Μπορέλ, εξέδωσε σχετική προειδοποίηση, υποδεικνύοντας ότι η Ρωσία χρησιμοποιούσε κρατικά χρηματοδοτούμενες εκστρατείες για να κατακλύσει το χώρο πληροφοριών της ΕΕ με παραπλανητικό περιεχόμενο, σύμφωνα με το AAP.

Είναι κάτι που ο κος Μπορέλ θεωρεί πραγματική απειλή για τη δημοκρατία, με φτηνές εκστρατείες τεχνητής νοημοσύνης κατά των ηγετών που έχουν ασκήσει κριτική στον Ρώσο πρόεδρο Βλαντίμιρ Πούτιν.

Ενώ μπορεί να φαίνεται ότι η απειλή της τεχνητής νοημοσύνης έχει γίνει διάχυτη, η λύση, σύμφωνα με τους ειδικούς, είναι να μην παίρνουμε τα πράγματα τοις μετρητοίς.

«Η μη χρήση των μέσων κοινωνικής δικτύωσης είναι μια επιλογή, ωστόσο αν αυτό αποτελεί για κάποιους ακραία ή αδύνατη λύση, η διασταύρωση με άλλες, άσχετες (και άρα ελπίζουμε διαφορετικά προκατειλημμένες) πηγές είναι πάντα μια καλή ιδέα», δήλωσε ο κος Όππερμαν.

Ρυθμιστικές αρχές και μέτρα

Πέρυσι, ένας δικηγόρος στις Ηνωμένες Πολιτείες τιμωρήθηκε με πρόστιμο για παραπλάνηση δικαστηρίου, αφού χρησιμοποιήθηκε το AI bot ChatGPT για την έρευνα μιας υπόθεσης.

Στο Χονγκ Κονγκ, ένας οικονομικός υπάλληλος παραπλανήθηκε από μια απάτη deepfake, όπου όλοι οι άλλοι σε μια τηλεδιάσκεψη ήταν τεχνητές νοημοσύνης.

Η διαμόρφωση των πιθανών ζημιών και η αντιστρεψιμότητα είναι δύο βασικά στοιχεία του Πλαισίου Διασφάλισης Τεχνητής Νοημοσύνης της Νέας Νότιας Ουαλίας.

Πριν από δύο χρόνια, το πλαίσιο έγινε υποχρεωτικό για όλα τα έργα που περιέχουν ένα στοιχείο τεχνητής νοημοσύνης ή χρησιμοποιούν εργαλεία βασισμένα στην τεχνητή νοημοσύνη.

Τις τελευταίες ημέρες, η αυστραλιανή κυβέρνηση εισήγαγε νόμους deepfake που θα μπορούσαν να επισύρουν επτά χρόνια φυλάκισης για τη διανομή πλαστών εικόνων σεξουαλικού περιεχομένου και τεχνητής νοημοσύνης.

Παράλληλα, οι ρυθμιστικές αρχές των ΗΠΑ ξεκίνησαν πρόσφατα έρευνες για την Nvidia, τη Microsoft και την OpenAI σχετικά με τον ρόλο τους στην ανάπτυξη της τεχνητής νοημοσύνης.

ZoomInImage
Στιγμιότυπο από βίντεο που δημιουργήθηκε από ένα νέο εργαλείο τεχνητής νοημοσύνης ονόματι «Sora», το οποίο παρουσιάστηκε από την εταιρεία OpenAI στο Παρίσι, στις 16 Φεβρουαρίου 2024. (Stefano Rellandini/AFP μέσω Getty Images)

 

Ο κος Όππερμαν είπε ότι είναι ζωτικής σημασίας να θυμόμαστε ότι η τεχνητή νοημοσύνη καταλήγει στη χρήση δεδομένων.

Πιστεύει ότι το NSW AI Assurance Framework, στο οποίο έχει εργαστεί, διερευνά τους σχετικούς κινδύνους και περιορισμούς.

Τελικά, όλα αφορούν στις πληροφορίες και τον τρόπο χρήσης τους – συγκεκριμένα στη χρήση δεδομένων από την τεχνητή νοημοσύνη και στις προκαταλήψεις που σχετίζονται με τον αλγόριθμο (την τεχνητή νοημοσύνη).

Πέρυσι, ο υπουργός Βιομηχανίας και Επιστημών της Αυστραλίας Εντ Χούσιτς δημοσίευσε συμβουλές από το Εθνικό Συμβούλιο Επιστήμης και Τεχνολογίας (NSTC) καθώς και ένα έγγραφο συζήτησης για την τεχνητή νοημοσύνη, λέγοντας ότι ήρθε η ώρα να αρχίσουμε να εξετάζουμε περαιτέρω ρυθμίσεις.

Η Αυστραλιανή Ένωση Βιομηχανίας Πληροφορικής αναφέρει ότι πιστεύει ότι οι οργανισμοί θα πρέπει να αυτορυθμίσουν τη νομοθεσία για την Τεχνητή Νοημοσύνη ελλείψει κυβερνητικών νόμων, ενώ η κυβέρνηση θα πρέπει να ενεργεί ως φορέας ενεργοποίησης και υιοθέτησης λύσεων.

Της Crystal-Rose Jones

Επιμέλεια: Αλία Ζάε

Πως μπορείτε να μας βοηθήσετε ώστε να συνεχίσουμε να σας κρατάμε ενημερωμένους

Ποιος είναι ο λόγος που χρειαζόμαστε την βοήθειά σας για την χρηματοδότηση του ερευνητικού ρεπορτάζ μας; Επειδή είμαστε ένας ανεξάρτητος οργανισμός ειδήσεων που δεν επηρεάζεται από καμία κυβέρνηση, εταιρεία ή πολιτικό κόμμα. Από την ημέρα που ξεκινήσαμε, έχουμε έρθει αντιμέτωποι με προσπάθειες αποσιώπησης της αλήθειας κυρίως από το Κινεζικό Κομμουνιστικό Κόμμα. Αλλά δεν θα λυγίσουμε. Η ελληνική έκδοση της Epoch Times βασίζεται ολοκληρωτικά στις γενναιόδωρες συνεισφορές σας για να διατηρήσει την παραδοσιακή δημοσιογραφία ζωντανή και υγιή στην Ελληνική γλώσσα. Μαζί, μπορούμε να συνεχίσουμε να διαδίδουμε την αλήθεια.

ΣΧΕΤΙΚΑ

Σχολιάστε