Η αρνητική επίδραση των βίντεο τεχνητής νοημοσύνης – της τεχνολογίας που επιτρέπει τη δημιουργία αληθοφανών εικόνων και βίντεο – είναι προφανής: κάνουν τους ανθρώπους να πιστεύουν πράγματα που δεν είναι αληθινά. Ωστόσο, υπάρχει και η αντίστροφη όψη του ίδιου προβλήματος, όπως προειδοποιεί η Νικόλ Σάκλετον (Nicole Shackleton), λέκτορας νομικής στο Πανεπιστήμιο RMIT της Μελβούρνης.
Με το κοινό να γίνεται όλο και πιο ενήμερο για την ύπαρξη πλαστών μέσων, η Σάκλετον σημειώνει ότι η κοινωνία θα γίνεται όλο και πιο δύσπιστη, με προδιάθεση «να αμφισβητεί την αυθεντικότητα ακόμη και πραγματικών ηχητικών και οπτικών αποδεικτικών στοιχείων». Αυτό, όπως εξηγεί, επιτρέπει σε άτομα που έχουν συλληφθεί για παράνομες ενέργειες να δημιουργούν σύγχυση και αμφιβολία γύρω από τις πράξεις τους, ισχυριζόμενα ότι το υλικό που τα ενοχοποιεί δεν είναι πραγματικό.
Η ίδια υπογράμμισε ότι οι εμπλεκόμενοι μπορούν να ισχυριστούν πως «οι εικόνες ή τα βίντεο που τους δείχνουν να εμπλέκονται σε εγκληματικές πράξεις, σεξουαλική παρενόχληση ή ρατσιστική συμπεριφορά» είναι ψεύτικα και έχουν δημιουργηθεί με τη χρήση τεχνολογίας για να πληγεί η φήμη τους.
Ο κίνδυνος αυτός εντάθηκε μετά την κυκλοφορία, τον περασμένο μήνα, του Sora 2 της OpenAI, μιας εφαρμογής που μπορεί να δημιουργεί ρεαλιστικά βίντεο από οποιαδήποτε περιγραφή κειμένου. Το προϊόν έγινε γρήγορα η πιο δημοφιλής λήψη στο αμερικανικό App Store της Apple.
Χρήστες κατέκλυσαν τα μέσα κοινωνικής δικτύωσης με εντυπωσιακά, αλλά παραπλανητικά βίντεο, όπως εξωγήινους να διαγωνίζονται στο MasterChef ή τον Πίκατσου να δοκιμάζει ανεπιτυχώς την τύχη του στην κωμωδία. Εξίσου γρήγορα, η ίδια τεχνολογία στράφηκε εναντίον του δημιουργού της: βίντεο που παρουσίαζαν τον διευθύνοντα σύμβουλο της OpenAI, Σαμ Άλτμαν, να κλέβει από καταστήματα ή να φορά στολή ναζί έγιναν πολύ δημοφιλή, δείχνοντας τη σκοτεινή πλευρά των δυνατοτήτων της.
Ακόμη και η νεότερη, πιο εξοικειωμένη με την τεχνολογία γενιά αποδείχθηκε ευάλωτη στην εξαπάτηση, πιστεύοντας πως τα βίντεο που δημιούργησε το Sora ήταν πραγματικά. Παράλληλα, το τηλεοπτικό δίκτυο Fox News αναγκάστηκε να εκδώσει επανορθωτική ανακοίνωση, αφού δημοσίευσε ρεπορτάζ με ψεύτικους χαρακτήρες που «διαμαρτύρονταν» για περικοπές στην κοινωνική πρόνοια, πιστεύοντας ότι πρόκειται για πραγματικούς πολίτες.
Αν και η OpenAI προσθέτει υδατογραφήματα στα βίντεο που παράγει το Sora, υπηρεσίες που αφαιρούν αυτά τα σημάδια είναι ήδη διαθέσιμες, καθιστώντας εύκολη τη διάδοση του ψευδούς ως αληθούς.
Η ολοένα και πιο ρεαλιστική απεικόνιση των εικόνων και των βίντεο που δημιουργούνται από τεχνητή νοημοσύνη δεν διαβρώνει μόνο την ικανότητά μας να εμπιστευόμαστε τα οπτικά μέσα, αλλά δίνει επίσης τη δυνατότητα στους ανθρώπους να «εργαλειοποιούν την αμφιβολία» ώστε να αποφεύγουν την ευθύνη, προειδοποιεί η Σάκλετον.
Νομικοί ερευνητές έχουν χαρακτηρίσει το φαινόμενο αυτό ως «κέρδος του ψεύτη» (liar’s dividend). Όπως αναφέρει πρόσφατο άρθρο στην California Law Review, όσο αυξάνεται η επίγνωση για τα μη αυθεντικά μέσα, τόσο οι ψεύτες γίνονται πιο πειστικοί, αφού ένα δύσπιστο κοινό «είναι προετοιμασμένο να αμφισβητεί την αυθεντικότητα ακόμη και πραγματικών ηχητικών και οπτικών αποδεικτικών στοιχείων».
Οι συγγραφείς του άρθρου προειδοποιούν ότι οι συνέπειες μπορεί να είναι εκτεταμένες – από τη διαστρέβλωση της δημοκρατικής συζήτησης σε ζητήματα πολιτικής, τη χειραγώγηση εκλογών και τη διάβρωση της εμπιστοσύνης στους δημόσιους και ιδιωτικούς θεσμούς, έως την ενίσχυση κοινωνικών διχασμών, την υπονόμευση στρατιωτικών ή μυστικών επιχειρήσεων, την απειλή για την οικονομία και τη ζημιά στις διεθνείς σχέσεις.
Ακόμη και πριν από την κυκλοφορία του Sora 2, υπήρξαν περιπτώσεις όπου αληθινά βίντεο επιχειρήθηκε να απορριφθούν ως παραποιημένα βίντεο τεχνητής νοημοσύνης. Δικηγόροι της Tesla, για παράδειγμα, προσπάθησαν να αμφισβητήσουν βίντεο με τον Έλον Μασκ που φαινόταν να υπερβάλλει σχετικά με τις δυνατότητες αυτόνομης οδήγησης της εταιρείας, ισχυριζόμενοι ότι το υλικό μπορεί να έχει αλλοιωθεί. Αντίστοιχα, ο πρώην αρχηγός της αντιπολίτευσης της Νότιας Αυστραλίας, Ντέιβιντ Σπηρς, αμφισβήτησε βίντεο που τον έδειχνε να εισπνέει λευκή ουσία.
Παράλληλα, κάποιοι άνθρωποι δυσκολεύονται πλέον να πείσουν ότι όσα υποστηρίζουν πως έκαναν συνέβησαν πράγματι. Η OpenAI ανακοίνωσε νέους κανόνες για τη χρήση ψηφιακών αναπαραστάσεων προσώπων χωρίς τη συγκατάθεσή τους, ύστερα από παράπονα του ηθοποιού Μπράιαν Κράνστον και του αμερικανικού συνδικάτου ηθοποιών. Η εταιρεία δεσμεύτηκε για αυστηρότερη εφαρμογή του κανόνα που απαιτεί ρητή συγκατάθεση πριν από τη χρήση της εικόνας κάποιου.
Ωστόσο, ο περιορισμός αυτός ισχύει μόνο για τους ζωντανούς, αφήνοντας περιθώριο δημιουργίας βίντεο που παραποιούν ιστορικά γεγονότα και αλλοιώνουν την υστεροφημία δημόσιων προσώπων.
Υπάρχει πλέον ολόκληρος λογαριασμός στο Instagram αφιερωμένος σε «ομιλίες» που ο Τζον Φ. Κέννεντυ δεν εκφώνησε ποτέ, όλες δημιουργημένες από το Sora.
Η οικογένεια του Μάρτιν Λούθερ Κινγκ Τζούνιορ κατάφερε μετά από πίεση να αποκλείσει η OpenAI, στις 17 Οκτωβρίου, τη χρήση της μορφής του στην πλατφόρμα Sora 2. Πριν από αυτή την παρέμβαση, κυκλοφορούσαν βίντεο που τον έδειχναν να εκφέρει χυδαίες ή ρατσιστικές δηλώσεις, να κλέβει από κατάστημα τροφίμων, να διαφεύγει από την αστυνομία ή να αναπαράγει φυλετικά στερεότυπα.
Ωστόσο, τα βίντεο που απεικονίζουν τον Μάλκολμ Χ εξακολουθούν να κυκλοφορούν, παρουσιάζοντάς τον να «παλεύει» με τον Κινγκ, να κάνει χυδαία αστεία ή να μιλά για προσωπικές πράξεις. Η OpenAI ανακοίνωσε ότι οι εξουσιοδοτημένοι εκπρόσωποι νεκρών προσώπων μπορούν πλέον να «ζητήσουν» να μην χρησιμοποιείται η εικόνα τους, αλλά διευκρίνισε πως αυτό ισχύει μόνο για τους «πρόσφατα αποβιώσαντες».
Η California Law Review επισημαίνει ότι «η ικανότητα δημιουργίας παραποιημένων βίντεο τεχνητής νοημοσύνης έρχεται σε μια επικίνδυνη εποχή». Η προσοχή του κοινού δεν βρίσκεται πλέον αποκλειστικά στα χέρια έγκριτων μέσων ενημέρωσης.
Όπως προειδοποιούν οι συντάκτες, άτομα που διακινούν τέτοια βίντεο μπορούν να προσεγγίσουν γρήγορα ένα μαζικό, ακόμη και παγκόσμιο κοινό, οδηγώντας σε αυτό που αποκαλούν «δημοφιλής διάδοση ψεύδους και φθορά της αλήθειας».
Του Rex Widerstrom








