Περισσότεροι από 100 ειδικοί στην τεχνητή νοημοσύνη και ανήσυχα μέλη της κοινότητας υπέγραψαν ανοιχτή επιστολή, ζητώντας από την επόμενη αυστραλιανή κυβέρνηση να δημιουργήσει ένα Ινστιτούτο Ασφαλείας AI (AI Safety Institute-AISI) ώστε να διαχειριστεί τους κινδύνους που απορρέουν από την τεχνολογία πριν να είναι πολύ αργά. Η επιστολή απεστάλη στα πολιτικά κόμματα εν όψει των ομοσπονδιακών εκλογών του Μαΐου.
Οι ειδικοί προέτρεψαν τους πολιτικούς να τηρήσουν τις δεσμεύσεις που ανέλαβε η αυστραλιανή κυβέρνηση στη Σύνοδο Κορυφής της Σεούλ για την AI τον Μάιο του 2024. Σύμφωνα με τη Διακήρυξη της Σεούλ (Seoul Declaration), οι συμμετέχουσες χώρες υποσχέθηκαν να «δημιουργήσουν ή να επεκτείνουν ινστιτούτα ασφάλειας της AI, ερευνητικά προγράμματα και άλλους σχετικούς θεσμούς, συμπεριλαμβανομένων εποπτικών φορέων». Ωστόσο, η Αυστραλία παραμένει η μόνη χώρα που υπέγραψε τη διακήρυξη χωρίς να έχει ιδρύσει ακόμη ένα τέτοιο ινστιτούτο.
Ο Γκρεγκ Σάντλερ, διευθύνων σύμβουλος της Good Ancestors Policy («Πολιτική καλών προγόνων») και συντονιστής της ομάδας Australians for AI Safety («Αυστραλοί για την ασφάλεια της AI»), επεσήμανε ότι η αθέτηση μίας επίσημης δέσμευσης δημιουργεί ένα επικίνδυνο προηγούμενο για τη χώρα.
Ο Τόμπι Όρντ, ανώτερος ερευνητής στο Πανεπιστήμιο της Οξφόρδης και μέλος του διοικητικού συμβουλίου του Centre for the Governance of AI («Κέντρο για τη διακυβέρνηση της ΑΙ»), προειδοποίησε ότι η Αυστραλία κινδυνεύει να βρεθεί σε θέση όπου δεν θα έχει ουσιαστικό λόγο για τα συστήματα τεχνητής νοημοσύνης. Σύμφωνα με τον ίδιο, η ίδρυση ενός αυστραλιανού Ινστιτούτου Ασφαλείας AI θα της επέτρεπε να συμμετέχει ενεργά στη διεθνή διακυβέρνηση αυτής της κρίσιμης τεχνολογίας.
Η επιστολή τόνισε, επίσης, ότι ενώ οι οργανισμοί επενδύουν τεράστια ποσά στην ενίσχυση των δυνατοτήτων της AI, ελάχιστη χρηματοδότηση διατίθεται για την κατανόηση και την αντιμετώπιση των κινδύνων της. Ο Σάντλερ ανέφερε σε προηγούμενη συνέντευξή του ότι για κάθε 250 δολάρια που δαπανώνται για την ανάπτυξη της AI, μόλις 1 δολάριο επενδύεται στην ασφάλειά της.
Η επιστολή υπογράμμισε την ανάγκη ύπαρξης ανεξάρτητης τεχνικής εξειδίκευσης εντός της κυβέρνησης, ώστε να συνδεθεί η Αυστραλία με την παγκόσμια έρευνα για τους κινδύνους της AI και να διασφαλιστεί ότι οι ρυθμίσεις και οι πολιτικές καλύπτουν τις ανάγκες της χώρας.
Υποχρεωτικά μέτρα ασφαλείας για την AI
Παράλληλα, οι ειδικοί ζήτησαν τη θέσπιση ενός «Νόμου για την AI», ο οποίος θα υποχρεώνει τους προγραμματιστές και τους παρόχους της τεχνητής νοημοσύνης στην Αυστραλία να εφαρμόζουν υποχρεωτικές δικλείδες ασφαλείας στα προϊόντα τους. Αν και η κυβέρνηση έχει ήδη διαβουλευτεί με τον κλάδο σχετικά με την ασφαλή και υπεύθυνη χρήση της AI, καθώς και την πιθανότητα επιβολής υποχρεωτικών μέτρων προστασίας για τα συστήματα υψηλού κινδύνου, οι ειδικοί θεωρούν ότι ήρθε η ώρα το επόμενο κοινοβούλιο να μετατρέψει τη συζήτηση σε πράξη.
Ο καθηγητής Πωλ Σάλμον από το Πανεπιστήμιο του Sunshine Coast και ιδρυτής του Centre for Human Factors and Sociotechnical Systems («Κέντρου Ανθρωποκεντρικών και Κοινωνικοτεχνικών Συστημάτων») υποστήριξε την υιοθέτηση ενός Νόμου για την AI, σημειώνοντας ότι κάτι τέτοιο θα εξασφάλιζε την αποτελεσματική διαχείριση των κινδύνων. Ο Σάλμον προειδοποίησε ότι η ευκαιρία να διασφαλιστεί ότι όλες οι τεχνολογίες AI είναι ασφαλείς, ηθικές και επωφελείς για την ανθρωπότητα χάνεται με ταχύ ρυθμό.
Ο Γιάννης Κυριάκος, διευθυντής της AI Safety Australia and New Zealand, επεσήμανε ότι η Αυστραλία δεν διαθέτει επί του παρόντος νομικό πλαίσιο που να εγγυάται στους πολίτες ότι η AI είναι ασφαλής προς υιοθέτηση. Τόνισε ότι η ύπαρξη ισχυρών μηχανισμών διασφάλισης είναι απαραίτητη για την εμπιστοσύνη του κοινού. Σύμφωνα με τον ίδιο, ενώ υπάρχει ενθουσιασμός για τις δυνατότητες της AI, δεν καταβάλλονται επαρκείς προσπάθειες για την αντιμετώπιση σοβαρών ανησυχιών που αφορούν την ασφάλεια. Aναφερόμενος στις επιφυλάξεις των πολιτών, σημείωσε ότι είναι λογικό οι Αυστραλοί να διστάζουν να υιοθετήσουν την AI όσο παραμένουν άλυτα τα κρίσιμα αυτά ζητήματα.
Μελέτη του Πανεπιστημίου του Κουήνσλαντ το 2024 έδειξε ότι η κορυφαία προτεραιότητα για τους πολίτες είναι η πρόληψη επικίνδυνων και καταστροφικών συνεπειών από την AI, με οκτώ στους δέκα να θεωρούν ότι η αποτροπή μιας πιθανής εξαφάνισης λόγω της AI πρέπει να αποτελεί παγκόσμια προτεραιότητα. Οι μεγαλύτερες ανησυχίες των ερωτηθέντων αφορούσαν την πιθανότητα η AI να λειτουργήσει σε αντίθεση με τα ανθρώπινα συμφέροντα, την κακόβουλη χρήση της από τρίτους και τις επιπτώσεις της στην απασχόληση. Επιπρόσθετα, εννέα στους δέκα συμμετέχοντες επιθυμούσαν τη δημιουργία ενός νέου ρυθμιστικού φορέα για την AI από την κυβέρνηση.
Του Alfred Bui