Ο Τζέφρυ Χίντον, ο πρωτοπόρος επιστήμονας της πληροφορικής που αποκαλείται και «νονός της τεχνητής νοημοσύνης», προειδοποίησε εκ νέου ότι η ίδια η τεχνολογία στην ανάπτυξη της οποίας συνέβαλε καθοριστικά μπορεί να οδηγήσει στο τέλος της ανθρωπότητας όπως τη γνωρίζουμε.
Σε απόσπασμα συνέντευξής του που δόθηκε στη δημοσιότητα στις 18 Αυγούστου, στο πλαίσιο της επερχόμενης ταινίας Making God, ο Χίντον διατύπωσε μια από τις πιο αυστηρές προειδοποιήσεις του. Υποστήριξε ότι η ανθρωπότητα κινδυνεύει να παραγκωνιστεί – και τελικά να αντικατασταθεί – από μηχανές πολύ πιο ευφυείς από τον άνθρωπο.
«Οι περισσότεροι δεν μπορούν να συλάβουν την ιδέα ύπαρξης όντων εξυπνότερων από εμάς», ανέφερε, προσθέτοντας ότι «πάντα σκέφτονται πώς θα χρησιμοποιήσουμε εμείς την τεχνολογία, και όχι πώς αυτή μπορεί να χρησιμοποιήσει εμάς».
Ο Χίντον, πρώην στέλεχος της Google και βραβευμένος με το Νόμπελ Φυσικής, δήλωσε «αρκετά βέβαιος» ότι η τεχνητή νοημοσύνη θα προκαλέσει μαζική ανεργία, φέρνοντας ως παράδειγμα μεγάλες εταιρείες που ήδη αντικαθιστούν νέους προγραμματιστές με αλγορίθμους. Ωστόσο, τόνισε ότι ο μεγαλύτερος κίνδυνος ξεπερνά κατά πολύ το ζήτημα της απασχόλησης.
«Ο κίνδυνος για τον οποίο προειδοποιώ περισσότερο είναι να αναπτυχθεί μια τεχνητή νοημοσύνη πολύ πιο έξυπνη από εμάς, η οποία απλώς θα αναλάβει τον έλεγχο», σημείωσε. «Δεν θα μας χρειάζεται πλέον».
Με μια δόση χιούμορ συμπλήρωσε πως «τουλάχιστον δεν θα μας φάει, επειδή θα είναι φτιαγμένη από πυρίτιο».
Από τα επιτεύγματα στις μεταμέλειες
Ο 77χρονος επιστήμονας αφιέρωσε δεκαετίες στην έρευνα της βαθιάς μάθησης, της αρχιτεκτονικής νευρωνικών δικτύων που βρίσκεται στη βάση της σύγχρονης τεχνητής νοημοσύνης. Οι ανακαλύψεις του τη δεκαετία του 1980 – μεταξύ άλλων η εφεύρεση της «μηχανής Boltzmann» για την αναγνώριση προτύπων σε δεδομένα – άνοιξαν τον δρόμο για την εξέλιξη της μηχανικής μάθησης και της αναγνώρισης εικόνας.
Για τη συνεισφορά του αυτή τιμήθηκε το 2024 με το Νόμπελ Φυσικής «για θεμελιώδεις ανακαλύψεις και επινοήσεις που κατέστησαν δυνατή τη μάθηση μηχανών μέσω τεχνητών νευρωνικών δικτύων».
Η Σουηδική Βασιλική Ακαδημία Επιστημών είχε υπογραμμίσει τότε ότι η χρήση της στατιστικής φυσικής από τον Χίντον αποτέλεσε το θεωρητικό άλμα που έκανε δυνατή την επανάσταση της τεχνητής νοημοσύνης.
Παρά ταύτα, ο ίδιος έχει εξελιχθεί σε έναν από τους πιο έντονους επικριτές του πεδίου, προειδοποιώντας ότι η ανάπτυξη της τεχνολογίας έχει ξεπεράσει τις δυνατότητες της κοινωνίας να τη διαχειριστεί με ασφάλεια. Το 2023 παραιτήθηκε από τη Google, ώστε να μπορεί να μιλά ελεύθερα χωρίς να δεσμεύεται από την εταιρεία.
Στην ομιλία του κατά την απονομή του Νόμπελ, αναγνώρισε τα πιθανά οφέλη της τεχνητής νοημοσύνης, όπως η αύξηση της παραγωγικότητας και οι νέες θεραπείες στην ιατρική, που θα μπορούσαν να αποτελέσουν «ένα υπέροχο βήμα προόδου για όλη την ανθρωπότητα». Ωστόσο, προειδοποίησε ότι η δημιουργία ψηφιακών όντων εξυπνότερων από τον άνθρωπο συνιστά «υπαρξιακή απειλή».
Κάνοντας μία αναδρομή στην καριέρα του, δήλωσε στο πρόσφατο συνέδριο Ai4 στο Λας Βέγκας ότι μετανιώνει που εστίασε αποκλειστικά στην ανάπτυξη της τεχνολογίας, παραμελώντας την ασφάλεια. «Εύχομαι να είχα σκεφτεί και τα ζητήματα ασφάλειας», τόνισε.
Μαθαίνοντας το ΑΙ να νοιάζεται
Ο Χίντον έχει εκτιμήσει στο παρελθόν ότι υπάρχει πιθανότητα 10-20% η τεχνητή νοημοσύνη να αφανίσει την ανθρωπότητα. Σε συνέντευξή του τον Ιούνιο, είχε επισημάνει ότι οι δημιουργοί των σημερινών συστημάτων δεν κατανοούν πλήρως τη λειτουργία τους και χωρίζονται σε δύο στρατόπεδα: εκείνους που πιστεύουν σε ένα δυστοπικό μέλλον και εκείνους που απορρίπτουν τέτοιες ανησυχίες ως επιστημονική φαντασία.
«Θεωρώ και τις δύο θέσεις ακραίες», είπε. «Πάντα αναφέρω πιθανότητες 10-20% για αφανισμό της ανθρωπότητας, αλλά είναι περισσότερο από ένστικτο. Η ελπίδα είναι ότι αρκετοί έξυπνοι άνθρωποι, με τους απαραίτητους πόρους, θα βρουν τρόπο να κατασκευάσουν συστήματα που δεν θα θελήσουν ποτέ να μας βλάψουν».
Στο ίδιο συνέδριο, στο Λας Βέγκας, πρότεινε μια διαφορετική προσέγγιση για τον περιορισμό των κινδύνων: αντί να επιχειρείται η «υποταγή» των συστημάτων, να σχεδιαστούν με «μητρικά ένστικτα», ώστε να θέλουν να προστατεύουν τον άνθρωπο όσο εξελίσσονται.
«Το μοντέλο που έχουμε για μια έξυπνη οντότητα η οποία ελέγχεται από μια λιγότερο έξυπνη οντότητα είναι η μητέρα που ελέγχεται από το μωρό της», υπογράμμισε.
«Θα γίνουν πολύ εξυπνότερα από εμάς», κατέληξε, προσθέτοντας ότι «η μόνη καλή κατάληξη είναι να νοιάζονται για την ανθρωπότητα, όπως μια μητέρα για το παιδί της».
«Αν δεν μας φροντίσει, θα μας αντικαταστήσει.»