Τα όπλα τελευταίας τεχνολογίας που λειτουργούν με τεχνητή νοημοσύνη αναδεικνύονται σε παγκόσμιο κίνδυνο για την ασφάλεια, ιδίως στα χέρια του Κομμουνιστικού Κόμματος της Κίνας (ΚΚΚ), σύμφωνα με αρκετούς εμπειρογνώμονες.
Πρόθυμο να ξεπεράσει στρατιωτικά τις Ηνωμένες Πολιτείες, το ΚΚΚ είναι απίθανο να προσέξει τα μέτρα προστασίας γύρω από τις φονικές τεχνολογίες τεχνητής νοημοσύνης, οι οποίες είναι όλο και πιο επικίνδυνες από μόνες τους, υποστήριξαν οι εμπειρογνώμονες. Η φύση της τεχνολογίας είναι επιρρεπής στο να τροφοδοτεί κάποιες από τις χειρότερες τάσεις του καθεστώτος και της ανθρώπινης ψυχής γενικότερα, προειδοποίησαν.
«Οι επιπτώσεις είναι αρκετά δραματικές. Και μπορεί να είναι εφάμιλλες της πυρηνικής επανάστασης», δήλωσε ο Μπράντλεϊ Θέιερ (Bradley Thayer), ανώτερος συνεργάτης του Κέντρου Πολιτικής Ασφάλειας, ειδικός σε θέματα στρατηγικής αξιολόγησης της Κίνας και συνεργάτης των Epoch Times.
Ρομπότ-φονιάδες
Η ανάπτυξη αυτόνομων όπλων με τεχνητή νοημοσύνη εξελίσσεται δυστυχώς με ταχείς ρυθμούς, σύμφωνα με τον Αλεξάντερ Ντε Ρίντερ (Alexander De Ridder), έναν προγραμματιστή τεχνητής νοημοσύνης και συνιδρυτή της Ink, μιας εταιρείας μάρκετινγκ τεχνητής νοημοσύνης.
«Γίνονται γρήγορα πιο αποδοτικά και πιο αποτελεσματικά», δήλωσε στους Epoch Times, προσθέτοντας ότι «δεν βρίσκονται στο σημείο όπου μπορούν να αντικαταστήσουν τους ανθρώπους».
Τα αυτόνομα μη επανδρωμένα αεροσκάφη, τανκς, πλοία και υποβρύχια έχουν γίνει πραγματικότητα μαζί με πιο εξωτικές μορφές, όπως τα τετράποδα ρομποτικά σκυλιά, που είναι ήδη οπλισμένα με πολυβόλα στην Κίνα.
Ακόμη και ανθρωποειδή ρομπότ με τεχνητή νοημοσύνη -το υλικό του τρόμου της επιστημονικής φαντασίας- βρίσκονται σε παραγωγή. Βέβαια, εξακολουθούν να είναι μάλλον αδέξια στον πραγματικό κόσμο, αλλά δεν θα είναι για πολύ, πρότεινε ο Ντε Ρίντερ.
«Οι δυνατότητες για τέτοια ρομπότ εξελίσσονται γρήγορα», είπε.
Μόλις αποκτήσουν αγοραία χρησιμότητα και αξιοπιστία, η Κίνα είναι πιθανό να στρέψει τις κατασκευαστικές της δυνάμεις στη μαζική παραγωγή τους, σύμφωνα με τον Ντε Ρίντερ.
«Η αγορά θα κατακλυστεί από ανθρωποειδή ρομπότ και στη συνέχεια θα εξαρτηθεί από τον προγραμματισμό το πώς θα χρησιμοποιηθούν.»
Αυτό θα σήμαινε και στρατιωτική χρήση.
«Είναι κατά κάποιον τρόπο αναπόφευκτο», είπε.
Τέτοιες μηχανές με τεχνητή νοημοσύνη είναι πολύ αποτελεσματικές στην επεξεργασία εικόνων για να διακρίνουν αντικείμενα -για παράδειγμα, να εντοπίζουν έναν άνθρωπο με τους οπτικούς αισθητήρες τους, εξήγησε ο Τζέιμς Τσιου (James Qiu), ειδικός σε θέματα τεχνητής νοημοσύνης, ιδρυτής του Ινστιτούτου Ερευνών GIT και πρώην CTO της FileMaker.
Αυτό καθιστά τα ρομπότ τεχνητής νοημοσύνης πολύ καλά στη στόχευση.
«Είναι μια πολύ αποτελεσματική μηχανή θανάτου», είπε.
Στρατηγοί τεχνητής νοημοσύνης
Σε ένα ευρύτερο πλαίσιο, πολλά έθνη εργάζονται σε συστήματα τεχνητής νοημοσύνης που είναι ικανά να ενημερώνουν και να συντονίζουν αποφάσεις στο πεδίο της μάχης – ουσιαστικά ενεργώντας ως ηλεκτρονικοί στρατηγοί, σύμφωνα με τον Τζέισον Μα (Jason Ma), επικεφαλής έρευνας δεδομένων σε πολυεθνική εταιρεία Fortune 500. Ζήτησε να μην αποκαλύψει το όνομα της εταιρείας του, για να μην δημιουργηθεί η εντύπωση ότι μιλάει εκ μέρους της.
Ο Λαϊκός Απελευθερωτικός Στρατός της Κίνας (People’s Liberation Army- PLA) διεξήγαγε πρόσφατα ασκήσεις μάχης στις οποίες μια τεχνητή νοημοσύνη τέθηκε απευθείας υπό τη διοίκηση, και ο στρατός των ΗΠΑ έχει επίσης προγράμματα σε αυτόν τον τομέα, δήλωσε ο Μα.
«Είναι ένα πολύ ενεργό θέμα έρευνας και ανάπτυξης», είπε.
Η ανάγκη είναι προφανής: οι αποφάσεις στο πεδίο της μάχης ενημερώνονται από έναν συγκλονιστικά μεγάλο όγκο δεδομένων, από το ιστορικό πλαίσιο και τις πληροφορίες του παρελθόντος, έως τα δορυφορικά δεδομένα σχεδόν σε πραγματικό χρόνο, έως την πιο λεπτομερή εισροή πληροφοριών από κάθε κάμερα, μικρόφωνο και οποιονδήποτε αισθητήρα στο πεδίο. Είναι πολύ δύσκολο για τους ανθρώπους να επεξεργαστούν τέτοιες διαφορετικές και ογκώδεις ροές δεδομένων, είπε.
«Όσο πιο πολύπλοκος είναι ο πόλεμος, τόσο πιο σημαντικό μέρος γίνεται το πως μπορείτε να ενσωματώσετε γρήγορα, να συνοψίσετε όλες αυτές τις πληροφορίες για να πάρετε τη σωστή απόφαση, μέσα σε δευτερόλεπτα, ή ακόμη και σε κλάσματα του δευτερολέπτου», είπε.
Αποσταθεροποίηση
Τα όπλα τεχνητής νοημοσύνης επαναπροσδιορίζουν ήδη τον πόλεμο, αλλά οι ειδικοί που μίλησαν στους Epoch Times συμφώνησαν ότι οι συνέπειες θα είναι πολύ ευρύτερες. Η τεχνολογία καθιστά τον κόσμο όλο και πιο ασταθή, δήλωσε ο Θέιερ.
Στο πιο στοιχειώδες επίπεδο, η στόχευση των όπλων με τεχνητή νοημοσύνη θα διευκολύνει κατά πάσα πιθανότητα την κατάρριψη διηπειρωτικών βαλλιστικών πυραύλων, τον εντοπισμό και την καταστροφή υποβρυχίων και την κατάρριψη βομβαρδιστικών μεγάλου βεληνεκούς. Αυτό θα μπορούσε να εξουδετερώσει τις δυνατότητες της πυρηνικής τριπλέτας των ΗΠΑ, επιτρέποντας στους αντιπάλους να «κλιμακώσουν πέρα από το πυρηνικό επίπεδο» χωρίς αντίποινα, είπε.
«Η τεχνητή νοημοσύνη θα επηρέαζε κάθε ένα από αυτά τα στοιχεία, τα οποία αναπτύξαμε και κατανοήσαμε κατά τη διάρκεια του Ψυχρού Πολέμου ως απολύτως απαραίτητα για μια σταθερή σχέση πυρηνικής αποτροπής», είπε.
«Κατά τη διάρκεια του Ψυχρού Πολέμου, υπήρχε μια ευρεία κατανόηση ότι ο συμβατικός πόλεμος μεταξύ πυρηνικών δυνάμεων δεν ήταν εφικτός.[…] Η τεχνητή νοημοσύνη υπονομεύει αυτό, διότι εισάγει την πιθανότητα συμβατικής σύγκρουσης μεταξύ δύο πυρηνικών κρατών.»
«Η τεχνητή νοημοσύνη επηρεάζει σε μεγάλο βαθμό το πεδίο της μάχης, αλλά δεν είναι ακόμη καθοριστική.»
Εάν οι δυνατότητες της τεχνητής νοημοσύνης έφταναν «στο αποτέλεσμα ενός πυρηνικού πολέμου χωρίς τη χρήση πυρηνικών όπλων», θα καθόταν ο κόσμος πάνω σε μια πυριτιδαποθήκη, είπε.
«Αν αυτό είναι δυνατό, και είναι αρκετά πιθανό ότι είναι δυνατό, τότε αυτή είναι μια εξαιρετικά επικίνδυνη και αποσταθεροποιητική κατάσταση, επειδή υποχρεώνει κάποιον, που είναι αποδέκτης μιας επίθεσης, να προχωρήσει πρώτος – όχι να υπομείνει την επίθεση, αλλά να επιτεθεί.»
Στο λεξικό των πολεμικών επιχειρήσεων, η έννοια ονομάζεται «περιορισμός της ζημίας», είπε. «Δεν θέλεις ο άλλος να πάει πρώτος, γιατί θα πληγωθείς άσχημα. Οπότε πηγαίνεις εσύ πρώτος. Και αυτό θα είναι εξαιρετικά αποσταθεροποιητικό στη διεθνή πολιτική».
Τα ρομπότ-φονιάδες και τα μη επανδρωμένα αεροσκάφη δεν είναι η μόνη αιτία ανησυχίας. Θα μπορούσαν να αναπτυχθούν διάφορα μη συμβατικά όπλα τεχνητής νοημοσύνης, όπως ένα για την ανεύρεση τρωτών σημείων σε κρίσιμες υποδομές, όπως το ηλεκτρικό δίκτυο ή τα συστήματα ύδρευσης.
Ο έλεγχος της εξάπλωσης τέτοιων τεχνολογιών είναι ένα δύσκολο έργο, δεδομένου ότι η ίδια η τεχνητή νοημοσύνη είναι απλώς ένα κομμάτι λογισμικού. Ακόμη και τα μεγαλύτερα μοντέλα χωράνε σε έναν κανονικό σκληρό δίσκο και μπορούν να τρέξουν σε μια μικρή μονάδα διακομιστών. Απλά αλλά ολοένα και πιο θανατηφόρα όπλα τεχνητής νοημοσύνης, όπως τα μη επανδρωμένα αεροσκάφη-φονιάδες, μπορούν να αποστέλλονται τμηματικά χωρίς να προκαλούν συναγερμό.
«Τόσο τα κάθετα όσο και τα οριζόντια κίνητρα διάδοσης είναι τεράστια και είναι εύκολο να γίνει», δήλωσε ο Θέιειρ.
Ο Ντε Ρίντερ επεσήμανε ότι το κινεζικό κράτος θέλει να θεωρείται υπεύθυνο στην παγκόσμια σκηνή.
Αλλά αυτό δεν έχει εμποδίσει το ΚΚΚ να προμηθεύει όπλα ή να βοηθά τα εξοπλιστικά προγράμματα άλλων καθεστώτων και ομάδων που δεν περιορίζονται τόσο πολύ από άποψη φήμης, σημείωσαν άλλοι ειδικοί.
Για παράδειγμα, το ΚΚΚ θα μπορούσε να προμηθεύσει αυτόνομα όπλα σε τρομοκρατικές ομάδες προκειμένου να δεσμεύσει τον αμερικανικό στρατό με ατελείωτες ασύμμετρες συγκρούσεις. Το καθεστώς θα μπορούσε ακόμη και να κρατήσει τις αποστάσεις του προμηθεύοντας απλώς τα εξαρτήματα, αφήνοντας πληρεξούσιους να συναρμολογήσουν τα μη επανδρωμένα αεροσκάφη, όπως οι Κινέζοι προμηθευτές παρέχουν πρόδρομες ουσίες φαιντανύλης στα μεξικανικά καρτέλ και τα αφήνουν να κατασκευάζουν, να μεταφέρουν και να πωλούν τα ναρκωτικά.
Το ΚΚΚ έχει μακρά ιστορία στην παροχή βοήθειας στα ιρανικά εξοπλιστικά προγράμματα, ενώ το Ιράν με τη σειρά του προμηθεύει όπλα σε τρομοκρατικές ομάδες στην περιοχή.
«Θα υπήρχε μικρό αντικίνητρο για το Ιράν να το κάνει αυτό», δήλωσε ο Θέιερ.
Aνθρώπινη αλληλεπίδραση
Είναι γενικά αποδεκτό, τουλάχιστον στις Ηνωμένες Πολιτείες και μεταξύ των συμμάχων τους, ότι η πιο κρίσιμη δικλείδα ασφαλείας κατά της καταστροφής που προκαλούν τα όπλα τεχνητής νοημοσύνης είναι η διατήρηση ενός ανθρώπου στον έλεγχο των σημαντικών αποφάσεων, ιδίως της χρήσης θανατηφόρας βίας.
«Σε καμία περίπτωση δεν θα πρέπει να επιτραπεί σε οποιαδήποτε μηχανή αυτόνομα, ανεξάρτητα, να αφαιρέσει μια ανθρώπινη ζωή – ποτέ», δήλωσε ο Ντε Ρίντερ.
Η αρχή αυτή αναφέρεται συνήθως με τη φράση «ανθρώπινη αλληλεπίδραση».
«Ο άνθρωπος έχει συνείδηση και πρέπει να ξυπνάει το πρωί με τύψεις και τις συνέπειες αυτού που έκανε, ώστε να μπορεί να μάθει από αυτό και να μην επαναλάβει φρικαλεότητες», δήλωσε ο Ντε Ρίντερ.
Ορισμένοι από τους εμπειρογνώμονες επεσήμαναν, ωστόσο, ότι η αρχή αυτή ήδη διαβρώνεται από τη φύση της μάχης που μετασχηματίζεται από τις δυνατότητες της τεχνητής νοημοσύνης.
Στον πόλεμο της Ουκρανίας, για παράδειγμα, ο ουκρανικός στρατός έπρεπε να εξοπλίσει τα μη επανδρωμένα αεροσκάφη του με κάποιο βαθμό αυτονομίας για να οδηγηθούν στους στόχους τους, επειδή η επικοινωνία τους με τους ανθρώπινους χειριστές παρεμποδίζονταν από τον ρωσικό στρατό.
Τέτοια μη επανδρωμένα αεροσκάφη λειτουργούν μόνο με απλούστερη τεχνητή νοημοσύνη, δήλωσε ο Μα, δεδομένης της περιορισμένης ισχύος του ενσωματωμένου υπολογιστή του μη επανδρωμένου αεροσκάφους. Αλλά αυτό μπορεί σύντομα να αλλάξει, καθώς τόσο τα μοντέλα τεχνητής νοημοσύνης όσο και οι υπολογιστές γίνονται ταχύτεροι και πιο αποτελεσματικοί.
Η Apple εργάζεται ήδη πάνω σε μια τεχνητή νοημοσύνη που θα μπορούσε να τρέχει σε ένα τηλέφωνο. «Είναι πολύ πιθανό στο μέλλον να τοποθετηθεί σε ένα μικρό τσιπ», είπε.
Ο Ντε Ρίντερ επεσήμανε ότι ένα μη επανδρωμένο αεροσκάφος που πυροβολεί ένα άλλο μη επανδρωμένο αεροσκάφος από μόνο του θα ήταν ηθικά αποδεκτό. Αλλά αυτό θα μπορούσε να εξαπολύσει πολλούς αυτόνομους πυροβολισμούς σε ένα πεδίο μάχης όπου μπορεί να υπάρχουν και άνθρωποι, ανοίγοντας την πόρτα σε ανυπολόγιστες παράπλευρες απώλειες.
Χωρίς κανόνες
Όποιες διασφαλίσεις για την τεχνητή νοημοσύνη μπορεί να είναι εφικτές, το ΚΚΚ είναι απίθανο να τις τηρήσει ούτως ή άλλως, συμφώνησαν οι περισσότεροι από τους εμπειρογνώμονες.
«Δεν βλέπω πραγματικά ότι θα υπάρξουν οποιαδήποτε πλαίσια για την Κίνα που θα πρέπει να είναι προσεκτική», δήλωσε ο Μα. «Ό,τι είναι εφικτό, θα το κάνουν».
«Η ιδέα ότι η Κίνα θα περιοριστεί στη χρήση του είναι κάτι που δεν βλέπω να γίνεται», δήλωσε ο Τζέιμς Φέινελ (James Fanell). «Θα προσπαθήσουν να το εκμεταλλευτούν και να είναι σε θέση να το εκμεταλλευτούν ταχύτερα από ό,τι εμείς».
Η αρχή της «ανθρώπινης αλληλεπίδρασης» θα μπορούσε απλώς να επανερμηνευτεί ώστε να ισχύει για «ένα μεγαλύτερο, ολόκληρο επίπεδο μάχης» αντί για «το ατομικό επίπεδο βολής», δήλωσε ο Μα.
Αλλά μόλις κάποιος αποδεχτεί ότι η τεχνητή νοημοσύνη μπορεί να αρχίσει να «πυροβολεί» μόνη της σε ορισμένες περιπτώσεις, η αρχή του ανθρώπινου ελέγχου γίνεται εύπλαστη, δήλωσε ο Φέινελ.
«Αν είστε πρόθυμοι να το αποδεχτείτε αυτό σε τακτικό επίπεδο, ποιος μπορεί να πει ότι δεν θα το πάτε μέχρι το ανώτατο επίπεδο του πολέμου;», είπε.
«Είναι η φυσική εξέλιξη μιας τέτοιας τεχνολογίας και δεν είμαι σίγουρος τι μπορούμε να κάνουμε για να τη σταματήσουμε. Δεν είναι σαν να πρόκειται να έχετε έναν κώδικα δεοντολογίας που να λέει στον πόλεμο, [ας τηρούμε] τους κανόνες του Μαρκήσιου του Κουίνσμπερυ για την πυγμαχία. Αυτό δεν πρόκειται να συμβεί».
Ακόμη και αν οι άνθρωποι διατηρούν τον έλεγχο των μακροσκοπικών αποφάσεων, όπως το αν θα ξεκινήσει μια συγκεκριμένη αποστολή, η τεχνητή νοημοσύνη μπορεί εύκολα να κυριαρχήσει στη διαδικασία λήψης αποφάσεων. Ο κίνδυνος δεν θα ήταν μια τεχνητή νοημοσύνη με κακές επιδόσεις, αλλά μάλλον μια τεχνητή νοημοσύνη που λειτουργεί τόσο καλά ώστε να εμπνέει εμπιστοσύνη στους ανθρώπινους χειριστές.
Ο Ντε Ρίντερ αντιμετώπισε με σκεπτικισμό τις προβλέψεις για την υπερ-ευφυή τεχνητή νοημοσύνη (superintelligent A.I.) που ξεπερνά κατά πολύ τις ανθρώπινες ικανότητες. Ωστόσο, αναγνώρισε ότι η τεχνητή νοημοσύνη ξεπερνά τον άνθρωπο σε ορισμένα σημεία, ιδίως στην ταχύτητα- μπορεί να επεξεργαστεί βουνά δεδομένων και να βγάλει συμπέρασμα σχεδόν αμέσως.
Και είναι πρακτικά αδύνατο να καταλάβουμε πώς ακριβώς μια τεχνητή νοημοσύνη καταλήγει στα συμπεράσματά της, σύμφωνα με τους Μα και Τσιου.
Ο Ντε Ρίντερ δήλωσε ότι ο ίδιος και άλλοι εργάζονται πάνω σε τρόπους περιορισμού της τεχνητής νοημοσύνης σε μια ροή εργασίας που μοιάζει με την ανθρώπινη, έτσι ώστε τα επιμέρους βήματα της συλλογιστικής της να είναι πιο ευδιάκριτα.
Αλλά δεδομένου του απίστευτου όγκου των δεδομένων που εμπλέκονται, θα ήταν αδύνατο για την τεχνητή νοημοσύνη να εξηγήσει πώς κάθε πληροφορία λαμβάνεται υπόψη στη συλλογιστική της χωρίς να καταβάλει τον χειριστή, δήλωσε ο Μα.
«Εάν ο ανθρώπινος χειριστής γνωρίζει σαφώς ότι αυτή είναι μια απόφαση [που παράγεται] αφού η τεχνητή νοημοσύνη επεξεργάστηκε τεράστιους όγκους δεδομένων, δεν θα έχει πραγματικά το θάρρος να την ανατρέψει στις περισσότερες περιπτώσεις. Οπότε υποθέτω, ναι, θα είναι τυπική διαδικασία», δήλωσε.
«Η ‘ανθρώπινη αλληλεπίδραση’ είναι ένα άνετο είδος φράσης, αλλά στην πραγματικότητα, οι άνθρωποι θα εγκαταλείψουν γρήγορα τον έλεγχο».
Δημόσια πίεση
Όλοι οι εμπειρογνώμονες συμφώνησαν ότι η δημόσια πίεση είναι πιθανό να περιορίσει την ανάπτυξη και τη χρήση όπλων τεχνητής νοημοσύνης, τουλάχιστον στις Ηνωμένες Πολιτείες.
Ο Μα ανέφερε το παράδειγμα της Google που τερμάτισε ένα αμυντικό συμβόλαιο λόγω των αντιρρήσεων του προσωπικού της. Ωστόσο, δεν μπορούσε να φανταστεί μια ανάλογη κατάσταση στην Κίνα.
Ο Τσιου συμφώνησε. «Οτιδήποτε εντός της Κίνας είναι ένας πόρος που το ΚΚΚ μπορεί να αξιοποιήσει», είπε. «Δεν μπορείτε να πείτε, ‘Ω, αυτή είναι μια ιδιωτική εταιρεία’. Δεν υπάρχει ιδιωτική εταιρεία αυτή καθαυτή [στην Κίνα]».
Ακόμη και το ΚΚΚ δεν μπορεί να απαλλαγεί εντελώς από το δημόσιο αίσθημα, δήλωσε ο Ντε Ρίντερ.
«Η κυβέρνηση μπορεί να επιβιώσει μόνο αν ο πληθυσμός θέλει να συνεργαστεί», είπε.
Αλλά δεν υπάρχει καμία ένδειξη ότι ο κινεζικός πληθυσμός βλέπει τη στρατιωτική χρήση της τεχνητής νοημοσύνης ως επείγουσα ανησυχία. Αντιθέτως, οι εταιρείες και τα πανεπιστήμια στην Κίνα φαίνεται να είναι πρόθυμα να αναλάβουν στρατιωτικά συμβόλαια, δήλωσε ο Μα.
Ο Ντε Ρίντερ ζήτησε «ένα διεθνές ρυθμιστικό πλαίσιο που να μπορεί να επιβληθεί».
Δεν είναι σαφές πώς θα μπορούσαν να επιβληθούν τέτοιοι κανονισμοί έναντι της Κίνας, η οποία έχει μακρά ιστορία άρνησης οποιουδήποτε περιορισμού στη στρατιωτική της ανάπτυξη. Οι Ηνωμένες Πολιτείες προσπαθούν εδώ και καιρό μάταια να φέρουν την Κίνα στο τραπέζι των διαπραγματεύσεων για τον πυρηνικό αφοπλισμό. Πρόσφατα, η Κίνα αρνήθηκε ένα αίτημα των ΗΠΑ να εγγυηθεί ότι δεν θα χρησιμοποιήσει την τεχνητή νοημοσύνη για τη λήψη αποφάσεων σχετικά με πυρηνικά πλήγματα.
Εάν οι Ηνωμένες Πολιτείες ρυθμίσουν τη δική τους ανάπτυξη της τεχνητής νοημοσύνης, θα μπορούσε να δημιουργήσει μια στρατηγική ευπάθεια, πρότειναν πολλοί εμπειρογνώμονες.
«Αυτοί οι κανονισμοί θα μελετηθούν πολύ καλά από το ΚΚΚ και θα χρησιμοποιηθούν ως εργαλείο επίθεσης», δήλωσε ο Τσιου.
Ακόμη και αν επιτευχθεί κάποια συμφωνία, το ΚΚΚ έχει κακό ιστορικό τήρησης των υποσχέσεων, σύμφωνα με τον Θέιερ.
«Οποιαδήποτε συμφωνία είναι μια κρούστα πίτας φτιαγμένη για να σπάσει», είπε.
Λύσεις
Ο Ντε Ρίντερ δήλωσε ότι ελπίζει ότι ίσως τα έθνη θα συμβιβαστούν με τη χρήση της τεχνητής νοημοσύνης με λιγότερο καταστροφικούς τρόπους.
«Υπάρχουν πολλοί τρόποι με τους οποίους μπορείς να χρησιμοποιήσεις την τεχνητή νοημοσύνη για να πετύχεις τους στόχους σου, οι οποίοι δεν περιλαμβάνουν την αποστολή ενός σμήνους μη επανδρωμένων αεροσκαφών-φονιάδων ο ένας στον άλλον», είπε. «Όταν έρθει η ώρα, κανείς δεν θέλει να συμβούν αυτές οι συγκρούσεις.»
Άλλοι εμπειρογνώμονες δήλωσαν ότι το ΚΚΚ δεν θα είχε πρόβλημα να ξεκινήσει μια τέτοια σύγκρουση – αρκεί να έβλεπε μια σαφή πορεία προς τη νίκη.
«Οι Κινέζοι δεν πρόκειται να περιοριστούν από τους δικούς μας κανόνες», δήλωσε ο Φέινελ. «Θα κάνουν ό,τι χρειάζεται για να κερδίσουν.»
Η εμπιστοσύνη στους «ψιθύρους» ενός «στρατιωτικού συμβούλου» τεχνητής νοημοσύνης, ο οποίος εμπνέει εμπιστοσύνη επεξεργαζόμενος «βουνά» δεδομένων και παράγοντας πειστικά σχέδια μάχης, θα μπορούσε να είναι ιδιαίτερα επικίνδυνη, καθώς μπορεί να δημιουργήσει ένα όραμα νίκης εκεί που προηγουμένως δεν υπήρχε, σύμφωνα με τον Θέιερ.
«Μπορείτε να καταλάβετε πώς αυτό μπορεί να είναι πολύ ελκυστικό για έναν υπεύθυνο λήψης αποφάσεων, ειδικά για κάποιον που είναι υπερ-επιθετικός, όπως είναι το ΚΚΚ», δήλωσε ο Θέιερ. «Μπορεί να κάνει την επιθετικότητα πιο πιθανή.»
«Υπάρχει μόνο ένας τρόπος να το σταματήσουμε, ο οποίος είναι να είμαστε σε θέση να το νικήσουμε», δήλωσε ο Φέινελ.
Ο Τσακ ντι Κάρο (Chuck de Caro), πρώην σύμβουλος του Γραφείου Αξιολόγησης Δικτύου του Πενταγώνου, κάλεσε πρόσφατα τις Ηνωμένες Πολιτείες να αναπτύξουν ηλεκτρομαγνητικά όπλα που θα μπορούσαν να αχρηστεύσουν τα τσιπ υπολογιστών. Μπορεί ακόμη και να είναι δυνατή η ανάπτυξη ενεργειακών όπλων που θα μπορούσαν να απενεργοποιήσουν ένα συγκεκριμένο είδος τσιπ, έγραψε σε ένα άρθρο του στο Blaze Media.
«Προφανώς, χωρίς λειτουργικά τσιπ, η τεχνητή νοημοσύνη δεν λειτουργεί», έγραψε.
Μια άλλη επιλογή θα μπορούσε να είναι η ανάπτυξη ενός υπερόπλου τεχνητής νοημοσύνης που θα μπορούσε να λειτουργήσει αποτρεπτικά.
«Υπάρχει ένα AI Manhattan Project που κάνουν οι ΗΠΑ που μπορεί να δημιουργήσει το αποτέλεσμα που θα είχαν το Ναγκασάκι και η Χιροσίμα στη ΛΔΚ και το Κομμουνιστικό Κόμμα της Κίνας, που θα τους έφερνε στη συνειδητοποίηση ότι ‘Εντάξει, ίσως δεν θέλουμε να πάμε εκεί. Πρόκειται για αμοιβαία εξασφαλισμένη καταστροφή;’ Δεν ξέρω. Αλλά αυτό θα [έκανα]», δήλωσε ο Φέινελ.
Αυτό θα μπορούσε να αφήσει τον κόσμο σε μια αντιπαράθεση που μοιάζει με τον Ψυχρό Πόλεμο – δύσκολα μια ιδανική κατάσταση, αλλά πιθανόν να θεωρείται προτιμότερη από την παραίτηση από το στρατιωτικό πλεονέκτημα υπέρ του ΚΚΚ.
«Κάθε χώρα γνωρίζει ότι είναι επικίνδυνο, αλλά κανείς δεν μπορεί να σταματήσει επειδή φοβάται ότι θα μείνει πίσω», δήλωσε ο Μα.
Ο Ντε Ρίντερ δήλωσε ότι ίσως χρειαστεί ένα βαθύ σοκ για να σταματήσει η κούρσα εξοπλισμών της τεχνητής νοημοσύνης.
«Ίσως χρειαστεί κάτι σαν παγκόσμιος πόλεμος, με τεράστια ανθρώπινη τραγωδία, για να απαγορευτεί η χρήση αυτόνομων μηχανών-φονιάδων με τεχνητή νοημοσύνη», είπε.