Πέμπτη, 21 Νοέ, 2024
Βιομηχανικά ρομπότ εκτίθενται σε περίπτερο στη Διεθνή Έκθεση Βιομηχανίας της Κίνας 2015 στη Σαγκάη στις 2 Νοεμβρίου 2015. (Getty Images)

Το ΚΚ της Κίνας αναπτύσσει όπλα τεχνητής νοημοσύνης αγνοώντας τους παγκόσμιους κινδύνους

Η ανάπτυξη όπλων τεχνητής νοημοσύνης μπορεί να ισοδυναμεί με την πυρηνική επανάσταση, σύμφωνα με τον Μπράντλεϊ Θέιερ, ανώτερο συνεργάτη του Center for Security Policy (Κέντρο Πολιτικής Ασφάλειας).

Τα όπλα τελευταίας τεχνολογίας που λειτουργούν με τεχνητή νοημοσύνη αναδεικνύονται σε παγκόσμιο κίνδυνο για την ασφάλεια, ιδίως στα χέρια του Κομμουνιστικού Κόμματος της Κίνας (ΚΚΚ), σύμφωνα με αρκετούς εμπειρογνώμονες.

Πρόθυμο να ξεπεράσει στρατιωτικά τις Ηνωμένες Πολιτείες, το ΚΚΚ είναι απίθανο να προσέξει τα μέτρα προστασίας γύρω από τις φονικές τεχνολογίες τεχνητής νοημοσύνης, οι οποίες είναι όλο και πιο επικίνδυνες από μόνες τους, υποστήριξαν οι εμπειρογνώμονες. Η φύση της τεχνολογίας είναι επιρρεπής στο να τροφοδοτεί κάποιες από τις χειρότερες τάσεις του καθεστώτος και της ανθρώπινης ψυχής γενικότερα, προειδοποίησαν.

«Οι επιπτώσεις είναι αρκετά δραματικές. Και μπορεί να είναι εφάμιλλες της πυρηνικής επανάστασης», δήλωσε ο Μπράντλεϊ Θέιερ (Bradley Thayer), ανώτερος συνεργάτης του Κέντρου Πολιτικής Ασφάλειας, ειδικός σε θέματα στρατηγικής αξιολόγησης της Κίνας και συνεργάτης των Epoch Times.

 

Ρομπότ-φονιάδες

Η ανάπτυξη αυτόνομων όπλων με τεχνητή νοημοσύνη εξελίσσεται δυστυχώς με ταχείς ρυθμούς, σύμφωνα με τον Αλεξάντερ Ντε Ρίντερ (Alexander De Ridder), έναν προγραμματιστή τεχνητής νοημοσύνης και συνιδρυτή της Ink, μιας εταιρείας μάρκετινγκ τεχνητής νοημοσύνης.

«Γίνονται γρήγορα πιο αποδοτικά και πιο αποτελεσματικά», δήλωσε στους Epoch Times, προσθέτοντας ότι «δεν βρίσκονται στο σημείο όπου μπορούν να αντικαταστήσουν τους ανθρώπους».

Τα αυτόνομα μη επανδρωμένα αεροσκάφη, τανκς, πλοία και υποβρύχια έχουν γίνει πραγματικότητα μαζί με πιο εξωτικές μορφές, όπως τα τετράποδα ρομποτικά σκυλιά, που είναι ήδη οπλισμένα με πολυβόλα στην Κίνα.

Ακόμη και ανθρωποειδή ρομπότ με τεχνητή νοημοσύνη -το υλικό του τρόμου της επιστημονικής φαντασίας- βρίσκονται σε παραγωγή. Βέβαια, εξακολουθούν να είναι μάλλον αδέξια στον πραγματικό κόσμο, αλλά δεν θα είναι για πολύ, πρότεινε ο Ντε Ρίντερ.

«Οι δυνατότητες για τέτοια ρομπότ εξελίσσονται γρήγορα», είπε.

Μόλις αποκτήσουν αγοραία χρησιμότητα και αξιοπιστία, η Κίνα είναι πιθανό να στρέψει τις κατασκευαστικές της δυνάμεις στη μαζική παραγωγή τους, σύμφωνα με τον Ντε Ρίντερ.

«Η αγορά θα κατακλυστεί από ανθρωποειδή ρομπότ και στη συνέχεια θα εξαρτηθεί από τον προγραμματισμό το πώς θα χρησιμοποιηθούν.»

Αυτό θα σήμαινε και στρατιωτική χρήση.

«Είναι κατά κάποιον τρόπο αναπόφευκτο», είπε.

Τέτοιες μηχανές με τεχνητή νοημοσύνη είναι πολύ αποτελεσματικές στην επεξεργασία εικόνων για να διακρίνουν αντικείμενα -για παράδειγμα, να εντοπίζουν έναν άνθρωπο με τους οπτικούς αισθητήρες τους, εξήγησε ο Τζέιμς Τσιου (James Qiu), ειδικός σε θέματα τεχνητής νοημοσύνης, ιδρυτής του Ινστιτούτου Ερευνών GIT και πρώην CTO της FileMaker.

Αυτό καθιστά τα ρομπότ τεχνητής νοημοσύνης πολύ καλά στη στόχευση.

«Είναι μια πολύ αποτελεσματική μηχανή θανάτου», είπε.

Ένας αξιωματικός της Καμπότζης επιθεωρεί μη επανδρωμένα αεροσκάφη και ένα ρομποτικό σκύλο μάχης εξοπλισμένο με πολυβόλο, τα οποία επιδεικνύονται σε Κινέζους στρατιώτες κατά τη διάρκεια κοινής άσκησης σε βάση της στρατιωτικής αστυνομίας στην επαρχία Kampong Chhnang της Καμπότζης, στις 16 Μαΐου 2024. (Tang Chhin Sothytang Chhin Sothy/AFP μέσω Getty Images)

 

Στρατηγοί τεχνητής νοημοσύνης

Σε ένα ευρύτερο πλαίσιο, πολλά έθνη εργάζονται σε συστήματα τεχνητής νοημοσύνης που είναι ικανά να ενημερώνουν και να συντονίζουν αποφάσεις στο πεδίο της μάχης – ουσιαστικά ενεργώντας ως ηλεκτρονικοί στρατηγοί, σύμφωνα με τον Τζέισον Μα (Jason Ma), επικεφαλής έρευνας δεδομένων σε πολυεθνική εταιρεία Fortune 500. Ζήτησε να μην αποκαλύψει το όνομα της εταιρείας του, για να μην δημιουργηθεί η εντύπωση ότι μιλάει εκ μέρους της.

Ο Λαϊκός Απελευθερωτικός Στρατός της Κίνας (People’s Liberation Army- PLA) διεξήγαγε πρόσφατα ασκήσεις μάχης στις οποίες μια τεχνητή νοημοσύνη τέθηκε απευθείας υπό τη διοίκηση, και ο στρατός των ΗΠΑ έχει επίσης προγράμματα σε αυτόν τον τομέα, δήλωσε ο Μα.

«Είναι ένα πολύ ενεργό θέμα έρευνας και ανάπτυξης», είπε.

Η ανάγκη είναι προφανής: οι αποφάσεις στο πεδίο της μάχης ενημερώνονται από έναν συγκλονιστικά μεγάλο όγκο δεδομένων, από το ιστορικό πλαίσιο και τις πληροφορίες του παρελθόντος, έως τα δορυφορικά δεδομένα σχεδόν σε πραγματικό χρόνο, έως την πιο λεπτομερή εισροή πληροφοριών από κάθε κάμερα, μικρόφωνο και οποιονδήποτε αισθητήρα στο πεδίο. Είναι πολύ δύσκολο για τους ανθρώπους να επεξεργαστούν τέτοιες διαφορετικές και ογκώδεις ροές δεδομένων, είπε.

«Όσο πιο πολύπλοκος είναι ο πόλεμος, τόσο πιο σημαντικό μέρος γίνεται το πως μπορείτε να ενσωματώσετε γρήγορα, να συνοψίσετε όλες αυτές τις πληροφορίες για να πάρετε τη σωστή απόφαση, μέσα σε δευτερόλεπτα, ή ακόμη και σε κλάσματα του δευτερολέπτου», είπε.

 

Αποσταθεροποίηση

Τα όπλα τεχνητής νοημοσύνης επαναπροσδιορίζουν ήδη τον πόλεμο, αλλά οι ειδικοί που μίλησαν στους Epoch Times συμφώνησαν ότι οι συνέπειες θα είναι πολύ ευρύτερες. Η τεχνολογία καθιστά τον κόσμο όλο και πιο ασταθή, δήλωσε ο Θέιερ.

Στο πιο στοιχειώδες επίπεδο, η στόχευση των όπλων με τεχνητή νοημοσύνη θα διευκολύνει κατά πάσα πιθανότητα την κατάρριψη διηπειρωτικών βαλλιστικών πυραύλων, τον εντοπισμό και την καταστροφή υποβρυχίων και την κατάρριψη βομβαρδιστικών μεγάλου βεληνεκούς. Αυτό θα μπορούσε να εξουδετερώσει τις δυνατότητες της πυρηνικής τριπλέτας των ΗΠΑ, επιτρέποντας στους αντιπάλους να «κλιμακώσουν πέρα από το πυρηνικό επίπεδο» χωρίς αντίποινα, είπε.

«Η τεχνητή νοημοσύνη θα επηρέαζε κάθε ένα από αυτά τα στοιχεία, τα οποία αναπτύξαμε και κατανοήσαμε κατά τη διάρκεια του Ψυχρού Πολέμου ως απολύτως απαραίτητα για μια σταθερή σχέση πυρηνικής αποτροπής», είπε.

«Κατά τη διάρκεια του Ψυχρού Πολέμου, υπήρχε μια ευρεία κατανόηση ότι ο συμβατικός πόλεμος μεταξύ πυρηνικών δυνάμεων δεν ήταν εφικτός.[…] Η τεχνητή νοημοσύνη υπονομεύει αυτό, διότι εισάγει την πιθανότητα συμβατικής σύγκρουσης μεταξύ δύο πυρηνικών κρατών.»

Οι Φρουροί της Επανάστασης του Ιράν πυροδοτούν δοκιμαστικούς πυραύλους κατά τη διάρκεια της πρώτης φάσης των στρατιωτικών ασκήσεων στην κεντρική έρημο έξω από την πόλη Qom, στις 2 Νοεμβρίου 2006. (Fars News/AFP μέσω Getty Images)

 

«Η τεχνητή νοημοσύνη επηρεάζει σε μεγάλο βαθμό το πεδίο της μάχης, αλλά δεν είναι ακόμη καθοριστική.»

Εάν οι δυνατότητες της τεχνητής νοημοσύνης έφταναν «στο αποτέλεσμα ενός πυρηνικού πολέμου χωρίς τη χρήση πυρηνικών όπλων», θα καθόταν ο κόσμος πάνω σε μια πυριτιδαποθήκη, είπε.

«Αν αυτό είναι δυνατό, και είναι αρκετά πιθανό ότι είναι δυνατό, τότε αυτή είναι μια εξαιρετικά επικίνδυνη και αποσταθεροποιητική κατάσταση, επειδή υποχρεώνει κάποιον, που είναι αποδέκτης μιας επίθεσης, να προχωρήσει πρώτος – όχι να υπομείνει την επίθεση, αλλά να επιτεθεί.»

Στο λεξικό των πολεμικών επιχειρήσεων, η έννοια ονομάζεται «περιορισμός της ζημίας», είπε. «Δεν θέλεις ο άλλος να πάει πρώτος, γιατί θα πληγωθείς άσχημα. Οπότε πηγαίνεις εσύ πρώτος. Και αυτό θα είναι εξαιρετικά αποσταθεροποιητικό στη διεθνή πολιτική».

Τα ρομπότ-φονιάδες και τα μη επανδρωμένα αεροσκάφη δεν είναι η μόνη αιτία ανησυχίας. Θα μπορούσαν να αναπτυχθούν διάφορα μη συμβατικά όπλα τεχνητής νοημοσύνης, όπως ένα για την ανεύρεση τρωτών σημείων σε κρίσιμες υποδομές, όπως το ηλεκτρικό δίκτυο ή τα συστήματα ύδρευσης.

Ο έλεγχος της εξάπλωσης τέτοιων τεχνολογιών είναι ένα δύσκολο έργο, δεδομένου ότι η ίδια η τεχνητή νοημοσύνη είναι απλώς ένα κομμάτι λογισμικού. Ακόμη και τα μεγαλύτερα μοντέλα χωράνε σε έναν κανονικό σκληρό δίσκο και μπορούν να τρέξουν σε μια μικρή μονάδα διακομιστών. Απλά αλλά ολοένα και πιο θανατηφόρα όπλα τεχνητής νοημοσύνης, όπως τα μη επανδρωμένα αεροσκάφη-φονιάδες, μπορούν να αποστέλλονται τμηματικά χωρίς να προκαλούν συναγερμό.

«Τόσο τα κάθετα όσο και τα οριζόντια κίνητρα διάδοσης είναι τεράστια και είναι εύκολο να γίνει», δήλωσε ο Θέιειρ.

Ο Ντε Ρίντερ επεσήμανε ότι το κινεζικό κράτος θέλει να θεωρείται υπεύθυνο στην παγκόσμια σκηνή.

Αλλά αυτό δεν έχει εμποδίσει το ΚΚΚ να προμηθεύει όπλα ή να βοηθά τα εξοπλιστικά προγράμματα άλλων καθεστώτων και ομάδων που δεν περιορίζονται τόσο πολύ από άποψη φήμης, σημείωσαν άλλοι ειδικοί.

Για παράδειγμα, το ΚΚΚ θα μπορούσε να προμηθεύσει αυτόνομα όπλα σε τρομοκρατικές ομάδες προκειμένου να δεσμεύσει τον αμερικανικό στρατό με ατελείωτες ασύμμετρες συγκρούσεις. Το καθεστώς θα μπορούσε ακόμη και να κρατήσει τις αποστάσεις του προμηθεύοντας απλώς τα εξαρτήματα, αφήνοντας πληρεξούσιους να συναρμολογήσουν τα μη επανδρωμένα αεροσκάφη, όπως οι Κινέζοι προμηθευτές παρέχουν πρόδρομες ουσίες φαιντανύλης στα μεξικανικά καρτέλ και τα αφήνουν να κατασκευάζουν, να μεταφέρουν και να πωλούν τα ναρκωτικά.

Το ΚΚΚ έχει μακρά ιστορία στην παροχή βοήθειας στα ιρανικά εξοπλιστικά προγράμματα, ενώ το Ιράν με τη σειρά του προμηθεύει όπλα σε τρομοκρατικές ομάδες στην περιοχή.

«Θα υπήρχε μικρό αντικίνητρο για το Ιράν να το κάνει αυτό», δήλωσε ο Θέιερ.

 

Aνθρώπινη αλληλεπίδραση

Είναι γενικά αποδεκτό, τουλάχιστον στις Ηνωμένες Πολιτείες και μεταξύ των συμμάχων τους, ότι η πιο κρίσιμη δικλείδα ασφαλείας κατά της καταστροφής που προκαλούν τα όπλα τεχνητής νοημοσύνης είναι η διατήρηση ενός ανθρώπου στον έλεγχο των σημαντικών αποφάσεων, ιδίως της χρήσης θανατηφόρας βίας.

Ένας στρατιωτικός χειριστής εκτοξεύει ένα πολωνικό αναγνωριστικό μη επανδρωμένο αεροσκάφος κατά τη διάρκεια δοκιμαστικών πτήσεων στην περιοχή του Κιέβου στην Ουκρανία στις 2 Αυγούστου 2022. (Sergei Supinsky/AFP μέσω Getty Images)

 

«Σε καμία περίπτωση δεν θα πρέπει να επιτραπεί σε οποιαδήποτε μηχανή αυτόνομα, ανεξάρτητα, να αφαιρέσει μια ανθρώπινη ζωή – ποτέ», δήλωσε ο Ντε Ρίντερ.

Η αρχή αυτή αναφέρεται συνήθως με τη φράση «ανθρώπινη αλληλεπίδραση».

«Ο άνθρωπος έχει συνείδηση και πρέπει να ξυπνάει το πρωί με τύψεις και τις συνέπειες αυτού που έκανε, ώστε να μπορεί να μάθει από αυτό και να μην επαναλάβει φρικαλεότητες», δήλωσε ο Ντε Ρίντερ.

Ορισμένοι από τους εμπειρογνώμονες επεσήμαναν, ωστόσο, ότι η αρχή αυτή ήδη διαβρώνεται από τη φύση της μάχης που μετασχηματίζεται από τις δυνατότητες της τεχνητής νοημοσύνης.

Στον πόλεμο της Ουκρανίας, για παράδειγμα, ο ουκρανικός στρατός έπρεπε να εξοπλίσει τα μη επανδρωμένα αεροσκάφη του με κάποιο βαθμό αυτονομίας για να οδηγηθούν στους στόχους τους, επειδή η επικοινωνία τους με τους ανθρώπινους χειριστές παρεμποδίζονταν από τον ρωσικό στρατό.

Τέτοια μη επανδρωμένα αεροσκάφη λειτουργούν μόνο με απλούστερη τεχνητή νοημοσύνη, δήλωσε ο Μα, δεδομένης της περιορισμένης ισχύος του ενσωματωμένου υπολογιστή του μη επανδρωμένου αεροσκάφους. Αλλά αυτό μπορεί σύντομα να αλλάξει, καθώς τόσο τα μοντέλα τεχνητής νοημοσύνης όσο και οι υπολογιστές γίνονται ταχύτεροι και πιο αποτελεσματικοί.

Η Apple εργάζεται ήδη πάνω σε μια τεχνητή νοημοσύνη που θα μπορούσε να τρέχει σε ένα τηλέφωνο. «Είναι πολύ πιθανό στο μέλλον να τοποθετηθεί σε ένα μικρό τσιπ», είπε.

Ο Ντε Ρίντερ επεσήμανε ότι ένα μη επανδρωμένο αεροσκάφος που πυροβολεί ένα άλλο μη επανδρωμένο αεροσκάφος από μόνο του θα ήταν ηθικά αποδεκτό. Αλλά αυτό θα μπορούσε να εξαπολύσει πολλούς αυτόνομους πυροβολισμούς σε ένα πεδίο μάχης όπου μπορεί να υπάρχουν και άνθρωποι, ανοίγοντας την πόρτα σε ανυπολόγιστες παράπλευρες απώλειες.

Στρατιωτικά μη επανδρωμένα αεροσκάφη της Νότιας Κορέας πετούν σε σχηματισμό κατά τη διάρκεια κοινής στρατιωτικής άσκησης των ΗΠΑ και της Νότιας Κορέας στο πεδίο εκπαίδευσης Seungjin Fire στο Pocheon της Νότιας Κορέας, στις 25 Μαΐου 2023. (Yelim Lee/AFP μέσω Getty Images)

 

Χωρίς κανόνες

Όποιες διασφαλίσεις για την τεχνητή νοημοσύνη μπορεί να είναι εφικτές, το ΚΚΚ είναι απίθανο να τις τηρήσει ούτως ή άλλως, συμφώνησαν οι περισσότεροι από τους εμπειρογνώμονες.

«Δεν βλέπω πραγματικά ότι θα υπάρξουν οποιαδήποτε πλαίσια για την Κίνα που θα πρέπει να είναι προσεκτική», δήλωσε ο Μα. «Ό,τι είναι εφικτό, θα το κάνουν».

«Η ιδέα ότι η Κίνα θα περιοριστεί στη χρήση του είναι κάτι που δεν βλέπω να γίνεται», δήλωσε ο Τζέιμς Φέινελ (James Fanell). «Θα προσπαθήσουν να το εκμεταλλευτούν και να είναι σε θέση να το εκμεταλλευτούν ταχύτερα από ό,τι εμείς».

Η αρχή της «ανθρώπινης αλληλεπίδρασης» θα μπορούσε απλώς να επανερμηνευτεί ώστε να ισχύει για «ένα μεγαλύτερο, ολόκληρο επίπεδο μάχης» αντί για «το ατομικό επίπεδο βολής», δήλωσε ο Μα.

Αλλά μόλις κάποιος αποδεχτεί ότι η τεχνητή νοημοσύνη μπορεί να αρχίσει να «πυροβολεί» μόνη της σε ορισμένες περιπτώσεις, η αρχή του ανθρώπινου ελέγχου γίνεται εύπλαστη, δήλωσε ο Φέινελ.

«Αν είστε πρόθυμοι να το αποδεχτείτε αυτό σε τακτικό επίπεδο, ποιος μπορεί να πει ότι δεν θα το πάτε μέχρι το ανώτατο επίπεδο του πολέμου;», είπε.

«Είναι η φυσική εξέλιξη μιας τέτοιας τεχνολογίας και δεν είμαι σίγουρος τι μπορούμε να κάνουμε για να τη σταματήσουμε. Δεν είναι σαν να πρόκειται να έχετε έναν κώδικα δεοντολογίας που να λέει στον πόλεμο, [ας τηρούμε] τους κανόνες του Μαρκήσιου του Κουίνσμπερυ για την πυγμαχία. Αυτό δεν πρόκειται να συμβεί».

Ακόμη και αν οι άνθρωποι διατηρούν τον έλεγχο των μακροσκοπικών αποφάσεων, όπως το αν θα ξεκινήσει μια συγκεκριμένη αποστολή, η τεχνητή νοημοσύνη μπορεί εύκολα να κυριαρχήσει στη διαδικασία λήψης αποφάσεων. Ο κίνδυνος δεν θα ήταν μια τεχνητή νοημοσύνη με κακές επιδόσεις, αλλά μάλλον μια τεχνητή νοημοσύνη που λειτουργεί τόσο καλά ώστε να εμπνέει εμπιστοσύνη στους ανθρώπινους χειριστές.

Ο Ντε Ρίντερ αντιμετώπισε με σκεπτικισμό τις προβλέψεις για την υπερ-ευφυή τεχνητή νοημοσύνη (superintelligent A.I.) που ξεπερνά κατά πολύ τις ανθρώπινες ικανότητες. Ωστόσο, αναγνώρισε ότι η τεχνητή νοημοσύνη ξεπερνά τον άνθρωπο σε ορισμένα σημεία, ιδίως στην ταχύτητα- μπορεί να επεξεργαστεί βουνά δεδομένων και να βγάλει συμπέρασμα σχεδόν αμέσως.

Και είναι πρακτικά αδύνατο να καταλάβουμε πώς ακριβώς μια τεχνητή νοημοσύνη καταλήγει στα συμπεράσματά της, σύμφωνα με τους Μα και Τσιου.

Ο Ντε Ρίντερ δήλωσε ότι ο ίδιος και άλλοι εργάζονται πάνω σε τρόπους περιορισμού της τεχνητής νοημοσύνης σε μια ροή εργασίας που μοιάζει με την ανθρώπινη, έτσι ώστε τα επιμέρους βήματα της συλλογιστικής της να είναι πιο ευδιάκριτα.

Αλλά δεδομένου του απίστευτου όγκου των δεδομένων που εμπλέκονται, θα ήταν αδύνατο για την τεχνητή νοημοσύνη να εξηγήσει πώς κάθε πληροφορία λαμβάνεται υπόψη στη συλλογιστική της χωρίς να καταβάλει τον χειριστή, δήλωσε ο Μα.

«Εάν ο ανθρώπινος χειριστής γνωρίζει σαφώς ότι αυτή είναι μια απόφαση [που παράγεται] αφού η τεχνητή νοημοσύνη επεξεργάστηκε τεράστιους όγκους δεδομένων, δεν θα έχει πραγματικά το θάρρος να την ανατρέψει στις περισσότερες περιπτώσεις. Οπότε υποθέτω, ναι, θα είναι τυπική διαδικασία», δήλωσε.

«Η ‘ανθρώπινη αλληλεπίδραση’ είναι ένα άνετο είδος φράσης, αλλά στην πραγματικότητα, οι άνθρωποι θα εγκαταλείψουν γρήγορα τον έλεγχο».

Ένας στρατιωτικός χειριστής εργάζεται επί του αεροσκάφους περιπολίας Atlantique 2 του γαλλικού πολεμικού ναυτικού σε αποστολή πάνω από τη Βαλτική Θάλασσα στις 16 Ιουνίου 2022. (Fred Tanneau/AFP μέσω Getty Images)

 

Δημόσια πίεση

Όλοι οι εμπειρογνώμονες συμφώνησαν ότι η δημόσια πίεση είναι πιθανό να περιορίσει την ανάπτυξη και τη χρήση όπλων τεχνητής νοημοσύνης, τουλάχιστον στις Ηνωμένες Πολιτείες.

Ο Μα ανέφερε το παράδειγμα της Google που τερμάτισε ένα αμυντικό συμβόλαιο λόγω των αντιρρήσεων του προσωπικού της. Ωστόσο, δεν μπορούσε να φανταστεί μια ανάλογη κατάσταση στην Κίνα.

Ο Τσιου συμφώνησε. «Οτιδήποτε εντός της Κίνας είναι ένας πόρος που το ΚΚΚ μπορεί να αξιοποιήσει», είπε. «Δεν μπορείτε να πείτε, ‘Ω, αυτή είναι μια ιδιωτική εταιρεία’. Δεν υπάρχει ιδιωτική εταιρεία αυτή καθαυτή [στην Κίνα]».

Ακόμη και το ΚΚΚ δεν μπορεί να απαλλαγεί εντελώς από το δημόσιο αίσθημα, δήλωσε ο Ντε Ρίντερ.

«Η κυβέρνηση μπορεί να επιβιώσει μόνο αν ο πληθυσμός θέλει να συνεργαστεί», είπε.

Αλλά δεν υπάρχει καμία ένδειξη ότι ο κινεζικός πληθυσμός βλέπει τη στρατιωτική χρήση της τεχνητής νοημοσύνης ως επείγουσα ανησυχία. Αντιθέτως, οι εταιρείες και τα πανεπιστήμια στην Κίνα φαίνεται να είναι πρόθυμα να αναλάβουν στρατιωτικά συμβόλαια, δήλωσε ο Μα.

Ο Ντε Ρίντερ ζήτησε «ένα διεθνές ρυθμιστικό πλαίσιο που να μπορεί να επιβληθεί».

Δεν είναι σαφές πώς θα μπορούσαν να επιβληθούν τέτοιοι κανονισμοί έναντι της Κίνας, η οποία έχει μακρά ιστορία άρνησης οποιουδήποτε περιορισμού στη στρατιωτική της ανάπτυξη. Οι Ηνωμένες Πολιτείες προσπαθούν εδώ και καιρό μάταια να φέρουν την Κίνα στο τραπέζι των διαπραγματεύσεων για τον πυρηνικό αφοπλισμό. Πρόσφατα, η Κίνα αρνήθηκε ένα αίτημα των ΗΠΑ να εγγυηθεί ότι δεν θα χρησιμοποιήσει την τεχνητή νοημοσύνη για τη λήψη αποφάσεων σχετικά με πυρηνικά πλήγματα.

Εάν οι Ηνωμένες Πολιτείες ρυθμίσουν τη δική τους ανάπτυξη της τεχνητής νοημοσύνης, θα μπορούσε να δημιουργήσει μια στρατηγική ευπάθεια, πρότειναν πολλοί εμπειρογνώμονες.

«Αυτοί οι κανονισμοί θα μελετηθούν πολύ καλά από το ΚΚΚ και θα χρησιμοποιηθούν ως εργαλείο επίθεσης», δήλωσε ο Τσιου.

Ακόμη και αν επιτευχθεί κάποια συμφωνία, το ΚΚΚ έχει κακό ιστορικό τήρησης των υποσχέσεων, σύμφωνα με τον Θέιερ.

«Οποιαδήποτε συμφωνία είναι μια κρούστα πίτας φτιαγμένη για να σπάσει», είπε.

Κινέζοι στρατιωτικοί αντιπρόσωποι φθάνουν στην τελευταία συνεδρίαση του 14ου Εθνικού Λαϊκού Κογκρέσου στη Μεγάλη Αίθουσα του Λαού στο Πεκίνο στις 11 Μαρτίου 2024. (Wang Zhao/AFP μέσω Getty Images)

 

Λύσεις

Ο Ντε Ρίντερ δήλωσε ότι ελπίζει ότι ίσως τα έθνη θα συμβιβαστούν με τη χρήση της τεχνητής νοημοσύνης με λιγότερο καταστροφικούς τρόπους.

«Υπάρχουν πολλοί τρόποι με τους οποίους μπορείς να χρησιμοποιήσεις την τεχνητή νοημοσύνη για να πετύχεις τους στόχους σου, οι οποίοι δεν περιλαμβάνουν την αποστολή ενός σμήνους μη επανδρωμένων αεροσκαφών-φονιάδων ο ένας στον άλλον», είπε. «Όταν έρθει η ώρα, κανείς δεν θέλει να συμβούν αυτές οι συγκρούσεις.»

Άλλοι εμπειρογνώμονες δήλωσαν ότι το ΚΚΚ δεν θα είχε πρόβλημα να ξεκινήσει μια τέτοια σύγκρουση – αρκεί να έβλεπε μια σαφή πορεία προς τη νίκη.

«Οι Κινέζοι δεν πρόκειται να περιοριστούν από τους δικούς μας κανόνες», δήλωσε ο Φέινελ. «Θα κάνουν ό,τι χρειάζεται για να κερδίσουν.»

Η εμπιστοσύνη στους «ψιθύρους» ενός «στρατιωτικού συμβούλου» τεχνητής νοημοσύνης, ο οποίος εμπνέει εμπιστοσύνη επεξεργαζόμενος «βουνά» δεδομένων και παράγοντας πειστικά σχέδια μάχης, θα μπορούσε να είναι ιδιαίτερα επικίνδυνη, καθώς μπορεί να δημιουργήσει ένα όραμα νίκης εκεί που προηγουμένως δεν υπήρχε, σύμφωνα με τον Θέιερ.

«Μπορείτε να καταλάβετε πώς αυτό μπορεί να είναι πολύ ελκυστικό για έναν υπεύθυνο λήψης αποφάσεων, ειδικά για κάποιον που είναι υπερ-επιθετικός, όπως είναι το ΚΚΚ», δήλωσε ο Θέιερ. «Μπορεί να κάνει την επιθετικότητα πιο πιθανή.»

«Υπάρχει μόνο ένας τρόπος να το σταματήσουμε, ο οποίος είναι να είμαστε σε θέση να το νικήσουμε», δήλωσε ο Φέινελ.

Ο Τσακ ντι Κάρο (Chuck de Caro), πρώην σύμβουλος του Γραφείου Αξιολόγησης Δικτύου του Πενταγώνου, κάλεσε πρόσφατα τις Ηνωμένες Πολιτείες να αναπτύξουν ηλεκτρομαγνητικά όπλα που θα μπορούσαν να αχρηστεύσουν τα τσιπ υπολογιστών. Μπορεί ακόμη και να είναι δυνατή η ανάπτυξη ενεργειακών όπλων που θα μπορούσαν να απενεργοποιήσουν ένα συγκεκριμένο είδος τσιπ, έγραψε σε ένα άρθρο του στο Blaze Media.

«Προφανώς, χωρίς λειτουργικά τσιπ, η τεχνητή νοημοσύνη δεν λειτουργεί», έγραψε.

Ένα τσιπ τεχνητής νοημοσύνης που κατασκευάστηκε από την Tongfu Microelectronics παρουσιάζεται κατά τη διάρκεια του Παγκόσμιου Συνεδρίου Ημιαγωγών στο Nanjing της Κίνας, στις 19 Ιουλίου 2023. (STR/AFP μέσω Getty Images)

 

Μια άλλη επιλογή θα μπορούσε να είναι η ανάπτυξη ενός υπερόπλου τεχνητής νοημοσύνης που θα μπορούσε να λειτουργήσει αποτρεπτικά.

«Υπάρχει ένα AI Manhattan Project που κάνουν οι ΗΠΑ που μπορεί να δημιουργήσει το αποτέλεσμα που θα είχαν το Ναγκασάκι και η Χιροσίμα στη ΛΔΚ και το Κομμουνιστικό Κόμμα της Κίνας, που θα τους έφερνε στη συνειδητοποίηση ότι ‘Εντάξει, ίσως δεν θέλουμε να πάμε εκεί. Πρόκειται για αμοιβαία εξασφαλισμένη καταστροφή;’ Δεν ξέρω. Αλλά αυτό θα [έκανα]», δήλωσε ο Φέινελ.

Αυτό θα μπορούσε να αφήσει τον κόσμο σε μια αντιπαράθεση που μοιάζει με τον Ψυχρό Πόλεμο – δύσκολα μια ιδανική κατάσταση, αλλά πιθανόν να θεωρείται προτιμότερη από την παραίτηση από το στρατιωτικό πλεονέκτημα υπέρ του ΚΚΚ.

«Κάθε χώρα γνωρίζει ότι είναι επικίνδυνο, αλλά κανείς δεν μπορεί να σταματήσει επειδή φοβάται ότι θα μείνει πίσω», δήλωσε ο Μα.

Ο Ντε Ρίντερ δήλωσε ότι ίσως χρειαστεί ένα βαθύ σοκ για να σταματήσει η κούρσα εξοπλισμών της τεχνητής νοημοσύνης.

«Ίσως χρειαστεί κάτι σαν παγκόσμιος πόλεμος, με τεράστια ανθρώπινη τραγωδία, για να απαγορευτεί η χρήση αυτόνομων μηχανών-φονιάδων με τεχνητή νοημοσύνη», είπε.

Πως μπορείτε να μας βοηθήσετε ώστε να συνεχίσουμε να σας κρατάμε ενημερωμένους

Ποιος είναι ο λόγος που χρειαζόμαστε την βοήθειά σας για την χρηματοδότηση του ερευνητικού ρεπορτάζ μας; Επειδή είμαστε ένας ανεξάρτητος οργανισμός ειδήσεων που δεν επηρεάζεται από καμία κυβέρνηση, εταιρεία ή πολιτικό κόμμα. Από την ημέρα που ξεκινήσαμε, έχουμε έρθει αντιμέτωποι με προσπάθειες αποσιώπησης της αλήθειας κυρίως από το Κινεζικό Κομμουνιστικό Κόμμα. Αλλά δεν θα λυγίσουμε. Η ελληνική έκδοση της Epoch Times βασίζεται ολοκληρωτικά στις γενναιόδωρες συνεισφορές σας για να διατηρήσει την παραδοσιακή δημοσιογραφία ζωντανή και υγιή στην Ελληνική γλώσσα. Μαζί, μπορούμε να συνεχίσουμε να διαδίδουμε την αλήθεια.

ΣΧΕΤΙΚΑ

Σχολιάστε