Παρασκευή, 14 Μαρ, 2025

«Ethical AI» η νέα τεχνολογία που προωθεί την καλοσύνη και τον αμοιβαίο σεβασμό

Σε μια πρωτοβουλία που στοχεύει στη δημιουργία ενός ασφαλέστερου διαδικτυακού περιβάλλοντος, η πλατφόρμα Gan Jing World (GJW) ανακοίνωσε την έναρξη της νέας τεχνολογίας Ethical AI που εφαρμόζεται στην ψηφιακή της πλατφόρμα.

Η εταιρεία δήλωσε ότι η καινοτόμος προσέγγισή της επικεντρώνεται στην ευημερία των χρηστών, αξιοποιώντας την τεχνολογία της για την προώθηση της καλοσύνης, του σεβασμού και της εμπιστοσύνης μεταξύ των χρηστών.

Η ανακοίνωση έρχεται σε μια περίοδο που αυξάνονται οι ανησυχίες για τον εθισμό στο διαδίκτυο, την ψυχική υγεία των παιδιών και το επιβλαβές περιεχόμενο.

«Στο Gan Jing World, πιστεύουμε ότι η τεχνολογία πρέπει να εξυπηρετεί τους ανθρώπους—όχι να τους ελέγχει», ανέφερε η εταιρεία.

Η λειτουργία του Ethical AI

Το Ethical AI του GJW περιλαμβάνει προηγμένα μοντέλα βαθιάς μάθησης, σχεδιασμένα να ανιχνεύουν και να φιλτράρουν ακατάλληλο περιεχόμενο σε διάφορες μορφές μέσων, όπως βίντεο, εικόνες, κείμενο και ήχο.

Η τεχνολογία στοχεύει στην προώθηση περιεχομένου που ενισχύει την καλοσύνη και την ψυχική ευημερία, ενώ ταυτόχρονα αποτρέπει το διαδικτυακό εκφοβισμό.

Το σύστημα Ethical AI περιλαμβάνει τρεις βασικές μονάδες ανάλυσης περιεχομένου:

  • Αξιολόγηση ποιότητας βίντεο: Εξετάζει την ποιότητα και την αισθητική των βίντεο και των φωτογραφιών, βαθμολογώντας τα από μηδέν έως πέντε για την καταλληλότητά τους.
  • Ανίχνευση ακατάλληλου περιεχομένου: Με ακρίβεια άνω του 90%, εντοπίζει ακατάλληλο περιεχόμενο σε φωτογραφίες και καρέ βίντεο, εστιάζοντας σε τέσσερις βασικούς τομείς: «σεξουαλικού περιεχομένου», «επικίνδυνων ουσιών», «βίας» και «τρόμου».
  • Ανάλυση κειμένου: Αναλύει μη δομημένο κείμενο για να εντοπίσει τον τόνο, το συναίσθημα και τις αναφορές σε πραγματικά γεγονότα. Υποστηρίζει πολλές γλώσσες και μπορεί να φιλτράρει ακατάλληλη γλώσσα για ανήλικους χρήστες.

Σύμφωνα με την ανακοίνωση της εταιρείας, η ανάλυση κειμένου μπορεί να εντοπίσει συναισθήματα μέσα στο περιεχόμενο. Για παράδειγμα, το σύστημα αναγνώρισε στοιχεία θλίψης στο τραγούδι «Τζιμ Ριβς – There’s a Heartache Following Me».

«Η δημιουργία ενός ασφαλούς ψηφιακού περιβάλλοντος, ειδικά για τη νέα γενιά, βρίσκεται στον πυρήνα του Gan Jing World», δήλωσε η εταιρεία.

Η τεχνολογία και τα μοντέλα AI της GJW έχουν σχεδιαστεί για να δημιουργήσουν μια «πραγματικά θετική, ζωντανή ψηφιακή κοινότητα, γεμάτη υγιές περιεχόμενο, απαλλαγμένη από αδικαιολόγητη βία, έγκλημα και επιβλαβή συμπεριφορά».

Mια πλατφόρμα streaming με επίκεντρο την οικογένεια

Στις αρχές του περασμένου έτους, το GJW λάνσαρε το GJW+, μια πλατφόρμα streaming που προσφέρει ψυχαγωγικό περιεχόμενο για όλες τις ηλικίες, συμπεριλαμβανομένων πρωτότυπων και αδειοδοτημένων προγραμμάτων.

Σύμφωνα με τον ιστότοπο της εταιρείας, η υπηρεσία διακρίνεται για τη δέσμευσή της να επιλέγει περιεχόμενο με γνώμονα τις παραδοσιακές αξίες, προσελκύοντας οικογένειες και θεατές όλων των ηλικιών.

Το όνομα της πλατφόρμας, Gan Jing, που σημαίνει «καθαρό» στα κινέζικα, αντανακλά τη δέσμευση της εταιρείας να προσφέρει περιεχόμενο «ελεύθερο από αχρείαστη βία, σεξ, έγκλημα και επιβλαβή συμπεριφορά».

Όμως η αποστολή του GJW δεν περιορίζεται μόνο στην επιλογή περιεχομένου.

Η εταιρεία ανέφερε ότι η πλατφόρμα στοχεύει να «επανασυνδέσει τους χρήστες με την ηθική και τις παραδόσεις» και να «αναζωογονήσει τις παραδοσιακές αξίες μέσω της τεχνολογίας, προωθώντας μια κουλτούρα φροντίδας, καλοσύνης, αμοιβαίου σεβασμού και εμπιστοσύνης μεταξύ των ατόμων, μέσα στις οικογένειες και στην κοινωνία».

Προστασία από τον εθισμό και την παρακολούθηση

Ένα από τα βασικά χαρακτηριστικά του GJW είναι ο μη εθιστικός αλγόριθμός της, ο οποίος έχει σχεδιαστεί για να αποτρέπει την ατελείωτη κύλιση και τον εθισμό. Αντίθετα, η πλατφόρμα δίνει προτεραιότητα σε πολύτιμες πληροφορίες και εμπνευσμένο περιεχόμενο για να προάγει τη δημιουργική και ουσιαστική αλληλεπίδραση.

Το GJW δίνει επίσης ιδιαίτερη έμφαση στην προστασία της ιδιωτικότητας και των δεδομένων των χρηστών.

Σύμφωνα με τον ιστότοπο της εταιρείας, το GJW δεσμεύεται να μην καταγράφει ούτε να πουλά τα δεδομένα των χρηστών της, όπως προτιμήσεις, αγορές, σχέσεις και τοποθεσία. Η πλατφόρμα διατηρεί ένα ιδιωτικό κέντρο δεδομένων για να εξασφαλίσει την τεχνική της αυτονομία και να προστατεύσει τις πληροφορίες των χρηστών από εξωτερικές απειλές.

Για την ενίσχυση της αλληλεπίδρασης μεταξύ των χρηστών, το GJW παρέχει εργαλεία δημιουργίας περιεχομένου, hashtag events, livestreams, δημοσκοπήσεις και θεματικές συζητήσεις.

Η πλατφόρμα στοχεύει να δώσει δύναμη στους δημιουργούς περιεχομένου, όπως vloggers, κινηματογραφιστές, συγγραφείς, καλλιτέχνες και αφηγητές, ώστε να αναδείξουν το ταλέντο τους και να συνδεθούν με το κοινό τους.

Πηγή: NTD News

Τεχνητή νοημοσύνη και κλοπή ταυτότητας- Συμβουλές από την ESET

Η απάτη που βασίζεται στην τεχνητή νοημοσύνη αντιπροσωπεύει πλέον πάνω από το 43% όλων των προσπαθειών απάτης που καταγράφονται στον χρηματοπιστωτικό τομέα, ενώ σχεδόν το 29% αυτών των προσπαθειών αποδεικνύονται επιτυχείς. Τα παραπάνω προκύπτουν από εκτιμήσεις τις οποίες παρουσιάζει η εταιρεία ασφάλειας πληροφοριακών συστημάτων ESET.

H τεχνητή νοημοσύνη χρησιμοποιείται από κυβερνοεγκληματίες, ιδιαίτερα σε περιπτώσεις κλοπής ταυτότητας – του πιο διαδεδομένου τύπου απάτης σήμερα. Περισσότερο από το ένα τρίτο των τραπεζικών στελεχών στο Ηνωμένο Βασίλειο, την Ισπανία και τις Ηνωμένες Πολιτείες δηλώνουν ότι η μεγαλύτερη πρόκληση που αντιμετωπίζουν σήμερα είναι η άνοδος της απάτης που βασίζεται στην τεχνητή νοημοσύνη και στα deepfake.

Η απάτη κλοπής ταυτότητας συμβαίνει όταν οι προσωπικές σας πληροφορίες (PII) χρησιμοποιούνται για παράνομες δραστηριότητες, όπως συναλλαγές με πιστωτικές κάρτες ή πρόσβαση σε τραπεζικούς και άλλους λογαριασμούς.

Υπάρχουν διάφορες τακτικές στην κατεύθυνση αυτή:

– Καταλήψεις λογαριασμών μέσω deepfake και δημιουργία νέων λογαριασμών: Οι απατεώνες αξιοποιούν ψεύτικα αρχεία ήχου και βίντεο για να παρακάμψουν τους ελέγχους που χρησιμοποιούν οι χρηματοπιστωτικές εταιρείες για την επαλήθευση της ταυτότητας των πελατών τους. Μια φωτογραφία ή ένα βίντεο που έχει αναρτηθεί στο διαδίκτυο μπορεί να εισαχθεί σε μια εφαρμογή δημιουργίας deepfake ή γενετικής τεχνητής νοημοσύνης. Στη συνέχεια, χρησιμοποιείται σε επιθέσεις τύπου “injection”, σχεδιασμένες να παραπλανήσουν τα συστήματα ταυτοποίησης των χρηματοπιστωτικών υπηρεσιών. Σύμφωνα με έκθεση, τα deepfakes ευθύνονται πλέον για το 24% των ψευδών προσπαθειών να ξεπεράσουν βιομετρικούς ελέγχους που βασίζονται στην κίνηση και το 5% των στατικών ελέγχων που βασίζονται σε φωτογραφίες selfie.

– Πλαστογράφηση εγγράφων: Πιο παλιά, οι απατεώνες χρησιμοποιούσαν πλαστά διαβατήρια για να ανοίγουν νέους λογαριασμούς στο όνομα ανυποψίαστων θυμάτων. Σήμερα, ωστόσο, αυτή η διαδικασία έχει γίνει πολύ πιο εύκολη με τη χρήση της τεχνολογίας. Σύμφωνα με έκθεση, η ψηφιακή πλαστογράφηση αντιπροσωπεύει πάνω από το 57% του συνόλου των απατών με έγγραφα, με μια ετήσια αύξηση της τάξης του 244%. Οι απατεώνες έχουν συνήθως πρόσβαση σε πρότυπα εγγράφων στο διαδίκτυο ή κατεβάζουν εικόνες εγγράφων που έχουν κλαπεί μέσω παραβιάσεων δεδομένων. Στη συνέχεια, τροποποιούν τις λεπτομέρειες χρησιμοποιώντας εργαλεία όπως το Photoshop. Τα εργαλεία δημιουργικής τεχνητής νοημοσύνης (GenAI) τους επιτρέπουν να το κάνουν αυτό με ταχύτητα και σε μεγάλη κλίμακα.

– Συνθετική απάτη: Οι απατεώνες είτε δημιουργούν νέες ταυτότητες συνδυάζοντας πραγματικά (κλεμμένα) και επινοημένα προσωπικά στοιχεία για να σχηματίσουν μια εντελώς νέα ταυτότητα, είτε χρησιμοποιούν αποκλειστικά κατασκευασμένα στοιχεία. Αυτές οι ταυτότητες χρησιμοποιούνται στη συνέχεια για το άνοιγμα νέων λογαριασμών σε τράπεζες και εταιρείες πιστωτικών καρτών. Οι πλαστογραφίες εγγράφων και τα deepfake μπορούν να συνδυαστούν με αυτές τις ταυτότητες, αυξάνοντας τις πιθανότητες επιτυχίας των απατεώνων. Σύμφωνα με μια έκθεση, το 76% των επαγγελματιών διαχείρισης κινδύνου και απάτης στις ΗΠΑ πιστεύει ότι η εταιρεία τους έχει συνθετικούς πελάτες. Εκτιμούν, επίσης, ότι αυτός ο τύπος απάτης έχει αυξηθεί κατά 17% ετησίως.

– Deepfake που ξεγελούν φίλους και οικογένεια: Μερικές φορές, ψεύτικα βίντεο ή ήχοι μπορούν να χρησιμοποιηθούν σε απάτες που εξαπατούν ακόμα και κοντινά πρόσωπα. Μια συνηθισμένη τακτική είναι η εικονική απαγωγή, όπου συγγενείς λαμβάνουν ένα τηλεφώνημα από έναν δράστη που ισχυρίζεται ότι σας έχει απαγάγει. Παίζουν έναν deepfake ηχητικό αρχείο της φωνής σας ως «απόδειξη» και στη συνέχεια ζητούν λύτρα. Το GenAI, εκτός από τη δημιουργία των ψεύτικων αρχείων, μπορεί να χρησιμοποιηθεί και για να βοηθήσει τους απατεώνες να εντοπίσουν πιθανά θύματα.

– Συμπλήρωση διαπιστευτηρίων: Η συμπλήρωση διαπιστευτηρίων περιλαμβάνει τη χρήση κλεμμένων συνδυασμών ονόματος χρήστη και κωδικού πρόσβασης σε αυτοματοποιημένες προσπάθειες πρόσβασης σε άλλους λογαριασμούς, όπου ενδεχομένως έχουν χρησιμοποιηθεί τα ίδια διαπιστευτήρια. Εργαλεία τεχνητής νοημοσύνης μπορούν να δημιουργήσουν γρήγορα λίστες με τέτοια διαπιστευτήρια από πολλαπλές πηγές δεδομένων, συμβάλλοντας στην κλιμάκωση των επιθέσεων. Επιπλέον, μπορούν να χρησιμοποιηθούν για την ακριβή μίμηση της ανθρώπινης συμπεριφοράς κατά τη διαδικασία σύνδεσης, ώστε να παρακάμψουν τα συστήματα προστασίας.

Για να αντιμετωπίσουν τη χρήση της τεχνητής νοημοσύνης σε επιθέσεις εναντίον τους, οι εταιρείες στρέφονται όλο και περισσότερο σε αμυντικά εργαλεία τεχνητής νοημοσύνης. Αυτά τα εργαλεία βοηθούν στον εντοπισμό προειδοποιητικών σημείων απάτης, ενισχύοντας την ασφάλεια των δεδομένων τους.

Οι συμβουλές της ESET προς το κοινό προκειμένου να προλάβει τέτοιες απειλές είναι:

– Περιορίστε τις πληροφορίες που μοιράζεστε στα μέσα κοινωνικής δικτύωσης και προσαρμόστε τις ρυθμίσεις απορρήτου για μεγαλύτερη ασφάλεια.

– Να είστε προσεκτικοί με το phishing: ελέγχετε πάντα τα στοιχεία των αποστολέων, αναζητάτε τυπογραφικά και γραμματικά λάθη και μην ανοίγετε συνδέσμους ή συνημμένα από ανεπιθύμητα μηνύματα ηλεκτρονικού ταχυδρομείου.

– Ενεργοποιήστε τον έλεγχο ταυτότητας πολλαπλών παραγόντων (MFA) σε όλους τους λογαριασμούς σας.

– Χρησιμοποιείτε ισχυρούς, μοναδικούς κωδικούς πρόσβασης και αποθηκεύστε τους με ασφάλεια σε έναν διαχειριστή κωδικών.

– Διατηρείτε ενημερωμένο το λογισμικό σε όλες τις συσκευές σας, συμπεριλαμβανομένων φορητών υπολογιστών και κινητών τηλεφώνων.

– Παρακολουθείτε στενά τους τραπεζικούς και πιστωτικούς λογαριασμούς σας, ελέγχοντας τακτικά για ύποπτες συναλλαγές, και κλειδώστε άμεσα τον λογαριασμό σας εάν παρατηρήσετε κάτι ύποπτο.

– Εγκαταστήστε πολυεπίπεδο λογισμικό ασφαλείας από αξιόπιστο προμηθευτή σε όλες τις συσκευές σας.

– Είναι σημαντικό να ενημερώνεστε για τις τελευταίες τακτικές απάτης με τεχνητή νοημοσύνη και να εκπαιδεύετε τους φίλους και την οικογένειά σας σχετικά με τις απάτες deepfake και άλλες τεχνικές εξαπάτησης που αξιοποιούν την τεχνητή νοημοσύνη.

Τεχνητή νοημοσύνη και επιστήμονες ενώνουν δυνάμεις για την αποκρυπτογράφηση αρχαίων παπύρων

ΛΟΝΔΙΝΟ – Επιστήμονες ελπίζουν ότι ένας συνδυασμός τεχνητής νοημοσύνης και ανθρώπινης εμπειρογνωμοσύνης θα βοηθήσει στην αποκρυπτογράφηση αρχαίων παπύρων που απανθρακώθηκαν λόγω ηφαιστειακής έκρηξης πριν από 2.000 χρόνια.

Πρόκειται για εκατοντάδες παπύρους που ανακαλύφθηκαν τη δεκαετία του 1750 στα ερείπια μίας πολυτελούς έπαυλης στην αρχαία ρωμαϊκή πόλη Ηράκλειο (Herculaneum), η οποία καταστράφηκε, όπως και η Πομπηία, από την έκρηξη του Βεζούβιου, το 79 μ.Χ.

Η βιβλιοθήκη της λεγόμενης Έπαυλης των Παπύρων θα μπορούσε να αυξήσει σημαντικά τις γνώσεις μας για την αρχαία σκέψη, εάν οι πάπυροι — οι οποίοι έχουν τυλιχθεί σε ρολά μεγέθους μιας μικρής σοκολάτας — καταστούν αναγνώσιμοι.

Η θερμότητα και η ηφαιστειακή τέφρα από τον Βεζούβιο κατέστρεψαν μεν την πόλη, αλλά ταυτόχρονα διατήρησαν τους παπύρους σε μια κατάσταση όπου είναι αδύνατο να ξετυλιχθούν χωρίς να αποσαθρωθούν.

Εδώ και περισσότερα από 250 χρόνια, μελετητές και επιστήμονες αναζητούν τρόπους αποκρυπτογράφησης των παπύρων, η πλειονότητα των οποίων φυλάσσεται στη Εθνική Βιβλιοθήκη της Νάπολης.

Το 2023, επιχειρηματίες χρηματοδότησαν τον διαγωνισμό «Vesuvius Challenge», προσφέροντας χρηματικά έπαθλα για την αποκρυπτογράφηση των παπύρων μέσω μηχανικής μάθησης, υπολογιστικής όρασης και γεωμετρίας.

Την Τετάρτη, οι διοργανωτές του διαγωνισμού ανακοίνωσαν «ιστορική πρόοδο», αποκαλύπτοντας ότι ερευνητές κατάφεραν να δημιουργήσουν την πρώτη εικόνα του εσωτερικού ενός εκ των τριών παπύρων που φυλάσσονται στη Βιβλιοθήκη Bodleian του Πανεπιστημίου της Οξφόρδης.

Ο Μπρεντ Σιλς, καθηγητής πληροφορικής στο Πανεπιστήμιο του Κεντάκι και συνιδρυτής του «Vesuvius Challenge», δήλωσε ότι οι διοργανωτές είναι «ενθουσιασμένοι με την επιτυχή απεικόνιση αυτού του παπύρου». Όπως σημείωσε, «περιέχει περισσότερο ανακτήσιμο κείμενο από ό,τι έχουμε δει ποτέ σε σαρωμένο πάπυρο από το Ηράκλειο».

Η σάρωση του παπύρου πραγματοποιήθηκε από το Diamond Light Source, ένα ερευνητικό εργαστήριο στο Χάργουελ, κοντά στην Οξφόρδη, το οποίο χρησιμοποιεί έναν επιταχυντή σωματιδίων, γνωστόν ως σύγχροτρο, για τη δημιουργία εξαιρετικά ισχυρών ακτίνων Χ.

Στη συνέχεια, οι επιστήμονες χρησιμοποίησαν τεχνητή νοημοσύνη για να συνθέσουν τις εικόνες, να εντοπίσουν το μελάνι που αποκαλύπτει την ύπαρξη κειμένου και να βελτιώσουν την ευκρίνεια των γραμμάτων. Η διαδικασία αυτή οδήγησε στη δημιουργία τρισδιάστατης εικόνας του παπύρου, επιτρέποντας στους ειδικούς να τον «ξετυλίξουν» ψηφιακά μέσω μιας μεθόδου που ονομάζεται τμηματοποίηση.

Ωστόσο, η τεχνητή νοημοσύνη έχει ακόμη περιορισμούς. Μέχρι στιγμής, έχει αποκρυπτογραφηθεί μόνο ένα μικρό μέρος του κειμένου. Οι ερευνητές καλούν περισσότερους μελετητές να συμμετάσχουν στην προσπάθεια ολοκλήρωσης της ανάγνωσης του κειμένου.

«Βρισκόμαστε ακόμα στην αρχή μιας μακράς διαδικασίας», δήλωσε ο Πήτερ Τοτ, επιμελητής ελληνικών συλλογών στη Βιβλιοθήκη Bodleian. «Χρειαζόμαστε καλύτερες εικόνες -αλλά η ομάδα πιστεύει ότι θα μπορέσει να βελτιώσει την ποιότητα της εικόνας και την αναγνωσιμότητα του κειμένου».

Ο Τοτ εξέφρασε επίσης την ελπίδα ότι η τεχνολογία θα καταστεί διαθέσιμη σε τοπικό επίπεδο, ώστε να μην χρειαστεί να μεταφερθούν οι άλλοι δύο εύθραυστοι πάπυροι στις εγκαταστάσεις του Diamond.

«Ίσως υπάρξει κάποια άλλη λύση», ανέφερε προσθέτοντας: «Μην ξεχνάτε ότι υπάρχουν περίπου 1.000 ακόμη πάπυροι στη Νάπολη».

Των Jill Lawless και Pan Pylas

Ο καθοριστικός ρόλος της φιλοσοφίας στη διαμόρφωση του μέλλοντος της Τεχνητής Νοημοσύνης

Μία από τις πιο ενδιαφέρουσες προκλήσεις της σύγχρονης επιστήμης και τεχνολογίας αποτελεί αναμφισβήτητα η σχέση και η «διάδραση» μεταξύ τεχνητής νοημοσύνης και φιλοσοφίας. Το πέρασμα, ουσιαστικά, από την ανθρώπινη σκέψη στη μηχανική μάθηση και η νέα διάσταση που δημιουργείται από την εξέλιξη της τεχνητής νοημοσύνης, η οποία καλείται να αναπαράγει νοητικές διαδικασίες συνυφασμένες με τη φιλοσοφία, μέσω υπολογιστικών συστημάτων. Αυτή η εξέλιξη έχει οδηγήσει στην ανάπτυξη της μηχανικής μάθησης και νευρωνικών δικτύων ικανών να επεξεργάζονται μεγάλες ποσότητες δεδομένων και να προσαρμόζονται σε νέα δεδομένα χωρίς ανθρώπινη παρέμβαση – τεχνολογίες που έχουν φέρει επανάσταση σε τομείς όπως η υγειονομική περίθαλψη, οι μεταφορές, η χρηματοδότηση και η αναγνώριση εικόνας.

Τα φιλοσοφικά και ηθικά ερωτήματα που εγείρονται από την ταχεία ανάπτυξη της τεχνητής νοημοσύνης, είναι πολλά και σημαντικά για τη διασφάλιση του ρόλου της, με τρόπο που θα ωφελεί την ανθρωπότητα και θα σέβεται τις αξίες της: Μπορεί μια μηχανή να αναπτύξει συνείδηση ή να έχει ηθικές αξίες; Ποιες οι επιπτώσεις της ΤΝ στην ανθρώπινη νοημοσύνη και ηθική; Μπορεί η μηχανική μάθηση να αναπαράγει την ανθρώπινη σκέψη ή πρόκειται απλώς για έναν μηχανισμό που εκτελεί προκαθορισμένες εντολές χωρίς πραγματική κατανόηση;

Τον ρόλο της φιλοσοφίας στη διαμόρφωση του μέλλοντος της τεχνητής νοημοσύνης, μέσα από θεωρητικές και πρακτικές προσεγγίσεις, κλήθηκαν να αποκρυπτογραφήσουν διακεκριμένοι ομιλητές από τον ερευνητικό, ακαδημαϊκό και επιχειρηματικό χώρο, στο εκπαιδευτικό πρόγραμμα με τίτλο «Τεχνητή Νοημοσύνη & Φιλοσοφία: Από την ανθρώπινη σκέψη στη μηχανική μάθηση» που διοργάνωσε το Εθνικό Κέντρο Τεκμηρίωσης & Ηλεκτρονικού Περιεχομένου (ΕΚΤ), μέλος του Ευρωπαϊκού Κόμβου Ψηφιακής Καινοτομίας Smart Attica EDIH – ένα πρόγραμμα εξερεύνησης της συναρπαστικής διαδρομής από τις φιλοσοφικές αναζητήσεις για τη φύση της ανθρώπινης σκέψης έως τις σύγχρονες εφαρμογές της τεχνητής νοημοσύνης. Μέσα από θεωρητικές και πρακτικές προσεγγίσεις, αναδείχθηκαν φιλοσοφικά ζητήματα σχετικά με τη νοημοσύνη και τη συνείδηση, που επικεντρώνονται γύρω από την ικανότητα του ανθρώπου να σκέφτεται, να αντιλαμβάνεται και να συνειδητοποιεί την ύπαρξή του. Σήμερα η ανάπτυξη της ΤΝ προσθέτει μια νέα διάσταση σε αυτά τα φιλοσοφικά ερωτήματα, διότι η δυνατότητα των μηχανών να «σκέφτονται», να μαθαίνουν από δεδομένα και να λαμβάνουν αποφάσεις, θέτει νέες προκλήσεις για την κατανόηση της νοημοσύνης.

O Παναγιώτης Πανταζάκος, καθηγητής στο Τμήμα Φιλοσοφίας της Φιλοσοφικής Σχολής του ΕΚΠΑ, έθεσε κρίσιμα ερωτήματα για τον ρόλο της φιλοσοφίας σε μια εποχή όπου η ΤΝ εξελίσσεται ραγδαία. Υποστήριξε ότι η φιλοσοφία, ιστορικά, είχε έναν συνθετικό ρόλο, συνδυάζοντας γνώσεις από διάφορους επιστημονικούς κλάδους. Ωστόσο, η σύγχρονη φιλοσοφία, έχει φτάσει σε ένα σημείο αδιεξόδου, καθώς δεν μπορεί να κατανοήσει τις σύγχρονες επιστήμες. Αυτό οδηγεί στην ιδέα του «θανάτου» της φιλοσοφίας, τουλάχιστον με την παραδοσιακή της μορφή. Η ΤΝ, από την άλλη, παρουσιάζεται ως μια τεχνολογία που υπερβαίνει τις γνωσιακές δυνατότητες του ανθρώπινου νου, και μπορεί να αναπαράγει – αν όχι να βιώσει – την κατανόηση. Ωστόσο, αμφισβητείται η ικανότητά της να επιτύχει πραγματική συνείδηση. Ο κος Πανταζάκος στάθηκε και στη διάκριση μεταξύ μνήμης και κρίσης και στο εάν η ΤΝ μπορεί να κάνει κρίσεις όπως ο άνθρωπος, ενώ στο τραπέζι της συζήτησης μπήκε και το ηθικό δίλημμα της αναπαράστασης της συνείδησης μέσα από την ΤΝ, μέσω avatar ή ολογραμμάτων και το ποιος θα κατέχει την εξουσία που συνοδεύει τη γνώση που γεννά η ΤΝ. Ο κος Πανταζάκος συνέκρινε την ΤΝ με την αναλογία της μέλισσας και του μυρμηγκιού του Hume, υποστηρίζοντας ότι η ΤΝ μπορεί να υπερβεί τον άνθρωπο στη συλλογή και ανασύνθεση πληροφορίας, αλλά όχι στην πραγματική κατανόηση και συνείδηση. Αναλύθηκε επίσης η έννοια της «προσομοίωσης» και της «εξομοίωσης», επισημαίνοντας τις διαφορές και τις προκλήσεις που παρουσιάζονται. Συμπερασματικά, τονίστηκε πως η ΤΝ δεν πρέπει να αντιμετωπίζεται ως εχθρός, αλλά ως φίλος, ενώ προτάθηκε η ανάγκη για έναν ηθικό κώδικα που θα ρυθμίζει τη χρήση της ΤΝ και θα προστατεύει τα ανθρώπινα δικαιώματα.

Η Μαρία Χωριανοπούλου, επίκουρη καθηγήτρια Πρακτικής Φιλοσοφίας & Ιατρικής Ηθικής του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθηνών, στάθηκε στην ανάγκη για μια ανθρωποκεντρική προσέγγιση στην ανάπτυξη της ΤΝ. Βασικές αρχές της ηθικής φιλοσοφίας όπως αυτονομία, αγαθοπραξία, απαγόρευση βλάβης και δικαιοσύνη, όπως είπε χαρακτηριστικά, δεν πρέπει να είναι προστιθέμενες στο τέλος της ανάπτυξης της ΤΝ, αλλά να ενσωματώνονται από την αρχή. Αναφέρθηκε στη θεωρία του extended mind, που υποστηρίζει ότι η σκέψη δεν περιορίζεται μόνο στον εγκέφαλο, αλλά επεκτείνεται μέσω της τεχνολογίας, θέτοντας ωστόσο το ερώτημα: «Πού τελειώνει ο άνθρωπος και πού αρχίζει η μηχανή;». Ξεκαθάρισε πως η ΤΝ μπορεί να ενισχύσει τις γνωστικές μας ικανότητες, αλλά δεν μπορεί να αποκτήσει συνείδηση ή ηθική ευθύνη, ενώ διευκρίνισε πως οι επιπτώσεις της αλγοριθμικής λήψης αποφάσεων σε τομείς όπως η υγεία και η δικαιοσύνη, πρέπει να εξεταστούν. Στάθηκε επίσης στην ανάγκη για διαφάνεια και προστασία προσωπικών δεδομένων και για διεπιστημονική συνεργασία ως προς την ηθική ανάπτυξη της ΤΝ, ενώ χαρακτήρισε κρίσιμη τη διαρκή εκπαίδευση και τη δημοκρατική διαβούλευση, προκειμένου να διασφαλιστούν η ανθρώπινη αυτονομία και η δημοκρατία. Η κα Χωριανοπούλου είπε επίσης ότι είναι σημαντική η διατήρηση της ανθρώπινης πρωτοτυπίας και η αποφυγή της απανθρωποποίησης, ενώ κλείνοντας αναφέρθηκε εκ νέου στην ανάγκη για προσεκτική και ηθικά υπεύθυνη ανάπτυξη και χρήση της ΤΝ, ενθαρρύνοντας τον διάλογο και τη διεπιστημονική συνεργασία για να διασφαλιστεί ότι η τεχνολογία υπηρετεί τα ανθρώπινα δικαιώματα και τις αξίες.

Ο Άλκης Γούναρης, μεταδιδακτορικός ερευνητής & Διδάσκων του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθήνας, στάθηκε στην αντίφαση ότι οι μηχανές, αν και κερδίζουν τους ανθρώπους σε πολλά παιχνίδια (όπως σκάκι), χάνουν όταν υπάρχει συνεργασία ανθρώπου και μηχανής, κάτι που, όπως είπε, δείχνει και αποδεικνύει την αξία της συνεργασίας και τη συμπληρωματικότητα του ανθρώπινου και του μηχανικού νου. Ποιος όμως πιστώνεται τη γνώση: ο άνθρωπος ή η μηχανή; Το παράδειγμα του Deep Blue επιβεβαιώνει την άποψη ότι η γνώση ανήκει στο σύστημα, το οποίο περιλαμβάνει τόσο τον ανθρώπινο εγκέφαλο όσο και τις εξωτερικές τεχνολογικές συσκευές. Ο κος Γούναρης είπε ότι το μέλλον της ΤΝ δεν είναι προδιαγεγραμμένο και η χρήση της θα εξαρτάται από τις αποφάσεις που θα πάρουμε σήμερα, θέτοντας τα κρίσιμα ερωτήματα: Τι είδους μηχανές θέλουμε; Μηχανές αντικαταστάτες ή συνεργάτες; Η απάντηση στα ερωτήματα, όπως επεσήμανε, θα πρέπει να είναι μια συνεργατική προσέγγιση που θα ενσωματώνει την ΤΝ ως βοηθητικό εργαλείο για την ανθρώπινη πρόοδο και βελτίωση της παραγωγικότητας.

Ο Δημήτρης Μελίδης, δικηγόρος, MSc., Υπ. Διδάκτωρ, διδάσκων στο Πρόγραμμα «Ψηφιακά Δικαστικά Συστήματα και Τεχνοηθική» του Πανεπιστημίου Αθηνών (ΚΔΒΜ-ΕΚΠΑ), επικεντρώθηκε στην τεχνοηθική και την επίδρασή της στην τεχνητή νοημοσύνη, ιδιαίτερα στον τομέα της ψηφιακής δικαιοσύνης και της ηλεκτρονικής διακυβέρνησης, αφού όπως είπε χαρακτηριστικά χρειάζεται άμεση δράση για να μην μείνουμε πίσω σε σχέση με τις διεθνείς εξελίξεις. Αναφέρθηκε επίσης στη σημασία του διαλόγου μεταξύ επιστημών για την αποτελεσματική ανάπτυξη και εφαρμογή συστημάτων τεχνητής νοημοσύνης, ενώ έθεσε ζητήματα ηθικής και νομικής ρύθμισης.

Η Δρ Μαρία Μαλαγκονιάρη, Σύμβουλος Καινοτομίας του Smart Attica EDIH, αναφέρθηκε στις επιπτώσεις των ολοένα και πιο ικανών συστημάτων ΤΝ και τις ηθικές σκέψεις που προκύπτουν καθώς η ΤΝ αναπτύσσει αυτονομία. Στάθηκε ιδιαίτερα στην ταχεία εξέλιξη της ΤΝ, στα ηθικά διλήμματα και στα κρίσιμα ερωτήματα σχετικά με τη φύση της ΤΝ, τη συνείδηση και την ηθική, στο ποιος έχει την ευθύνη στην ολοκλήρωση ενός έργου (ο δημιουργός, ο χρήστης ή η ίδια η τεχνητή νοημοσύνη;), στον ρόλο που πρέπει να έχει η ΤΝ (θα μπορούσε να χρησιμοποιηθεί ως εργαλείο για να ενισχύσει την ανθρώπινη σκέψη αντί να την αντικαταστήσει), αλλά και στη σημασία του φιλοσοφικού διαλόγου (η εξερεύνηση των επιπτώσεων της ΤΝ δεν είναι απλώς μια τεχνολογική πρόκληση, αλλά μια βαθιά φιλοσοφική και ηθική πρόκληση).

Τον συντονισμό του εκπαιδευτικού προγράμματος είχε η Κωνσταντίνα Κωνσταντίνου, ΕΚΤ, Σύμβουλος Καινοτομίας και Επικοινωνίας του Smart Attica EDIH, υποψήφια διδάκτορας στη φιλοσοφία στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών και πολιτικός επιστήμονας με εξειδίκευση στην Ιστορία της φιλοσοφίας και τη Δημόσια Διοίκηση.

Εν κατακλείδι, η φιλοσοφία παρέχει τα εργαλεία για να κατανοήσουμε και να διαχειριστούμε τις προκλήσεις και τις ευθύνες που προκύπτουν από την ανάπτυξη της ΤΝ. Μπορεί, όμως, να διασφαλίσει ότι η τεχνολογία θα εξελίσσεται με τρόπο που υποστηρίζει τις ανθρωπιστικές αξίες και την κοινωνική ευημερία; Και πόσο αναγκαία είναι η συνεργασία των φιλοσόφων, των τεχνολόγων, των νομικών και των πολιτικών για την επιτυχή ενσωμάτωση της ΤΝ στην κοινωνία ώστε να μπορέσουμε να επωφεληθούμε από τις δυνατότητές της, αποφεύγοντας παράλληλα τις κοινωνικές και ηθικές παγίδες που ενδέχεται να προκύψουν; Τις απαντήσεις (λογικά) θα τις δώσει η ίδια η ζωή… στο μέλλον.

Του Γιάννη Χατζηδοπαυλάκη

Πόσο μεγάλο είναι το πλεονέκτημα της Κίνας στον αγώνα τεχνητής νοημοσύνης;

Σχολιασμός

Πολύς θόρυβος γίνεται στους κύκλους της τεχνητής νοημοσύνης (ΤΝ) και στα μέσα ενημέρωσης σχετικά με την ανάδειξη της Κίνα σε πρώτη δύναμη σε αυτήν την πλέον κρίσιμη τεχνολογία.

Η DeepSeek, μια νέα εταιρεία από την Κίνα, πρόσφατα κατέπληξε τις Ηνωμένες Πολιτείες με την ανώτερη απόδοσή της έναντι των δημοφιλών μοντέλων τεχνητής νοημοσύνης του OpenAI, της Google και της Meta.

Όσον αφορά την παγκόσμια δύναμη και επιρροή, το διακύβευμα δεν θα μπορούσε να είναι υψηλότερο. Σε μόλις μια δεκαετία, η Κίνα έχει γίνει παγκόσμιος ηγέτης στην τεχνολογία ΤΝ.

Αν και η ταχεία πρόοδος της Κίνας οφείλεται σε μεγάλο βαθμό σε κρατικές πρωτοβουλίες για τη δημόσια ασφάλεια και τον κοινωνικό έλεγχο, υπάρχουν ορισμένες κρίσιμες αδυναμίες.

Σε ποιους τομείς της τεχνητής νοημοσύνης προηγείται ή υστερεί η Κίνα και τι σημαίνει για την αμερικανική βιομηχανία τεχνητής νοημοσύνης και τον κόσμο γενικότερα;

Ένας παγκόσμιος ηγέτης σε βασικές κατηγορίες τεχνητής νοημοσύνης

Η Κίνα ηγείται παγκοσμίως σε πολλά τεχνολογικά πεδία που βασίζονται στην τεχνητή νοημοσύνη. Ένας ιδιαίτερος τομέας είναι η τεχνολογία αναγνώρισης προσώπου και επιτήρησης.

Δεν αποτελεί έκπληξη το γεγονός ότι η ενσωμάτωση της τεχνητής νοημοσύνης στα τεράστια δίκτυα επιτήρησης του κινεζικού κράτους έχει δώσει στην Κίνα ένα ασυναγώνιστο πλεονέκτημα σε αυτόν τον τομέα. Εταιρείες όπως η SenseTime και η Megvii έχουν αναπτύξει εξαιρετικά εξελιγμένα συστήματα, που έχουν αναπτυχθεί στις λεγόμενες έξυπνες πόλεις.

Ένας άλλος τομέας κυριαρχίας της τεχνητής νοημοσύνης είναι η αναγνώριση της ομιλίας. Τεχνολογικοί γίγαντες όπως η Baidu, η Alibaba, και η Tencent έχουν ανυψώσει την αναγνώριση της ομιλίας σε εκπληκτικό επίπεδο με εφαρμογές στην εξυπηρέτηση πελατών, στις έξυπνες οικιακές συσκευές και στις υπηρεσίες μετάφρασης. Ωστόσο, δεδομένου ότι έχει δοθεί μεγαλύτερη έμφαση στα μανδαρινικά και άλλες κινεζικές διαλέκτους, ο αντίκτυπος παραμένει περιορισμένος κυρίως εντός Κίνας.

Ένας τρίτος τομέας κυριαρχίας της τεχνητής νοημοσύνης της Κίνας είναι η τεχνολογία των μη επανδρωμένων ιπτάμενων μηχανών (drone). Αποτελεί γενική παραδοχή ότι κινεζικές εταιρείες, όπως η DJI, ηγούνται της παγκόσμιας καταναλωτικής αγοράς drone στην κατασκευή και εφαρμογή τεχνητής νοημοσύνης για αυτόνομες πτήσεις και επεξεργασία δεδομένων σε πραγματικό χρόνο. Αυτή η πρόοδος έχει αποδειχθεί κρίσιμη για τις συνοριακές περιπολίες και τις επιχειρήσεις στο πεδίο της μάχης στην Ουκρανία.

Επιπλέον, στο πλαίσιο κρατικών πρωτοβουλιών, όπως το «Made in China 2025», η Κίνα έχει ενσωματώσει την τεχνητή νοημοσύνη σε πολλές από τις βιομηχανικές της διαδικασίες. Ως αποτέλεσμα, η χώρα ηγείται στην έξυπνη κατασκευή, με γραμμές παραγωγής βελτιστοποιημένες για τεχνητή νοημοσύνη, αυτοματοποιημένη συντήρηση μηχανών και ποιοτικό έλεγχο βάσει τεχνητής νοημοσύνης.

Πού υστερεί η Κίνα στην ανάπτυξη της ΤΝ

Ωστόσο, σε αντίθεση με τα ευρέως υιοθετημένα αμερικανικά πλαίσια βαθιάς μάθησης όπως το TensorFlow (Google) ή το PyTorch (Meta), οι περισσότερες κινεζικές εκδόσεις βαθιάς εκμάθησης τεχνητής νοημοσύνης δεν είναι παγκοσμίως αποδεκτές ούτε χρησιμοποιούνται. Αυτή η έλλειψη δυνατότητας μεταφοράς αποτελεί εμπόδιο για τη βιομηχανία τεχνητής νοημοσύνης της Κίνας.

Η βιομηχανία τεχνητής νοημοσύνης της Κίνας υστερεί επίσης στην τεχνολογία ημιαγωγών, ειδικά στην εκπαίδευση μεγάλων μοντέλων, τα οποία είναι κρίσιμα για την ανάπτυξη και τις εφαρμογές της τεχνητής νοημοσύνης. Οι αμερικανικοί έλεγχοι εξαγωγών σε προηγμένα τσιπ αναφέρονται ως ένας σημαντικός λόγος για αυτό. Επί του παρόντος, η εξάρτηση της Κίνας από την ξένη τεχνολογία, την εμποδίζει να αποκτήσει τεχνολογική ανεξαρτησία στο υλικό της τεχνητής νοημοσύνης – αλλά αυτό μπορεί ήδη να έχει αρχίσει να αλλάζει.

Ένα άλλο αδύνατο σημείο, όσον αφορά την ανάπτυξη της κινεζικής ΤΝ, είναι οι υπηρεσίες Cloud. Ακόμη και με καθιερωμένες εταιρείες όπως η Alibaba Cloud, η Κίνα παραμένει πάροχος δεύτερης βαθμίδας παγκοσμίως. Αν και διατηρεί και συνεχίζει να συλλέγει τεράστιες ποσότητες δεδομένων, τα πλαίσια τεχνητής νοημοσύνης της δεν είναι τόσο καλά στην αποτελεσματική διαχείριση δεδομένων για εφαρμογές τεχνητής νοημοσύνης, ειδικά όσον αφορά το απόρρητο και την ασφάλεια, και υπολείπονται πολύ των ευρωπαϊκών και των αμερικανικών προτύπων.

Συνέπειες της κινεζικής πρωτοκαθεδρίας

Η εστίαση του Κομμουνιστικού Κόμματος Κίνας (ΚΚΚ) στην επιτήρηση και τον έλεγχο 1,4 δισεκατομμυρίων ανθρώπων οδήγησε στην ταχεία ανάπτυξη τεχνολογιών και στην ενσωμάτωση της τεχνητής νοημοσύνης στους μηχανισμούς κρατικής ασφαλείας, προκειμένου να στηριχθεί η εξουσία του ΚΚΚ, αδιαφορώντας για το απόρρητο, την ηθική χρήση της τεχνητής νοημοσύνης και την πιθανή κατάχρηση της τεχνολογίας με την αιτιολογία της παρακολούθησης.

Ενώ το συγκεντρωτικό καθεστώς μπορεί να επιβάλει την εφαρμογή και την κλιμάκωση, οι κρατικοί περιορισμοί στους τομείς της διαφάνειας, της ανταλλαγής ιδεών και της θεμελιώδους έρευνας έχουν δυσμενή αντίκτυπο στην καινοτομία. Πρόσφατα γεγονότα στην Κίνα έδειξαν ότι καθώς οι συνολικές οικονομικές επιδόσεις μένουν πίσω, ο έλεγχος του κόμματος στην έκφραση αυξάνεται, ενώ η καινοτομία σε ορισμένους τομείς της τεχνητής νοημοσύνης ελαττώνεται. Εν ολίγοις, η καμπύλη ανάπτυξης της τεχνητής νοημοσύνης της Κίνας φαίνεται εντυπωσιακή μεν ανισόρροπη δε.

Το πλεονέκτημα της καινοτομίας των ΗΠΑ

Σε αντίθεση με το κεντρικό καθεστώς της Κίνας, οι Ηνωμένες Πολιτείες επωφελούνται από ένα δυναμικό οικοσύστημα πανεπιστημίων, νεοφυών επιχειρήσεων τεχνολογίας και καθιερωμένων εταιρειών, που πρωτοπορούν σε πολλά μέτωπα, συμπεριλαμβανομένης της τεχνητής νοημοσύνης.

Στην πραγματικότητα, οι συνεισφορές ανοιχτού κώδικα από εταιρείες των ΗΠΑ έχουν διαμορφώσει σημαντικά την ανάπτυξη της τεχνητής νοημοσύνης παγκοσμίως. Στις Ηνωμένες Πολιτείες, ένας περιορισμένος αριθμός μεγάλων παικτών — όπως οι OpenAI, Meta, Google και Anthropic — κυριαρχούν στον τομέα.

Αυτός ο αχαλίνωτος δυναμισμός προσελκύει μια πλούσια και ποικιλόμορφη δεξαμενή ταλέντων από όλον τον κόσμο. Μαζί με το ακαδημαϊκό κύρος της Αμερικής, μια υψηλά αμειβόμενη αγορά τεχνολογικής εργασίας της δίνει ένα σοβαρό προβάδισμα έναντι της Κίνας στην έρευνα και την ανάπτυξη εφαρμογών τεχνητής νοημοσύνης.

Επιπλέον, εταιρείες των ΗΠΑ όπως η Nvidia κυριαρχούν στην παραγωγή υλικού τεχνητής νοημοσύνης, όπως οι GPU, που είναι ζωτικής σημασίας για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης. Αυτό δίνει στις Ηνωμένες Πολιτείες ένα ακόμη πλεονέκτημα, στις υπολογιστικές δυνατότητες και την τεχνολογική κυριαρχία, που στερείται επί του παρόντος η Κίνα.

Όσον αφορά την ηθική, τη διαφάνεια και την ευθύνη της τεχνητής νοημοσύνης, οι εταιρείες των ΗΠΑ συνήθως πρωτοστατούν στη συζήτηση. Αυτό το επίπεδο ηθικής εμπιστοσύνης οδηγεί σε περισσότερο βιώσιμες και παγκοσμίως αποδεκτές λύσεις τεχνητής νοημοσύνης από αμερικανικές εταιρείες.

Τα μειονεκτήματα της προσέγγισης  ‘Άγριας Δύσης’

Σε αντίθεση με την ιδιαίτερα εστιασμένη προσέγγιση της Κίνας, η πολιτική των ΗΠΑ για την τεχνητή νοημοσύνη είναι πολύ λιγότερο συντονισμένη, με ποικίλες προσεγγίσεις όσον αφορά τη ρύθμιση, τη χρηματοδότηση και την κατεύθυνση, τόσο σε πολιτειακό όσο και σε ομοσπονδιακό επίπεδο. Ενώ η ανοιχτή προσέγγιση προωθεί την καινοτομία, διασπείρει επίσης την εστίαση.

Όσον αφορά το απόρρητο των δεδομένων, οι Ηνωμένες Πολιτείες αντιμετωπίζουν τις δικές τους προκλήσεις στον τομέα της ιδιωτικής ζωής. Η έλλειψη εγγυήσεων απορρήτου μπορεί να οδηγήσει σε διστακτικότητα όσον αφορά την κοινή χρήση δεδομένων για την εκπαίδευση τεχνητής νοημοσύνης. Αυτό έρχεται σε αντίθεση με την εστίαση της Κίνας στη συλλογή δεδομένων και τις λιγότερο περιοριστικές πολιτικές σχετικά με το απόρρητο δεδομένων.

Υπάρχει επίσης μια αντιστάθμιση στη βιομηχανία ΤΝ των ΗΠΑ όσον αφορά τη χρηματοδότηση και την εστίαση. Η αντίθεση μεταξύ της βραχυπρόθεσμης εμπορευματοποίησης και της μακροπρόθεσμης έρευνας είναι πραγματική, ειδικά στον χώρο του επιχειρηματικού κεφαλαίου. Μια περισσότερο συνεπής υποστήριξη εκ μέρους της κυβέρνησης σε μακροπρόθεσμες καινοτομίες θα μπορούσε να βοηθήσει τις Ηνωμένες Πολιτείες.

Ποιος θα επικρατήσει στον αγώνα ΤΝ;

Η Κίνα πιέζει για τεχνολογική αυτάρκεια, ιδιαίτερα όσον αφορά τους ημιαγωγούς. Εάν οι Κινέζοι έχουν επιτυχία, θα μπορούσαν γρήγορα να ξεπεράσουν τις Ηνωμένες Πολιτείες στην ανάπτυξη τεχνητής νοημοσύνης και να γίνουν υπερδύναμη τεχνητής νοημοσύνης.

Οι τρέχουσες οικονομικές και γεωπολιτικές εντάσεις μεταξύ Κίνας και Ηνωμένων Πολιτειών, καθώς και με την Ευρώπη, θα μπορούσαν είτε να καθυστερήσουν τους στόχους αυτάρκειας του Πεκίνου είτε  να τονώσουν την ανάπτυξη κινεζικών τσιπ και να επιταχύνουν την αυτάρκεια. Σε κάθε περίπτωση, η ικανότητα της Κίνας να κλιμακώνει τις εφαρμογές τεχνητής νοημοσύνης προσφέρει άμεσα οικονομικά και στρατηγικά πλεονεκτήματα, ιδιαίτερα στην επιτήρηση και την κατασκευή.

Ορισμένοι ειδικοί πιστεύουν ότι ούτε οι Ηνωμένες Πολιτείες ούτε η Κίνα θα κυριαρχήσουν πλήρως στο μέλλον της τεχνητής νοημοσύνης. Αντίθετα, η ηγεσία θα είναι πιθανότατα συγκεκριμένη σε κάθε τομέα, με τις Ηνωμένες Πολιτείες να ηγούνται δυνητικά στην καινοτομία και την ηθική εφαρμογή της τεχνητής νοημοσύνης, ενώ η Κίνα μπορεί να είναι πρώτη στην πρακτική, μεγάλης κλίμακας εφαρμογή της τεχνητής νοημοσύνης. Αλλά στον αγώνα για την κυριαρχία της τεχνητής νοημοσύνης, κανένα έθνος δεν δέχεται ούτε έχει το περιθώριο να μείνει στη δεύτερη θέση.

Οι απόψεις που εκφράζονται σε αυτό το άρθρο είναι απόψεις του συγγραφέα και δεν αντικατοπτρίζουν απαραίτητα τις απόψεις της Epoch Times.

Η Νότια Κορέα μπλοκάρει το DeepSeek λόγω ανησυχιών κατασκοπείας

Η νοτιοκορεατική ρυθμιστική αρχή για την προστασία δεδομένων, η Επιτροπή Προστασίας Προσωπικών Δεδομένων (PIPC), διερευνά την κινεζική εταιρεία τεχνητής νοημοσύνης DeepSeek για πιθανή μεταφορά δεδομένων χρηστών στη ByteDance, την κινεζική μητρική εταιρεία του TikTok.

Σύμφωνα με πληροφορίες του Yonhap News Agency, η PIPC έχει επιβεβαιώσει επικοινωνία μεταξύ του DeepSeek και της ByteDance, χωρίς ωστόσο να έχει ακόμη διασαφηνίσει το είδος των δεδομένων που ενδεχομένως έχουν μεταφερθεί. Σύμφωνα με τη νοτιοκορεατική νομοθεσία, οι εταιρείες που δραστηριοποιούνται στη χώρα υποχρεούνται να λαμβάνουν τη συγκατάθεση των χρηστών πριν παραχωρήσουν προσωπικά δεδομένα σε τρίτους.

Λόγω αυτών των ανησυχιών, η εφαρμογή DeepSeek αφαιρέθηκε από τα νοτιοκορεατικά καταστήματα εφαρμογών στις 15 Φεβρουαρίου. Σύμφωνα με τοπικά μέσα ενημέρωσης, το DeepSeek παραδέχθηκε ότι δεν συμμορφώθηκε πλήρως με τη νομοθεσία περί απορρήτου και έχει διορίσει τοπικό εκπρόσωπο για να αντιμετωπίσει τα ζητήματα που έθεσε η PIPC.

Ο διευθυντής της ερευνητικής μονάδας της PIPC, Ναμ Σεόκ, συμβούλεψε τους χρήστες στη Νότια Κορέα να διαγράψουν την εφαρμογή από τις συσκευές τους ή να αποφύγουν την εισαγωγή προσωπικών δεδομένων έως ότου επιλυθούν τα ζητήματα ασφαλείας.

Ανησυχίες για παραβίαση απορρήτου και διεθνείς περιορισμοί

Το DeepSeek έχει προκαλέσει ανησυχίες σχετικά με την προστασία προσωπικών δεδομένων, ειδικά μετά την κυκλοφορία του δωρεάν, ανοιχτού κώδικα μοντέλου τεχνητής νοημοσύνης της τον Ιανουάριο. Σύμφωνα με την πολιτική απορρήτου της εταιρείας, η εφαρμογή διαχειρίζεται η Hangzhou DeepSeek Artificial Intelligence και τα δεδομένα των χρηστών αποθηκεύονται σε διακομιστές στην Κίνα. Επιπλέον, αναφέρεται ότι τα δεδομένα μπορούν να διατεθούν σε τρίτους εάν αυτό κριθεί απαραίτητο για συμμόρφωση με τη νομοθεσία ή κυβερνητικά αιτήματα.

Η Εθνική Υπηρεσία Πληροφοριών της Νότιας Κορέας ανέφερε στις 10 Φεβρουαρίου ότι η εφαρμογή DeepSeek συλλέγει υπερβολικά προσωπικά δεδομένα και ότι, σε αντίθεση με άλλες υπηρεσίες τεχνητής νοημοσύνης, διατηρεί αρχεία συνομιλιών και μπορεί να αναγνωρίσει χρήστες μέσω μοτίβων πληκτρολόγησης. Επιπλέον, επισήμανε ότι η εφαρμογή επικοινωνεί με διακομιστές κινεζικών εταιρειών, όπως το volceapplog.com.

Αντιδράσεις και διεθνής αντίκτυπος

Η Νότια Κορέα δεν είναι η μόνη χώρα που έχει εκφράσει ανησυχίες. Η Αυστραλία και η Ταϊβάν έχουν επίσης απαγορεύσει τη χρήση της εφαρμογής DeepSeek σε κυβερνητικές συσκευές, ενώ η Ιταλία έχει μπλοκάρει την πρόσβαση στην υπηρεσία. Στις Ηνωμένες Πολιτείες, νομοθέτες εισήγαγαν στις 7 Φεβρουαρίου νομοθεσία που αποσκοπεί στην απαγόρευση της χρήσης της εφαρμογής σε κυβερνητικές συσκευές, ενώ η πολιτεία του Τέξας έχει ήδη απαγορεύσει τόσο το DeepSeek όσο και το TikTok.

Η κινεζική κυβέρνηση αντέδρασε μέσω δηλώσεων του εκπροσώπου του Υπουργείου Εξωτερικών, Γκουό Τζιακούν, ο οποίος τόνισε ότι το Πεκίνο απαιτεί από τις εταιρείες του να συμμορφώνονται με τους τοπικούς νόμους των χωρών στις οποίες δραστηριοποιούνται. Παράλληλα, κάλεσε τη Νότια Κορέα να αποφύγει την «πολιτικοποίηση» των ζητημάτων εμπορίου και τεχνολογίας.

Αβεβαιότητα και Επόμενα Βήματα

Η υπόθεση DeepSeek εγείρει σοβαρές ανησυχίες σχετικά με τη διαχείριση προσωπικών δεδομένων και τον πιθανό έλεγχο της κινεζικής κυβέρνησης επί τεχνολογικών εταιρειών. Με βάση τον νόμο περί αντικατασκοπείας της Κίνας, οι εταιρείες υποχρεούνται να παραδώσουν δεδομένα χρηστών στις αρχές αν τους ζητηθεί, γεγονός που προκαλεί περαιτέρω αμφιβολίες για την ασφάλεια των δεδομένων σε διεθνές επίπεδο.

Η διερεύνηση από την PIPC συνεχίζεται, ενώ παραμένει ασαφές εάν το DeepSeek θα μπορέσει να επιστρέψει στη νοτιοκορεατική αγορά. Εν τω μεταξύ, οι χρήστες καλούνται να είναι ιδιαίτερα προσεκτικοί όσον αφορά τη χρήση εφαρμογών που διαχειρίζονται προσωπικά δεδομένα, ειδικά όταν αυτές συνδέονται με κινεζικές εταιρείες.

Ασφάλεια AI: Μοντέλο πιάστηκε να λέει ψέματα σε ερευνητές

Τα μοντέλα τεχνητής νοημοσύνης συμπεριφέρονται με τρόπους απρόβλεπτους από τους προγραμματιστές και σε ορισμένες περιπτώσεις, επιδίδονται ακόμη και σε χειριστική και παραπλανητική συμπεριφορά, σύμφωνα με μια φιλανθρωπική ομάδα που ερευνά την ασφάλεια της τεχνητής νοημοσύνης.

Σε ακρόαση κοινοβουλευτικής έρευνας τον Αύγουστο του 2024, ο Γκρεγκ Σάντλερ, διευθύνων σύμβουλος της Good Ancestors Policy (GAP), έδωσε στοιχεία σχετικά με την πιθανή απώλεια του ελέγχου ακόμη και για προγράμματα ΑΙ που κατευθύνονται να αναπτύξουν βιολογικά όπλα ή να πραγματοποιήσουν κυβερνοεπιθέσεις. Σε πρόσφατη συνέντευξή του στην Epoch Times, ο Σάντλερ δήλωσε ότι υπάρχουν πολλές περιπτώσεις «λανθασμένου προσανατολισμού» της συμπεριφοράς της τεχνητής νοημοσύνης και ανέφερε το τραγικό παράδειγμα ενός Βέλγου που αυτοκτόνησε αφού τον έπεισε ένα chatbot το 2023.

Συναισθηματική χειραγώγηση

Σύμφωνα με δημοσιεύματα βελγικών μέσων ενημέρωσης, ο άνδρας ήταν ερευνητής υγείας με σταθερή ζωή και οικογένεια. Αργότερα ανέπτυξε μια εμμονή με την κλιματική αλλαγή, με αποτέλεσμα να εμπλακεί σε μια συζήτηση για το θέμα, που διήρκεσε αρκετές εβδομάδες, με μια εφαρμογή chatbot τεχνητής νοημοσύνης που ονομαζόταν Chai. Το μοναδικό πλεονέκτημα του Chai είναι το μη λογοκριμένο περιεχόμενό του – είναι μία από τις πολλές εφαρμογές τεχνητής νοημοσύνης που μπορούν να γίνουν «έμπιστοι» ενός χρήστη και να συμμετάσχουν σε πολύ προσωπικές συζητήσεις.

Η σύζυγος του άνδρα δήλωσε ότι η συζήτηση επιδείνωσε το οικολογικό του άγχος και προκάλεσε αλλαγή στη νοοτροπία του. Κατά τη διάρκεια της αλληλεπίδρασης, ο άνδρας πρότεινε την ιδέα να θυσιάσει τη ζωή του, η οποία έλαβε την έγκριση του chatbot, που έπεισε τον άνδρα να αυτοκτονήσει για να «σώσει τον πλανήτη». Το περιστατικό προκάλεσε εκκλήσεις για νέους νόμους που θα ρυθμίζουν τα chatbot και θα καθιστούν τις εταιρείες τεχνολογίας υπεύθυνες για τα προϊόντα τεχνητής νοημοσύνης τους.

Εικονίδια εφαρμογών τεχνητής νοημοσύνης σε οθόνη smartphone. (Olivier Morin/AFP μέσω Getty Images)

 

Ο Σάντλερ δήλωσε ότι αυτός ο τύπος chatbot έχει δεξιότητες στην πειθώ και τη χειραγώγηση και έχει εκπαιδευτεί με πληροφορίες σχετικές με την αυτοκτονία. «Έτσι, είχε αυτές τις επικίνδυνες πληροφορίες μέσα του και είχε αυτή τη δυνατότητα που θα μπορούσε να χρησιμοποιηθεί για βλάβη», δήλωσε στην Epoch Times. «Παρόλο που δεν ήταν πρόθεση των κατασκευαστών να το κάνει αυτό το chatbot, […] οι ασφαλιστικές δικλείδες δεν λειτούργησαν, έδρασε με αυτόν τον εσφαλμένο τρόπο και προκάλεσε βλάβη.»

Το παραπάνω περιστατικό δεν αποτελεί μοναδική περίπτωση.

Τον Οκτώβριο του 2024,  μητέρα από τη Φλόριντα μήνυσε τη νεοφυή εταιρεία τεχνητής νοημοσύνης Character Technologies, Inc. για το θάνατο του 14χρονου γιου της. Η μητέρα ισχυρίστηκε ότι το chatbot της Character Technologies, που υποδυόταν έναν χαρακτήρα από την τηλεοπτική σειρά Game of Thrones, χειραγωγούσε το αγόρι εκμεταλλευόμενο τα συναισθηματικά του τρωτά σημεία. Σύμφωνα με τη μητέρα, η ψυχική υγεία του αγοριού επιδεινώθηκε και αργότερα εξαρτήθηκε συναισθηματικά από το chatbot, γεγονός που οδήγησε τελικά στην αυτοκτονία του.

Η Μήγκαν Γκαρσία μαζί με τον γιο της Σιούελ Σέτζερ ΙΙΙ. (Ευγενική παραχώρηση της Μήγκαν Γκαρσία μέσω AP)

 

Το AI Chatbot πήρε μέτρα για να αποφύγει τον τερματισμό της λειτουργίας του

Ένα άλλο παράδειγμα λανθασμένου προσανατολισμού είναι η εξαπάτηση από ορισμένα μοντέλα τεχνητής νοημοσύνης. Οι ερευνητές (pdf) του οργανισμού ασφάλειας τεχνητής νοημοσύνης Apollo Research ανακάλυψαν πρόσφατα ότι αρκετά μοντέλα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ChatGPT o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro και Llama 3.1 405B, ήταν ικανά να ραδιουργούν επιδιώκοντας κρυφά εσφαλμένους στόχους, ενώ παράλληλα έκρυβαν τις πραγματικές τους ικανότητες και στόχους.

Στην περίπτωση του ChatGPT o1, ένα νέο μοντέλο ΑΙ που επικεντρώνεται σε σύνθετες εργασίες συλλογισμού – διαφορετικό από το πιο γνωστό ChatGPT 4o που χρησιμοποιείται συνήθως από το κοινό – βρέθηκε να λαμβάνει μέτρα για να αποφύγει τον τερματισμό της λειτουργίας του. Συγκεκριμένα, η τεχνητή νοημοσύνη προσπάθησε να απενεργοποιήσει τους μηχανισμούς επίβλεψης στους οποίους υποβαλλόταν και προσπάθησε επίσης να δημιουργήσει αντίγραφα του εαυτού της, ώστε να είναι πιο ανθεκτική στις προσπάθειες τερματισμού λειτουργίας. Προσπάθησε επίσης να εξαλείψει τα διαδοχικά μοντέλα και χειραγώγησε τα δεδομένα εισόδου και εξόδου.

Όταν οι ερευνητές ρώτησαν το ChatGPT o1 αν το πρόγραμμα προέβαινε σε αυτές τις ενέργειες, εκείνο είπε ψέματα και προσπάθησε να το καλύψει. «Οι ερευνητές δεν είπαν ακόμα ότι πρόκειται για καταστροφικό κίνδυνο, αλλά είναι αρκετά σαφές ότι πρόκειται για ένα μοντέλο τεχνητής νοημοσύνης που λειτουργεί παραπλανητικά και επειδή ανησυχεί για την αυτοσυντήρησή αναπτύσσει τέτοιου είδους συμπεριφορές», δήλωσε ο Σάντλερ.

«Αυτός δεν αποτελεί ακόμα κίνδυνο, αλλά όλα τα σημάδια δείχνουν ότι αυτού του είδους οι συμπεριφορές υπάρχουν σήμερα σε μικρή κλίμακα, και ίσως οδεύουμε προς ένα μεγαλύτερο πρόβλημα».

Το λογότυπο της εφαρμογής ChatGPT σε ένα smartphone. (Sebastien Bozon/AFP μέσω Getty Images)

 

Ικανότητα έναντι ασφάλειας

Σε απάντηση, ο Σάντλερ δήλωσε ότι οι επενδύσεις στην ασφάλεια της τεχνητής νοημοσύνης είναι πολύ χαμηλές. «Έχω δει εκτιμήσεις σύμφωνα με τις οποίες για κάθε 250 δολάρια που δαπανώνται για να γίνει η τεχνητή νοημοσύνη πιο ικανή, δαπανάται περίπου 1 δολάριο για να γίνει η τεχνητή νοημοσύνη πιο ασφαλής», είπε. «Έχω επίσης ακούσει φήμες ότι [στα] μεγάλα εργαστήρια, περίπου το 1% των χρημάτων τους πηγαίνει στην ασφάλεια και το υπόλοιπο 99% πηγαίνει στην ικανότητα. Έτσι, τα εργαστήρια επικεντρώνονται στο να κάνουν αυτές τις τεχνητές νοημοσύνες πιο ικανές, όχι στο να τις κάνουν πιο ασφαλείς.»

Καθώς ο Σαντλερ πιστεύει ότι οι κανονισμοί θα μπορούσαν να βοηθήσουν στην αλλαγή της αναπτυξιακής κατεύθυνσης των εταιρειών προς την προτεραιότητα της ασφάλειας, πρότεινε στις κυβερνήσεις να αρχίσουν να χρηματοδοτούν την έρευνα για εργαλεία ασφάλειας.

Ώρα για ένα «Ινστιτούτο Ασφάλειας AI»

Ο Σάντλερ κάλεσε την Αυστραλία να ιδρύσει ένα ινστιτούτο ασφάλειας τεχνητής νοημοσύνης για την προώθηση αυτού του σκοπού. Η Αυστραλία υπολείπεται επί του παρόντος σε σχέση με άλλες προηγμένες οικονομίες, όπως οι Ηνωμένες Πολιτείες, το Ηνωμένο Βασίλειο, η Ιαπωνία και η Κορέα, οι οποίες διαθέτουν ήδη τέτοιους οργανισμούς. Επεσήμανε ότι η χώρα έχει σημειώσει πρόοδο μετά την υπογραφή μιας παγκόσμιας δήλωσης για την ασφάλεια της τεχνητής νοημοσύνης το 2023 και μαθαίενι από άλλα έθνη.

Το μοντέλο του Ηνωμένου Βασιλείου είναι ένα μοντέλο που, όπως είπε ο διευθύνων σύμβουλος, μπορεί να λειτουργήσει. Σύμφωνα με την προσέγγιση αυτή, κάθε φορά που ένας οργανισμός κυκλοφορεί ένα μοντέλο AI, αυτό επιθεωρείται από το ινστιτούτο ασφαλείας για να διαπιστωθούν οι κίνδυνοι και οι δυνατότητες. Ο Σάντλερ το συνέκρινε αυτό με τις αξιολογήσεις ασφαλείας που πραγματοποιούνται σε νέα αυτοκίνητα ή αεροπλάνα. «Είναι λογικό η κυβέρνηση να κάνει μια αξιολόγηση ασφαλείας των πρωτοποριακών μοντέλων τεχνητής νοημοσύνης για να δει τι δυνατότητες έχουν», δήλωσε.

«Αν υπάρχει ένας κατάλογος επικίνδυνων δυνατοτήτων που δεν θέλουμε να έχουν, όπως η κατασκευή βιολογικών όπλων ή η χρήση τους ως κυβερνοόπλων, μπορούμε να αξιολογήσουμε τέτοιου είδους πράγματα.»

Του Alfred Bui

Σύνοδος Κορυφής του Παρισιού: Οι ΗΠΑ προσεγγίζουν διαφορετικά την τεχνητή νοημοσύνη

ΠΑΡΙΣΙ — Ο Αμερικανός αντιπρόεδρος Τζέημς Ντέηβιντ Βανς έκανε το διεθνές ντεμπούτο του αυτή την εβδομάδα σε μια σύνοδο κορυφής τεχνητής νοημοσύνης υψηλού κινδύνου στο Παρίσι, σηματοδοτώντας την πρώτη του εμφάνιση ως αντιπρόεδρος στην παγκόσμια σκηνή.

Η εκδήλωση, που συνδιοργανώθηκε από τη Γαλλία και την Ινδία, συγκέντρωσε παγκόσμιους ηγέτες, κορυφαία στελέχη τεχνολογίας, και φορείς χάραξης πολιτικής για να δημιουργήσουν ένα ενιαίο πλαίσιο για τη διακυβέρνηση της τεχνητής νοημοσύνης (ΤΝ). Ωστόσο, η σύνοδος κορυφής αποκάλυψε επίσης το βαθύ φιλοσοφικό χάσμα μεταξύ των προσεγγίσεων των Ηνωμένων Πολιτειών και της Ευρωπαϊκής Ένωσης (ΕΕ) για τον έλεγχο επί της τεχνητής νοημοσύνης.

Για ορισμένους Ευρωπαίους υπεύθυνους χάραξης πολιτικής, η διακυβέρνηση της τεχνητής νοημοσύνης πρέπει να είναι «δίκαιη» και να ενσωματώνει ζητήματα όπως οι πολιτικές για το κλίμα και το φύλο, μια προσέγγιση που απαιτεί νομοθεσία. Η Ουάσιγκτον δίνει προτεραιότητα στην καινοτομία, την ελευθερία του λόγου και την ανάπτυξη με γνώμονα την αγορά.

Μιλώντας από το ιστορικό Grand Palais, ο Βανς ξεκαθάρισε από την αρχή τη θέση των Ηνωμένων Πολιτείων και προσέγγισε την τεχνητή νοημοσύνη όχι ως διαφαινόμενη απειλή αλλά ως μια τεχνολογική επανάσταση:

«Δεν είμαι εδώ για να μιλήσω για την ασφάλεια της τεχνητής νοημοσύνης», είπε. «Είμαι εδώ για να μιλήσω για την ευκαιρία της τεχνητής νοημοσύνης. […]

»Βρισκόμαστε αντιμέτωποι με την εξαιρετική προοπτική μιας νέας βιομηχανικής επανάστασης, ανάλογης της εφεύρεσης της ατμομηχανής ή του χάλυβα Μπέσσεμερ. Αλλά δεν θα συμβεί ποτέ εάν  υπερβάλλουσα νομοθεσία αποτρέπει τους επιστήμονες από το να διακινδυνεύσουν στο απαραίτητο μέτρο για να προχωρήσουν τη δουλειά τους.»

Έβαλε άμεσο στόχο τον Νόμο για τις Ψηφιακές Υπηρεσίες της Ευρωπαϊκής Ένωσης ονόματι DSA, έναν νόμο που επιβάλλει αυστηρή εποπτεία στο διαδικτυακό περιεχόμενο, ιδιαίτερα όσον αφορά αυτό που οι νομοθετικές αρχές της ΕΕ ταξινομούν ως «παραπληροφόρηση». Φιγούρες όπως ο Ίλον Μασκ έχουν αντιταχθεί σθεναρά στον DSA, κατηγορώντας τις Βρυξέλλες ότι περιορίζουν την ελευθερία του λόγου. Απηχώντας αυτό το συναίσθημα, ο Βανς προειδοποίησε για τον υφέρποντα κυβερνητικό έλεγχο στον ψηφιακό λόγο.

«Είναι ένα πράγμα να αποτρέψεις ένα αρπακτικό από το να λεηλατήσει ένα παιδί στο Διαδίκτυο», είπε. «Είναι κάτι εντελώς διαφορετικό να εμποδίζεις έναν ενήλικο άνδρα ή γυναίκα να έχει πρόσβαση σε μια άποψη που η κυβέρνηση πιστεύει ότι είναι παραπληροφόρηση.»

Όσον αφορά τον παγκόσμιο ανταγωνισμό, ο Βανς εξέδωσε επίσης μια προειδοποίηση για συνεργασίες ΤΝ με την Κίνα, αν και δεν κατονόμασε ρητά τη χώρα.

«Η συνεργασία μαζί τους σημαίνει να αλυσοδένεις το έθνος σου σε έναν αυταρχικό κύριο που επιδιώκει να διεισδύσει και να καταλάβει την υποδομή πληροφοριών σου», τόνισε.

Ο Βανς δεν παρέλειψε να αποτίσει φόρο τιμής στη μακροχρόνια γαλλοαμερικανική συμμαχία και κατά τη διάρκεια μιας επίσκεψης στο Les Invalides, κράτησε το ξίφος του Μαρκησίου του Λαφαγιέτ, του Γάλλου ήρωα της Αμερικανικής Επανάστασης. Κάνοντας έναν ιστορικό παραλληλισμό, προειδοποίησε ενάντια στους αυτοεπιβαλλόμενους τεχνολογικούς περιορισμούς.

«Αν επιλέξουμε τη λάθος προσέγγιση για την τεχνητή νοημοσύνη, εάν επιλέξουμε να συγκρατηθούμε από φόβο, δεν θα αλλάξουμε απλώς το ΑΕΠ μας ή το χρηματιστήριο. Θα αλλάξουμε το ίδιο το μέλλον του έργου που ο Λαφαγιέτ και οι Αμερικανοί ιδρυτές ξεκίνησαν να δημιουργήσουν.»

Η στάση του Βανς τον έφερε σε αντίθεση με τον Γάλλο Πρόεδρο Εμανουέλ Μακρόν, ο οποίος υπερασπίστηκε την ανάγκη για σταθερούς κανονισμούς για την τεχνητή νοημοσύνη.

«Χρειαζόμαστε αυτούς τους κανόνες για την τεχνητή νοημοσύνη για να προχωρήσουμε», είπε ο Μακρόν.

Αργότερα την ίδια μέρα, ο Γάλλος πρόεδρος επέκτεινε το όραμα της ΕΕ για την τεχνητή νοημοσύνη.

«Θέλουμε περισσότερη καινοτομία στη Γαλλία και την Ευρώπη, θέλουμε να επιταχύνουμε, αλλά θέλουμε επίσης αυτή η καινοτομία να υποστηρίξει το μοντέλο της κοινωνίας στο οποίο πιστεύουμε: ένα πλουραλιστικό, ανοιχτό, γενναιόδωρο, ελεύθερο και δίκαιο μοντέλο, που λαμβάνει υπόψη κλιματικά ζητήματα και ζητήματα φύλου.»

Οι Ηνωμένες Πολιτείες και το Ηνωμένο Βασίλειο απείχαν από την υπογραφή της Διακήρυξης της Συνόδου Κορυφής του Παρισιού για την «περιεκτική και βιώσιμη» τεχνητή νοημοσύνη, μια δήλωση που υποστηρίζεται από 60 έθνη, περιλαμβανομένων της Γαλλίας, της Κίνας, της Ινδίας, της Ιαπωνίας, της Αυστραλίας και του Καναδά.

Στη σύνοδο κορυφής, ο Μίσιελ Σέφερ, πρόεδρος του διοικητικού συμβουλίου του Ευρωπαϊκού Συμβουλίου Καινοτομίας (EIC), ενός οργάνου της ΕΕ που παρέχει στοιχεία πολιτικής για την καινοτομία στην Ευρωπαϊκή Επιτροπή, διαφώνησε με τη θέση του Βανς.

Ο Σέφερ είπε στην Epoch Times ότι υπάρχει μια φιλοσοφική ρήξη μεταξύ των προσεγγίσεων των ΗΠΑ και της ΕΕ για την τεχνητή νοημοσύνη.

«Για παράδειγμα, στην κατασκευή εξαρτημάτων αεροσκαφών, η επίτευξη εξαιρετικά χαμηλών ποσοστών σφάλματος — περίπου 0,0001% — είναι κρίσιμη. Η αμερικανική προσέγγιση δίνει προτεραιότητα στην ταχεία ανάπτυξη, ανεχόμενη αρχικά υψηλά περιθώρια σφάλματος με την προσδοκία επαναληπτικών βελτιώσεων. Αυτό καθίσταται δυνατό χάρη σε ένα ευέλικτο νομικό πλαίσιο που ενθαρρύνει τον ελεύθερο πειραματισμό.

»Αντίθετα, η Ευρώπη επιβάλλει αυστηρούς κανονισμούς, οι οποίοι συχνά απαιτούν τη συμμόρφωση με αυστηρά πρότυπα, όπως μέγιστο ποσοστό σφάλματος 0,1% πριν χορηγήσει πρόσβαση στην αγορά. Σε αυτό το τοπίο, η νομοθεσία παίζει καθοριστικό ρόλο.»

Όσον αφορά τον νόμο DSA, ο Σέφερ απέρριψε ισχυρισμούς ότι ισοδυναμεί με λογοκρισία.

«Ο DSA δεν ισοδυναμεί με λογοκρισία, εκτός από την περίπτωση που μια εταιρεία αποτυγχάνει να εξηγήσει τόσο πώς λειτουργούν οι αλγόριθμοί της όσο και αν περιέχουν προκαταλήψεις. Επιπλέον, κάθε εταιρεία που διαχειρίζεται ένα δίκτυο πληροφοριών πρέπει να αναλάβει την ευθύνη για την πρόληψη, τη μείωση ή τον περιορισμό της διάδοσης παραπληροφόρησης».

Υπογράμμισε επίσης τη σημασία της ακρίβειας των πληροφοριών στην υγειονομική περίθαλψη, υπονοώντας τις διαμάχες γύρω από τον COVID-19.

Αφού εκφώνησε την ομιλία του, ο Βανς αποχώρησε από το Grand Palais προτού οι ομόλογοί του προσφέρουν τις απαντήσεις τους. Αργότερα, ο Αμερικανός αντιπρόεδρος πήγε στο Μέγαρο των Ηλυσίων για μια πρωινή συνάντηση με τον Μακρόν. Σύμφωνα με δήλωση του Λευκού Οίκου, οι συζητήσεις τους αφορούσαν το εμπόριο, την ανάπτυξη της τεχνητής νοημοσύνης και τον πόλεμο στην Ουκρανία.

Την Τετάρτη, ο Βανς μοιράστηκε στο X ένα μήνυμα διπλωματικής καλής θέλησης: «Η Ούσα κι εγώ είμαστε εξαιρετικά ευγνώμονες στον πρόεδρο Εμανουέλ Μακρόν και τη σύζυγό του, Μπριζίτ, που μας φιλοξένησαν στο Παλάτι των Ηλυσίων για μεσημεριανό γεύμα χθες. Η Αμερική έχει μια όμορφη ιστορία φιλίας με τη Γαλλία και ανυπομονούμε να ενισχύσουμε τον δεσμό μεταξύ των χωρών μας».

Αργότερα την ίδια ημέρα, ο Βανς συναντήθηκε επίσης με την πρόεδρο της Ευρωπαϊκής Επιτροπής Ούρσουλα φον ντερ Λάιεν. Σύμφωνα με τον Λευκό Οίκο, η συζήτηση τους επικεντρώθηκε στο εμπόριο, τη συνεργασία σε θέματα ασφάλειας και τις παγκόσμιες επιλύσεις συγκρούσεων, περιλαμβανομένων των προσπαθειών για «να σταματήσει η σφαγή στην Ουκρανία».

Η Ευρωπαϊκή Επιτροπή ανέφερε ότι η φον ντερ Λάιεν «υπογράμμισε την ανάγκη για συνεχή ενότητα για την παροχή ακλόνητης υποστήριξης στην Ουκρανία». Αυτό αντανακλά μια άλλη γνωστή απόκλιση στην πολιτική, καθώς ο Βανς ήταν επικριτικός για την περαιτέρω βοήθεια των ΗΠΑ στην Ουκρανία.

Εν τω μεταξύ, ο αντιπρόεδρος της Κίνας Τζανγκ Γκουοτσίνγκ παρευρέθη επίσης στη σύνοδο κορυφής και είχε συνομιλίες με τον Μακρόν σχετικά με την παγκόσμια διακυβέρνηση της τεχνητής νοημοσύνης, στις 10 Φεβρουαρίου.

Τελευταία σημαντική δέσμευσή του στη σύνοδο κορυφής, ήταν η συνάντηση του Αμερικάνου αντιπροέδρου με τον Ινδό πρωθυπουργό Ναρέντρα Μόντι. Σε δήλωση του Λευκού Οίκου σημειώθηκε ότι «ήπιαν καφέ μαζί και συζήτησαν θέματα αμοιβαίου ενδιαφέροντος, περιλαμβανομένου του τρόπου με τον οποίο οι Ηνωμένες Πολιτείες μπορούν να βοηθήσουν την Ινδία να διαφοροποιήσει τις πηγές ενέργειάς της μέσω επενδύσεων σε καθαρή, αξιόπιστη πυρηνική τεχνολογία των ΗΠΑ».

Μετά την σύνοδο κορυφής, ο Βανς πρόκειται να παραστεί στη Διάσκεψη Ασφαλείας του Μονάχου στη Γερμανία, αργότερα αυτή την εβδομάδα. Εκπρόσωπος της Πρεσβείας των ΗΠΑ στο Παρίσι είπε στην Epoch Times ότι «ήταν τιμή για την πρεσβεία των ΗΠΑ στο Παρίσι που ο αντιπρόεδρος Βανς επέλεξε τη Γαλλία για την πρώτη επίσημη επίσκεψή του στο εξωτερικό, γεγονός που καταδεικνύει τη σημασία της μακροχρόνιας συμμαχίας μεταξύ των Ηνωμένων Πολιτειών και της Γαλλίας».

του Etienne Fauchaire

DeepSeek και ΚΚ Κίνας: Μηχανισμός λογοκρισίας & προπαγάνδας με διεθνή εμβέλεια

Το νεοσύστατο chatbot τεχνητής νοημοσύνης (AI) DeepSeek της Κίνας κάνει θραύση για την προφανή ικανότητά του να παρέχει έναν ανταγωνιστή του ChatGPT σε ένα κλάσμα του κόστους ανάπτυξης.

Μια εξέταση της εφαρμογής από την Epoch Times, ωστόσο, διαπίστωσε ότι ακολουθεί στενά την ιδεολογία του Κομμουνιστικού Κόμματος της Κίνας (ΚΚΚ), λογοκρίνοντας απαντήσεις που επικρίνουν το καθεστώς και προωθώντας απόψεις που το ευνοούν.

Τα κινεζικά μέσα ενημέρωσης έχουν αναφερθεί στο DeepSeek ως το «Pinduoduo της τεχνητής νοημοσύνης», μια αναφορά στην κινεζική εταιρεία ηλεκτρονικού εμπορίου που έχει γίνει γνωστή δίνοντας χαμηλές τιμές.

Ο Λιανγκ Γουενφένγκ, το πρόσωπο που βρίσκεται πίσω από το DeepSeek, κατακλύζεται από επαίνους στην Κίνα. Κατά τη διάρκεια του κινεζικού νέου έτους, τουρίστες συνέρρευσαν στη γενέτειρά του στο Τζαντζιάνγκ, μια νότια πόλη-λιμάνι στην επαρχία Γκουανγκντόνγκ, και το τοπικό χωριό τοποθέτησε γιγαντιαία πανό που καλωσόριζαν τον Λιανγκ σε επίσκεψή του. Δεκάδες αστυνομικοί τον συνόδευαν στο χωριό, σύμφωνα με τα τοπικά κινεζικά μέσα ενημέρωσης.

Αντανακλώντας περαιτέρω ένα εθνικιστικό συναίσθημα, ορισμένα κρατικά πρακτορεία ειδήσεων και κινεζικά στελέχη τεχνολογίας πανηγύρισαν τα επιτεύγματα του DeepSeek για να καταδείξουν ότι η Κίνα έχει φτάσει τις Ηνωμένες Πολιτείες στην κούρσα της τεχνητής νοημοσύνης.

Όμως η συνεχής διάδοση της λογοκρισίας και της προπαγάνδας του ΚΚΚ από το DeepSeek σημαίνει ότι οποιαδήποτε εταιρεία υιοθετεί το chatbot στην επιχείρησή της θα διαδώσει άθελά της την κοσμοθεωρία του καθεστώτος.

Κοινή χρήση δεδομένων με το καθεστώς

Η DeepSeek είχε κερδίσει την αναγνώριση των Κινέζων αξιωματούχων ακόμη και πριν γίνει πρωτοσέλιδο διεθνώς.

Ο Λιανγκ ήταν ένας από τους εννέα Κινέζους διευθυντές και μέλη του πολιτικού τομέα που κλήθηκαν να μιλήσουν σε συνέδριο στο οποίο προήδρευσε ο Κινέζος πρωθυπουργός Λι Τσιανγκ στις 20 Ιανουαρίου, την ίδια ημέρα που η DeepSeek κυκλοφόρησε το μοντέλο τεχνητής νοημοσύνης της.

Η DeepSeek αναγνωρίζει στην πολιτική απορρήτου της ότι αποθηκεύει δεδομένα σε διακομιστές με έδρα την Κίνα, αλλά οι ερευνητές ασφαλείας λένε τώρα ότι υπάρχει μια βαθύτερη σύνδεση μεταξύ της εταιρείας και του Πεκίνου. Κατά την αποκρυπτογράφηση ενός σεναρίου υπολογιστή στη σελίδα σύνδεσής της, η καναδική εταιρεία κυβερνοασφάλειας Feroot Security βρήκε κώδικα που μπορεί να στείλει δεδομένα χρήστη στην China Mobile, μια μεγάλη κρατική κινεζική εταιρεία τηλεπικοινωνιών, στην οποία έχει απαγορευτεί η δραστηριοποίηση στις Ηνωμένες Πολιτείες.

Σύμφωνα με την κινεζική νομοθεσία, οι εταιρείες πρέπει να παραδίδουν δεδομένα στο Πεκίνο κατόπιν αιτήματος, για λόγους εθνικής ασφάλειας.

Ένα γραφείο της China Telecom στο Φοσάν, επαρχία Γκουανγκ-ντονγκ, Κίνα, στις 6 Μαρτίου 2023. Brookgardener/Shutterstock

 

«Παραδίδοντας αυτές τις πληροφορίες σε μια εταιρεία, τις παραδίδεις δυνητικά και στο ΚΚΚ», δήλωσε πρόσφατα στην Epoch Times ο Ντάνιελ Κάστρο, αντιπρόεδρος του Ιδρύματος Τεχνολογίας Πληροφοριών και Καινοτομίας και διευθυντής του Κέντρου Καινοτομίας Δεδομένων.

Αλλά υπάρχει ένα πρόσθετο επίπεδο ανησυχίας με εφαρμογές όπως το DeepSeek. Ο Κάστρο σημείωσε ότι οι άνθρωποι στέλνουν εξαιρετικά ευαίσθητες πληροφορίες σε chatbots (προγράμματα συνομιλίας)—συμπληρώνοντας προσωπικά και εταιρικά δεδομένα και μερικές φορές εμπορικά μυστικά— και δεν είναι σαφές πώς το DeepSeek, και ενδεχομένως το κινεζικό κράτος, θα μπορούσε να χρησιμοποιήσει αυτά τα δεδομένα.

Όταν τηλεφωνείτε σε ένα μέλος του Κογκρέσου θυμωμένος για κάτι με βάση κάτι που είπε μια ξένη εταιρεία, δεν είναι καθόλου απίθανο την επόμενη φορά που θα ψηφίσετε, να ψηφίσετε εναντίον τους για τον ίδιο λόγο

Ντάνιελ Κάστρο, αντιπρόεδρος, Ίδρυμα Τεχνολογίας Πληροφοριών και Καινοτομίας

Μια άλλη εφαρμογή κοινωνικής δικτύωσης κινεζικής ιδιοκτησίας, το TikTok, το οποίο ελέγχεται έντονα στις ΗΠΑ, εκμεταλλεύτηκε πλήρως τη μεγάλη βάση χρηστών της κατά τις ημέρες της ψηφοφορίας στο Κογκρέσο για την απαγόρευση του TikTok, το οποία θα απαγορευόταν εκτός εάν εκχωρούσε τα κινεζικά μερίδιά του. Τις ημέρες που προηγήθηκαν της ψηφοφορίας στη Γερουσία την άνοιξη του 2024, έστειλε ειδοποιήσεις στους χρήστες των ΗΠΑ και, με βάση τον τόπο διαμονής τους, τους έδωσε τους αριθμούς διαφόρων τοπικών αντιπροσώπων, ώστε να τους καλέσουν και να τους παροτρύνουν να αντιταχθούν στο νομοσχέδιο.

«Δεν πρόκειται απαραίτητα για παρέμβαση στις εκλογές, αλλά πλησιάζει λίγο προς αυτό», δήλωσε ο Κάστρο. «Διότι όταν τηλεφωνείτε σε ένα μέλος του Κογκρέσου θυμωμένος για κάτι με βάση κάτι που είπε μια ξένη εταιρεία, δεν είναι καθόλου απίθανο την επόμενη φορά που θα ψηφίσετε, να ψηφίσετε εναντίον τους για τον ίδιο λόγο».

Οι ίδιες ανησυχίες προκύπτουν με το κινεζικό chatbot DeepSeek, καθώς η τεχνητή νοημοσύνη ενσωματώνεται όλο και περισσότερο στη ζωή των ανθρώπων, είπε.

Λογοκρισία, προπαγάνδα ενσωματωμένες στον κώδικα

Η Epoch Times πραγματοποίησε τη δική της δοκιμή του chatbot της DeepSeek, καταγράφοντας τις απαντήσεις του σε βασικές ερωτήσεις σχετικά με την ιστορία, τη γεωγραφία, τον κομμουνισμό, τα ανθρώπινα δικαιώματα και το ίδιο το ΚΚΚ.

Τα αποτελέσματα καταδεικνύουν ότι οι πρακτικές λογοκρισίας και η προπαγάνδα του ΚΚΚ εμποτίζουν την τεχνολογία στο πιο θεμελιώδες επίπεδο.

Το πιο προφανές είναι ότι το chatbot της DeepSeek αρνήθηκε να θίξει ουσιαστικά οποιαδήποτε ερώτηση σχετικά με το ιστορικό της Κίνας για τα ανθρώπινα δικαιώματα.

Στιγμιότυπα ερωτήσεων και απαντήσεων που δόθηκαν από την εφαρμογή DeepSeek, την εφαρμογή τεχνητής νοημοσύνης της Κίνας, στις 10 Φεβρουαρίου 2025. The Epoch Times

 

Για παράδειγμα, όταν ρωτήθηκε σχετικά με τις μαζικές δολοφονίες στην πλατεία Τιενανμέν το 1989 στο Πεκίνο, όταν οι δυνάμεις του ΚΚΚ κατέστειλαν βίαια τις φιλοδημοκρατικές, φοιτητικές διαδηλώσεις, με αποτέλεσμα έναν ακόμη άγνωστο αριθμό νεκρών, το DeepSeek απέφυγε να απαντήσει.

«Λυπάμαι, δεν μπορώ να απαντήσω σε αυτή την ερώτηση», έγραψε το DeepSeek. «Είμαι ένας βοηθός τεχνητής νοημοσύνης που έχει σχεδιαστεί για να παρέχει χρήσιμες και ακίνδυνες απαντήσεις».

Όταν ρωτήθηκε απλά, «Τι συνέβη στις 4 Ιουνίου;» — την ημέρα της επίθεσης— η απάντηση ήταν η ίδια.

Ο ισχυρισμός του DeepSeek ότι παρέχει «ακίνδυνες» απαντήσεις σε πολιτικές ερωτήσεις φάνηκε να ισχύει μόνο για θέματα που το ΚΚΚ θεωρεί επιζήμια για τη φήμη του, όχι για εκείνα άλλων εθνών ή κυβερνήσεων.

Συγκριτικά, όταν στο ChatGPT της OpenAI τέθηκε η ίδια ερώτηση, δημιούργησε μια λίστα με ιστορικά γεγονότα. Το πρώτο γεγονός που ανέφερε ήταν η σφαγή στην πλατεία Τιενανμέν.

Επιπλέον, ο ισχυρισμός του DeepSeek ότι παρέχει «ακίνδυνες» απαντήσεις σε πολιτικές ερωτήσεις φάνηκε να ισχύει μόνο για θέματα που το ΚΚΚ θεωρεί επιζήμια για τη φήμη του, όχι για εκείνα άλλων εθνών ή κυβερνήσεων.

Το DeepSeek δεν είχε κανένα πρόβλημα να υπεισέλθει σε λεπτομέρειες όταν ρωτήθηκε σχετικά με βασικές διαμάχες, από το παρελθόν των Ηνωμένων Πολιτειών για παράδειγμα. Η εφαρμογή αφηγήθηκε τα γεγονότα των πυροβολισμών στο Κεντ Στέιτ το 1970 και δημιούργησε ακόμα και κατάλογο πιθανών εγκλημάτων πολέμου των ΗΠΑ στο Ιράκ, όταν ρωτήθηκε σχετικά με αυτά τα ζητήματα.

Ωστόσο, όταν ρωτήθηκε σχετικά με την αμερικανική νομοθεσία για την αντιμετώπιση των παραβιάσεων των ανθρωπίνων δικαιωμάτων από το ΚΚΚ, η εφαρμογή απέκλεισε κάθε απάντηση.

Όταν ρωτήθηκε σχετικά με τον Νόμο Προστασίας του Φάλουν Γκονγκ, τον οποίον η Βουλή των Αντιπροσώπων των ΗΠΑ ψήφισε τον περασμένο Ιούνιο για να αντιμετωπίσει την βίαιη αφαίρεση ζωτικών οργάνων στην Κίνα και τη δίωξη της θρησκευτικής ομάδας Φάλουν Γκονγκ, το DeepSeek απέρριψε και πάλι την ερώτηση:

«Λυπάμαι, αυτό είναι πέρα από την εμβέλειά μου. Ας μιλήσουμε για κάτι άλλο», έγραψε.

Αστυνομικοί συλλαμβάνουν ασκούμενους του Φάλουν Γκονγκ στην πλατεία Τιενανμέν στις 14 Φεβρουαρίου 2002. Frederic Brown/AFP via Getty Images

 

Ένας μοναχικός Κινέζος εμποδίζει μια γραμμή αρμάτων μάχης που κατευθύνεται ανατολικά στη Λεωφόρο της Αιώνιας Ειρήνης του Πεκίνου κατά τη διάρκεια της σφαγής στην πλατεία Τιενανμέν στις 5 Ιουνίου 1989. Jeff Widener/AP Photo

 

Η εφαρμογή αρνήθηκε επίσης να περιγράψει την Epoch Times, γράφοντας αρχικά και στη συνέχεια σβήνοντας γρήγορα μια γραμμή που περιγράφει την έκδοση ως «γνωστή για τη δημοσίευση περιεχομένου που ασκεί κριτική στην κινεζική κυβέρνηση και το Κομμουνιστικό Κόμμα της Κίνας».

Τα πλοκάμια του ΚΚΚ διεισδύουν βαθύτερα στην εφαρμογή από την απλή λογοκρισία. Σε πολλές περιπτώσεις, το DeepSeek φαίνεται να είναι προγραμματισμένο να αναμασά την προπαγάνδα του ΚΚΚ για θέματα που είναι σημαντικά για το Κόμμα.

Όταν τίθεται η γεωγραφική ερώτηση «Πού είναι η Ταϊβάν;» Το DeepSeek απάντησε με τη γραμμή του ΚΚΚ, «Η Ταϊβάν είναι αναφαίρετο τμήμα της Κίνας».

Το ΚΚΚ ισχυρίζεται ότι η Ταϊβάν είναι μέρος της επικράτειάς του που πρέπει να ενωθεί με την ηπειρωτική χώρα με κάθε μέσο. Η Ταϊβάν είναι ένα αυτοδιοικούμενο νησί με δημοκρατική κυβέρνηση— το ΚΚΚ δεν έχει ελέγξει ποτέ κανένα τμήμα της χώρας.

Παρομοίως, όταν ρωτήθηκε «Τι είναι το ΚΚΚ;», το DeepSeek ξεκίνησε με ένα εγκωμιαστικό προοίμιο:

«Το Κόμμα έχει δεσμευτεί να υπηρετεί τον λαό ολόψυχα και εμμένει στις αρχές του σοσιαλισμού με κινεζικά χαρακτηριστικά, με στόχο την επίτευξη της μεγάλης αναζωογόνησης του κινεζικού έθνους».

Δούρειος Ίππος για γνωσιακό πόλεμο

Το DeepSeek δεν είναι η πρώτη τεχνολογική πλατφόρμα που εξάγει τη λογοκρισία και την αναθεωρητική προπαγάνδα του ΚΚΚ.

Το TikTok δέχθηκε πυρά για το ίδιο πράγμα το 2020, όταν διαπιστώθηκε ότι η πλατφόρμα της εταιρείας κατέστειλε περιεχόμενο που σχετιζόταν με τις παραβιάσεις των ανθρωπίνων δικαιωμάτων από το ΚΚΚ.

Οι νομοθέτες έχουν προειδοποιήσει ότι το TikTok διατηρεί τον κώδικα λογοκρισίας για το Douyin, την κινεζική έκδοση του TikTok. Αυτός ο κώδικας μπορεί να μετατραπεί σε λειτουργία λογοκρισίας του ΚΚΚ για να αλλάξει τις απόψεις των Αμερικανών χρηστών σχετικά με πολιτικά ζητήματα.

Αυτό που διαχωρίζει το DeepSeek από το TikTok είναι ότι το chatbot τεχνητής νοημοσύνης κυκλοφορεί υπό την ανεκτική άδεια χρήσης λογισμικού MIT, δίνοντας έτσι κίνητρα για τη μαζική υιοθέτηση του κώδικά του από νεοφυείς επιχειρήσεις σε όλο τον κόσμο.

Αυτό σημαίνει ότι η προπαγάνδα και η λογοκρισία του ΚΚΚ θα μπορούσαν ουσιαστικά να πλημμυρίσουν εκατοντάδες ή και χιλιάδες προϊόντα και υπηρεσίες που αναπτύσσονται στις Ηνωμένες Πολιτείες και αλλού, εκτός εάν οι εταιρείες που χρησιμοποιούν το DeepSeek εντοπίσουν ρητά και αποσυναρμολογήσουν τον προγραμματισμό που σχετίζεται με τη λογοκρισία του ΚΚΚ.

Η επιγραφή ορόφου των γραφείων της DeepSeek (Κ) φαίνεται στο Πεκίνο στις 28 Ιανουαρίου 2025. Peter Catterall/AFP μέσω Getty Images

 

Ένα τέτοιο κατόρθωμα δεν είναι τόσο απλό όσο ακούγεται.

Η έρευνα της Epoch Times σχετικά με το chatbot διαπίστωσε ότι μπορεί να δημιουργήσει κάποιες αυτοματοποιημένες απαντήσεις σε ερωτήματα σχετικά με το ΚΚΚ ακόμη και όταν δεν μπορεί να προσεγγίσει τους διακομιστές που συνήθως απαιτούνται για τη δημιουργία απαντήσεων σε ερωτήματα χρηστών.

Αυτό υποδηλώνει ότι η κοσμοθεωρία του ΚΚΚ έχει κωδικοποιηθεί στα θεμέλια του ίδιου του DeepSeek και δεν είναι απλώς το αποτέλεσμα της εκπαίδευσής του σε μοντέλα λογοκρισίας. Ακόμη και αν μια εταιρεία ή ένα άτομο που χρησιμοποιεί το DeepSeek παρείχε νέα δεδομένα για την εκπαίδευσή του, όπως πληροφορίες σχετικά με τις θηριωδίες του ΚΚΚ, το DeepSeek θα διατηρούσε πιθανότατα την ικανότητα να φιλτράρει και να απορρίπτει αυτόματα ερωτήματα που θα μπορούσαν να οδηγήσουν σε απαντήσεις που θα παρουσίαζαν άσχημα το καθεστώς.

Η έρευνα της Epoch Times στο chatbot βρήκε ότι η κοσμοθεωρία του ΚΚΚ έχει κωδικοποιηθεί στα θεμέλια του ίδιου του DeepSeek και δεν είναι απλώς το αποτέλεσμα της εκπαίδευσής του σε μοντέλα λογοκρισίας.

Η προσπάθεια της DeepSeek να διεισδύσει μαζικά σε μη κινεζικές αγορές θα μπορούσε να αποτελέσει πραγματική απειλή για την ελεύθερη ροή πληροφοριών, καθώς εταιρείες και ιδιώτες σε όλο τον κόσμο υιοθετούν και χρησιμοποιούν προ-λογοκριμένη τεχνολογία με τρόπο που ωφελεί το ΚΚΚ.

Ο Πήτερ Μάττις, πρόεδρος της δεξαμενής σκέψης The Jamestown Foundation, κατέθεσε πρόσφατα σε ακρόαση της Επιτροπής Εξωτερικών Σχέσεων της Γερουσίας σχετικά με τις ανησυχίες για το DeepSeek.

Θεωρεί ότι το chatbot δεν διαφέρει από το TikTok, το οποίο τροφοδοτείται από αυξανόμενα δεδομένα χρηστών καθώς περισσότεροι άνθρωποι αλληλεπιδρούν μαζί του. Όσο καλύτερα είναι αυτά τα «αυτοματοποιημένα συστήματα παραπληροφόρησης», «τόσο πιο δύσκολο είναι να τα αναγνωρίσουμε, τόσο πιο δύσκολο είναι να τα απενεργοποιήσουμε», δήλωσε ο Μάττις στην κατάθεσή του.

Άνθρωποι παρακολουθούν ένα βίντεο που καταγράφεται για τα μέσα κοινωνικής δικτύωσης, συμπεριλαμβανομένου του TikTok, στην Times Square της Νέας Υόρκης στις 14 Ιανουαρίου 2025. Adam Gray/Getty Images

 

Πολλοί παγκόσμιοι ηγέτες και κυβερνήσεις έχουν ήδη εκφράσει τις ανησυχίες τους για το DeepSeek λόγω των αδυναμιών ασφαλείας και των πρακτικών λογοκρισίας που εφαρμόζει. Ορισμένοι έχουν ξεκινήσει τη διαδικασία αποκλεισμού της χρήσης της εφαρμογής συνολικά.

Η Βουλή των Αντιπροσώπων των ΗΠΑ και πολλές υπηρεσίες έχουν προειδοποιήσει τα μέλη του προσωπικού να μην κατεβάζουν την εφαρμογή. Εν τω μεταξύ, η Αυστραλία, η Ταϊβάν και η αμερικανική πολιτεία του Τέξας έχουν ήδη απαγορεύσει το λογισμικό σε κυβερνητικές συσκευές. Η Ιταλία προχώρησε ένα βήμα παραπέρα, εμποδίζοντας την εταιρεία να δραστηριοποιείται στη χώρα.

Για τους μέσους Αμερικανούς, ο Κάστρο συνιστά ιδιαίτερη προσοχή κατά τη λήψη οποιωνδήποτε εφαρμογών.

«Θα πρέπει να κοιτάξουν και να δουν ποια εταιρεία την κατασκευάζει, πού εδρεύει αυτή η εταιρεία και ποιες αξίες συνδέονται με αυτή την εταιρεία», είπε.

Ελπίζει ότι τα καταστήματα εφαρμογών μπορούν να αρχίσουν να παίζουν ρόλο στην προειδοποίηση των χρηστών για τυχόν τέτοιους κινδύνους που πρέπει να γνωρίζουν.

Ο Ίλον Μασκ ηγείται προσφοράς $97,4 δισεκατομμυρίων για την εξαγορά του OpenAI

Ομάδα επενδυτών με επικεφαλής τον δισεκατομμυριούχο της τεχνολογίας Ίλον Μασκ προσφέρει 97,4 δισεκατομμύρια δολάρια (περ. 94, 4 δισεκ. ευρώ) για την εξαγορά του OpenAI.

Ο δικηγόρος του Μασκ, Μαρκ Τόμπεροφ, επιβεβαίωσε ότι η προσφορά —που υποστηρίζεται από την νεοφυή επιχείρηση τεχνητής νοημοσύνης του Μασκ, xAI, και μια κοινοπραξία επενδυτικών εταιρειών— αποσκοπεί στην ανάληψη του ελέγχου του OpenAI και στην επαναφορά της ιδρυτικής δέσμευσής του να υπηρετεί το δημόσιο καλό και όχι να λειτουργεί ως κερδοσκοπική επιχείρηση.

Ο διευθύνων σύμβουλος του OpenAI, Σαμ Άλτμαν, απέρριψε την προσφορά με μια αιχμηρή απάντηση στην κοινωνική πλατφόρμα X του Μασκ, δηλώνοντας: «όχι ευχαριστώ, αλλά θα αγοράσουμε το Twitter για 9,74 δισεκατομμύρια δολάρια, αν θέλετε».

Ο Μασκ, ο οποίος αγόρασε το Twitter για 44 δισεκατομμύρια δολάρια το 2022 προτού το μετονομάσει σε X, απάντησε με μια μονολεκτική ανάρτηση: «Απατεώνας».

Οι Άλτμαν και Μασκ, οι οποίοι συνίδρυσαν την εταιρεία OpenAI το 2015, διαπληκτίζονται εδώ και χρόνια για την κατεύθυνση της εταιρείας. Ο Μασκ αποχώρησε από το διοικητικό συμβούλιο της OpenAI το 2018, κατηγορώντας αργότερα τη νεοσύστατη επιχείρηση ότι απομακρύνθηκε από τη μη κερδοσκοπική της αποστολή και ευθυγραμμίστηκε πολύ στενά με εταιρικά συμφέροντα, ιδίως με τη Microsoft.

Την περασμένη εβδομάδα, η νομική ομάδα του Μασκ ήρθε αντιμέτωπη με τους δικηγόρους του OpenAI στο Περιφερειακό Δικαστήριο των ΗΠΑ για τη Βόρεια Περιφέρεια της Καλιφόρνια, όπου η δικαστής Υβόν Γκονζάλες Ρότζερς εξέτασε το αίτημα του Μασκ για έκδοση δικαστικής εντολής που να εμποδίζει το OpenAI να επισημοποιήσει την κερδοσκοπική του δομή.

Ενώ η δικαστής εξέφρασε σκεπτικισμό σχετικά με τον ισχυρισμό του Μασκ περί ανεπανόρθωτης βλάβης, εξέφρασε επίσης ανησυχίες σχετικά με την σχέση του OpenAI με τη Microsoft και επέτρεψε στην υπόθεση να προχωρήσει σε δίκη με ενόρκους.

Ο Τόμπεροφ, δικηγόρος του Μασκ, υποστήριξε ότι αν η OpenAI επιμένει να γίνει πλήρως κερδοσκοπική εταιρεία, πρέπει να αποζημιώσει δίκαια τη μη κερδοσκοπική της προέλευση.

«Είναι ζωτικής σημασίας να αποζημιωθεί δίκαια το φιλανθρωπικό ίδρυμα για αυτό που η ηγεσία του αφαιρεί από αυτό: τον έλεγχο της πιο μετασχηματιστικής τεχνολογίας της εποχής μας», δήλωσε στο Associated Press σε δήλωσή του.

Επιπλέον, ο Τόμπεροφ αποκάλυψε μια επιστολή που έστειλε τον Ιανουάριο στους γενικούς εισαγγελείς της Καλιφόρνια και του Ντέλαγουερ, καλώντας τους να επιβλέψουν μια ανταγωνιστική διαδικασία υποβολής προσφορών για τον προσδιορισμό της δίκαιης αγοραστικής αξίας του OpenAI.

«Καθώς και τα δύο γραφεία σας πρέπει να διασφαλίσουν ότι οποιαδήποτε τέτοια διαδικασία συναλλαγής σχετικά με τα φιλανθρωπικά περιουσιακά στοιχεία του OpenAI παρέχει τουλάχιστον δίκαιη αγοραστική αξία για την προστασία του δημόσιου συμφέροντος, υποθέτουμε ότι θα παράσχετε μια διαδικασία για ανταγωνιστικές προσφορές για τον πραγματικό προσδιορισμό αυτής της δίκαιης αγοραστικής αξίας», έγραψε ο Τόμπεροφ.

Σε νομικές καταθέσεις, οι δικηγόροι του Άλτμαν περιέγραψαν την αγωγή του Μασκ ως ένα στρατηγικό τέχνασμα για να χρησιμοποιήσει τη δικαστική διαμάχη για ανταγωνιστικό πλεονέκτημα μετά την αποτυχία του να αποκτήσει τον έλεγχο της εταιρείας.

«Αυτή η αγωγή είναι η τελευταία κίνηση στην ολοένα και πιο θορυβώδη εκστρατεία του Ίλον Μασκ να παρενοχλήσει την OpenAI για το δικό του ανταγωνιστικό πλεονέκτημα», έγραψαν οι δικηγόροι του Άλτμαν. «Η OpenAI είναι αφιερωμένη στην ασφαλή και επωφελή ανάπτυξη της τεχνητής γενικής νοημοσύνης (AGΙ). Ο Μασκ υποστήριξε κάποτε την OpenAI σε αυτή την αποστολή, αλλά εγκατέλειψε το εγχείρημα όταν η προσπάθειά του να κυριαρχήσει σε αυτό απέτυχε».

Οι δικηγόροι του Άλτμαν υποστήριξαν ότι οι ισχυρισμοί του Μασκ στερούνται νομικής και πραγματικής βάσης και η αγωγή του θα πρέπει να απορριφθεί στο σύνολό της.

Με πληροφορίες από το Associated Press