Παρασκευή, 09 Μαΐ, 2025

Ανθρωποκεντρική Tεχνητή Νοημοσύνη: Το όραμα της Ελλάδας στον ΟΗΕ

‘Ατυπη συνεδρίαση του Συμβουλίου Ασφαλείας του ΟΗΕ -γνωστή ως «φόρμουλα ‘Αρια»- με τίτλο «αξιοποιώντας την ασφαλή, χωρίς αποκλεισμούς και αξιόπιστη τεχνητή νοημοσύνη για τη διατήρηση της διεθνούς ειρήνης και ασφάλειας» διοργάνωσε η Ελλάδα μαζί με τη Γαλλία και τη Δημοκρατία της Κορέας, με συνδιοργανωτές την Αρμενία, την Ιταλία και την Ολλανδία.

Σκοπός της συνεδρίασης ήταν να εξεταστούν τα πρακτικά βήματα που μπορούν να ληφθούν από τον ΟΗΕ και το Συμβούλιο Ασφαλείας για την υπεύθυνη χρήση της τεχνητής νοημοσύνης (AI) για την προστασία της διεθνούς ειρήνης και ασφάλειας.

Οι βασικοί ομιλητές ήταν ο Γιάννης Μαστρογεωργίου, Ειδικός Γραμματέας Στρατηγικής Προοπτικής της Ελληνικής Κυβέρνησης, η Γιασμίν Αφινά, ερευνήτρια AI στο UNIDIR και η Σαρλότ Σκάνταν, Σύμβουλος Πληροφοριακής Ακεραιότητας στο Τμήμα Παγκόσμιας Επικοινωνίας του ΟΗΕ.

Η συνάντηση εστίασε σε τρέχουσες πρωτοβουλίες, προκλήσεις και ευκαιρίες σχετικά με την τεχνητή νοημοσύνη AI, ειδικά σε αποστολές διατήρησης της ειρήνης.

Πρακτικά μέτρα που συζητήθηκαν περιλάμβαναν ρυθμιστικές παρεμβάσεις, μη διάδοση, αποτροπή κακόβουλης στρατιωτικής χρήσης, καθώς και ενίσχυση του κράτους δικαίου και της κοινωνικής συνοχής.

Ο Μόνιμος Αντιπρόσωπος της Ελλάδας, πρέσβης Ευάγγελος Σέκερης, υπογράμμισε τη σημασία της συνεργασίας για την αντιμετώπιση των προκλήσεων που επιφέρει η Τεχνητή Νοημοσύνη.

Xαρακτήρισε την τεχνητή νοημοσύνη ως «την πιο αξιοσημείωτη τεχνολογική καινοτομία της εποχής μας» και τόνισε τη δέσμευσή της Ελλάδας για μια «ανθρωποκεντρική ατζέντα για την τεχνητή νοημοσύνη», βασισμένη στη διαφάνεια, την ηθική χρήση και τη λογοδοσία, ώστε να ενισχύεται η προστασία των ανθρωπίνων δικαιωμάτων και των δημοκρατικών αρχών.

Αναγνώρισε τη σύνδεση της τεχνητής νοημοσύνης με τη διεθνή ειρήνη και ασφάλεια, με αναφορά σε πολλές διεθνείς πρωτοβουλίες και σημείωσε ότι ο Έλληνας Πρωθυπουργός υπέγραψε τη «Διακήρυξη των Παρισίων για τη Διατήρηση του Ανθρώπινου Ελέγχου στα Οπλικά Συστήματα με τεχνητή νοημοσύνη», δεσμευόμενος για υπεύθυνη χρήση της στο στρατιωτικό πεδίο «σε συμφωνία με το διεθνές δίκαιο».

Η Ελλάδα προετοιμάζει εθνική συνεισφορά στην έκθεση του Γενικού Γραμματέα σχετικά με την τεχνητή νοημοσύνη και τη διεθνή ασφάλεια, ενώ οργανώνει και «Διεθνές Συνέδριο Διαχείρισης Κρίσεων» τον Μάιο, με αντικείμενο την τεχνητή στον στρατιωτικό τομέα.

Ο κ. Σέκερης κάλεσε το Συμβούλιο Ασφαλείας να μην αγνοήσει τη «διεθνή συναίνεση» για την ανάγκη ρύθμισης της τεχνητής νοημοσύνης και πρότεινε να συμπεριληφθεί σε εντολές ειρηνευτικών αποστολών η «υπεύθυνη χρήση εφαρμογών τεχνητής νοημοσύνης» με στόχο την προστασία των ειρηνευτικών αποστολών και των αμάχων, καθώς και την αντιμετώπιση «κακόβουλων κυβερνοεπιθέσεων, ρητορικής μίσους και παραπληροφόρησης».

Ιδιαίτερη έμφαση δόθηκε στην ανάγκη συμμόρφωσης με τον «Χάρτη του ΟΗΕ και το Διεθνές Δίκαιο, συμπεριλαμβανομένου του Διεθνούς Ανθρωπιστικού Δικαίου και του Δικαίου των Ανθρωπίνων Δικαιωμάτων».

Η Ελλάδα στήριξε την έκκληση του Γενικού Γραμματέα για «απαγόρευση των φονικών αυτόνομων όπλων» και τη θέσπιση περιορισμών έως το 2026, δηλώνοντας έτοιμη να συμμετάσχει στις σχετικές συζητήσεις ως «εκλεγμένο μέλος του Συμβουλίου Ασφαλείας».

Ο κ. Σέκερης έκανε έκκληση για «ενότητα, διορατικότητα και όραμα» από το Συμβούλιο Ασφαλείας, ώστε να συμβάλει «στις παγκόσμιες προσπάθειες για την αξιοποίηση ασφαλούς, και αξιόπιστης τεχνητής νοημοσύνης για τη διατήρηση της διεθνούς ειρήνης και ασφάλειας».

Ο Γιάννης Μαστρογεωργίου, Ειδικός Γραμματέας Στρατηγικής Προοπτικής της ελληνικής κυβέρνησης και συντονιστής της Συμβουλευτικής Επιτροπής Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη μιλώντας στη συνεδρίαση ανέφερε ότι η Ελλάδα δίνει ιδιαίτερη έμφαση στη διαμόρφωση ενός «παγκόσμιου πλαισίου για την ασφαλή, αξιόπιστη και χωρίς αποκλεισμούς Τεχνητή Νοημοσύνη (AI)».

Η χώρα μας, τόνισε, στηρίζει ενεργά τον ρόλο του ΟΗΕ ως καταλύτη για τη διαμόρφωση κοινών ηθικών και ρυθμιστικών προτύπων, με στόχο η τεχνητή νοημοσύνη να λειτουργήσει προς όφελος της ανθρωπότητας και όχι εις βάρος της διεθνούς ειρήνης και ασφάλειας. Η εθνική στρατηγική για την τεχνητή νοημοσύνη στην Ελλάδας, όπως αποτυπώνεται στον «Οδικό Χάρτη για τον Ψηφιακό Μετασχηματισμό», προτάσσει μια ανθρωποκεντρική προσέγγιση, με έμφαση στη διαφάνεια, τη δημοκρατία και τη βιώσιμη ανάπτυξη.

Η Ελλάδα ανέφερε, συμμετέχει σε κορυφαίες διεθνείς πρωτοβουλίες όπως η Σύνοδος Κορυφής AI στο Παρίσι, το GPAI, η Επιτροπή AI του Συμβουλίου της Ευρώπης, ενώ συνεργάζεται με κορυφαία ακαδημαϊκά ιδρύματα (Oxford, Stanford, Harvard) στο «Lyceum Project», που ενσωματώνει τις αξίες της αριστοτελικής ηθικής στη ρύθμιση της τεχνητής νοημοσύνης.

Επιπλέον, η Ελλάδα αποτελεί μία από τις 7 χώρες της ΕΕ που φιλοξενούν «AI Factories», ενισχύοντας την καινοτομία, τη σύνδεση επιστήμης και οικονομίας και την κοινωνική συνοχή.

Η ελληνική πλευρά τονίζει πως η τεχνητή νοημοσύνη δεν είναι απλώς τεχνολογία, αλλά βαθιά κοινωνική αλλαγή. Υπογραμμίζει την ανάγκη προστασίας των ανηλίκων από τους κινδύνους των εθιστικών αλγορίθμων και της ψηφιακής χειραγώγησης, ενώ στηρίζει την ένταξη της τεχνητής νοημοσύνης στην παγκόσμια ατζέντα ειρήνης και ασφάλειας του ΟΗΕ.

Η εθνική στρατηγική της Ελλάδας για την τεχνητή νοημοσύνη στοχεύει να εξασφαλίσει ότι η τεχνολογική πρόοδος θα συμβαδίζει με «την ενίσχυση των ανθρωπίνων δικαιωμάτων και των δημοκρατικών αρχών».

Στο ίδιο πνεύμα, παρουσιάστηκε το εθνικό σχέδιο «Blueprint for Greece’s AI Transformation», το οποίο καθορίζει αρχές και έργα για την πρόοδο της τεχνητής νοημοσύνης με στόχους όπως η «ενίσχυση της δημοκρατίας, η περιβαλλοντική βιωσιμότητα και η προστασία της κοινωνίας από κινδύνους μη ρυθμιζόμενης χρήσης».

Η Ελλάδα προτείνει συγκεκριμένα βήματα στο πλαίσιο του ΟΗΕ:

– «Διεθνή ερευνητικά κέντρα για την ασφάλεια και την ηθική της τεχνητής νοημοσύνης»

– «Δημιουργία διεθνούς παρατηρητηρίου τεχνητής νοημοσύνης»

– «Εξειδικευμένα φόρα διαλόγου μεταξύ υπευθύνων πολιτικής, επιστημόνων, κοινωνίας πολιτών και βιομηχανίας»

Ο κ. Μαστρογεωργίου επανέλαβε την ανάγκη λήψης μέτρων για την προστασία των παιδιών από «τους κινδύνους του ψηφιακού κόσμου, τους εθιστικούς αλγόριθμους και τους μηχανισμούς χειραγώγησης», τονίζοντας ότι η τεχνητή νοημοσύνη αποτελεί «βαθιά κοινωνική αλλαγή που επηρεάζει τον τρόπο που εργαζόμαστε, επικοινωνούμε, εκπαιδευόμαστε και μεγαλώνουμε τα παιδιά μας».

Η Ελλάδα προειδοποιεί, ανέφερε, πως χωρίς κοινό ρυθμιστικό πλαίσιο, η τεχνητή νοημοσύνη μπορεί να αυξήσει τις διακρίσεις και να απειλήσει την ειρήνη.

Κύπρος: Αξιοποίηση τεχνητής νοημοσύνης για δημόσιο καλό, οικονομική ανάπτυξη, καινοτομία

H Aναπλ. Μόνιμη Αντιπρόσωπος της Κύπρου Γαβριέλλα Μιχαηλίδου, που συμμετείχε στη συνεδρίαση τόνισε ότι η Κυπριακή Δημοκρατία θα αξιοποιήσει την τεχνητή νοημοσύνη για «το δημόσιο καλό, την οικονομική ανάπτυξη και την καινοτομία», διασφαλίζοντας ότι η ανάπτυξή της παραμένει «ηθική και διαφανής», σε συμφωνία με τα ευρωπαϊκά και διεθνή πρότυπα.

Η Κύπρος επισήμανε την ανάγκη για άμεση καθιέρωση «αρχών, των διεθνών κανόνων και κανονισμών» σχετικά με τις αναδυόμενες τεχνολογίες όπως η τεχνητή νοημοσύνη και τα αυτόνομα οπλικά συστήματα, προκειμένου να διασφαλιστεί η αποτελεσματική διαχείριση συγκρούσεων και η διατήρηση της διεθνούς ασφάλειας.

Η διαφάνεια και η ενσωμάτωση, ανέφερε, κρίνονται απαραίτητες για την αποτροπή «κακής χρήσης που θα μπορούσε να απειλήσει την πολιτική σταθερότητα, τη δημοκρατία και τη διεθνή ασφάλεια», με έμφαση στην προστασία ευάλωτων ομάδων από «δυσανάλογες βλάβες».

Τόνισε επίσης τη σημασία της διαδικασίας REAIM στη διαμόρφωση «διεθνών ηθικών προτύπων» που ενισχύουν την εμπιστοσύνη και μειώνουν τους κινδύνους που σχετίζονται με τον κυβερνοπόλεμο και τις στρατιωτικές δυνατότητες που βασίζονται στην τεχνητή νοημοσύνη.

Υπογραμμίζοντας ότι «το διεθνές δίκαιο εφαρμόζεται στην τεχνητή νοημοσύνη», η Κύπρος υποστήριξε τον ενεργό ρόλο του ΟΗΕ-ιδίως μέσω του Συμβουλίου Ασφαλείας-για την προώθηση ρυθμίσεων που αποτρέπουν «κακόβουλες ενέργειες, όπως η ανάπτυξη αυτόνομων όπλων, ο κυβερνοπόλεμος και η παραπληροφόρηση».

Σε περιβαλλοντικό επίπεδο, η Κύπρος στηρίζει λύσεις μέσω τεχνητής νοημοσύνης που μειώνουν την κατανάλωση ενέργειας και τις εκπομπές άνθρακα, στηρίζοντας τον «Συνασπισμό για Βιώσιμη Τεχνητή Νοημοσύνη» και προωθώντας πολιτικές που ευθυγραμμίζονται με τους στόχους βιωσιμότητας της ΕΕ και σε παγκόσμιο επίπεδο.

Τέλος, η Κύπρος τονίζει την ανάγκη για στενές συνεργασίες μεταξύ ΟΗΕ, κυβερνήσεων, τεχνολογικού τομέα και κοινωνίας των πολιτών ώστε να διατηρηθεί «η ακεραιότητα της πληροφορίας» και να αντιμετωπιστούν αποτελεσματικά ο εξτρεμισμός και η ρητορική μίσους, συμβάλλοντας συνολικά στην «ενίσχυση της διεθνούς ειρήνης, ασφάλειας και της συμμόρφωσης με το διεθνές ανθρωπιστικό δίκαιο».

Στη συνεδρίαση τονίστηκε η ανάγκη για μια χωρίς αποκλεισμούς και συντονισμένη προσέγγιση, ώστε η τεχνητή νοημοσύνη AI να αξιοποιηθεί για την ειρήνη και όχι για την πρόκληση συγκρούσεων.

Του Γ. Γαραντζιώτη

Ειδικοί καλούν την Αυστραλία να διαχειριστεί τους κινδύνους της AI «πριν να είναι αργά»

Περισσότεροι από 100 ειδικοί στην τεχνητή νοημοσύνη και ανήσυχα μέλη της κοινότητας υπέγραψαν ανοιχτή επιστολή, ζητώντας από την επόμενη αυστραλιανή κυβέρνηση να δημιουργήσει ένα Ινστιτούτο Ασφαλείας AI (AI Safety Institute-AISI) ώστε να διαχειριστεί τους κινδύνους που απορρέουν από την τεχνολογία πριν να είναι πολύ αργά. Η επιστολή απεστάλη στα πολιτικά κόμματα εν όψει των ομοσπονδιακών εκλογών του Μαΐου.

Οι ειδικοί προέτρεψαν τους πολιτικούς να τηρήσουν τις δεσμεύσεις που ανέλαβε η αυστραλιανή κυβέρνηση στη Σύνοδο Κορυφής της Σεούλ για την AI τον Μάιο του 2024. Σύμφωνα με τη Διακήρυξη της Σεούλ (Seoul Declaration), οι συμμετέχουσες χώρες υποσχέθηκαν να «δημιουργήσουν ή να επεκτείνουν ινστιτούτα ασφάλειας της AI, ερευνητικά προγράμματα και άλλους σχετικούς θεσμούς, συμπεριλαμβανομένων εποπτικών φορέων». Ωστόσο, η Αυστραλία παραμένει η μόνη χώρα που υπέγραψε τη διακήρυξη χωρίς να έχει ιδρύσει ακόμη ένα τέτοιο ινστιτούτο.

Ο Γκρεγκ Σάντλερ, διευθύνων σύμβουλος της Good Ancestors Policy («Πολιτική καλών προγόνων») και συντονιστής της ομάδας Australians for AI Safety («Αυστραλοί για την ασφάλεια της AI»), επεσήμανε ότι η αθέτηση μίας επίσημης δέσμευσης δημιουργεί ένα επικίνδυνο προηγούμενο για τη χώρα.

Ο Τόμπι Όρντ, ανώτερος ερευνητής στο Πανεπιστήμιο της Οξφόρδης και μέλος του διοικητικού συμβουλίου του Centre for the Governance of AI («Κέντρο για τη διακυβέρνηση της ΑΙ»), προειδοποίησε ότι η Αυστραλία κινδυνεύει να βρεθεί σε θέση όπου δεν θα έχει ουσιαστικό λόγο για τα συστήματα τεχνητής νοημοσύνης. Σύμφωνα με τον ίδιο, η ίδρυση ενός αυστραλιανού Ινστιτούτου Ασφαλείας AI θα της επέτρεπε να συμμετέχει ενεργά στη διεθνή διακυβέρνηση αυτής της κρίσιμης τεχνολογίας.

Η επιστολή τόνισε, επίσης, ότι ενώ οι οργανισμοί επενδύουν τεράστια ποσά στην ενίσχυση των δυνατοτήτων της AI, ελάχιστη χρηματοδότηση διατίθεται για την κατανόηση και την αντιμετώπιση των κινδύνων της. Ο Σάντλερ ανέφερε σε προηγούμενη συνέντευξή του ότι για κάθε 250 δολάρια που δαπανώνται για την ανάπτυξη της AI, μόλις 1 δολάριο επενδύεται στην ασφάλειά της.

Η επιστολή υπογράμμισε την ανάγκη ύπαρξης ανεξάρτητης τεχνικής εξειδίκευσης εντός της κυβέρνησης, ώστε να συνδεθεί η Αυστραλία με την παγκόσμια έρευνα για τους κινδύνους της AI και να διασφαλιστεί ότι οι ρυθμίσεις και οι πολιτικές καλύπτουν τις ανάγκες της χώρας.

Υποχρεωτικά μέτρα ασφαλείας για την AI

Παράλληλα, οι ειδικοί ζήτησαν τη θέσπιση ενός «Νόμου για την AI», ο οποίος θα υποχρεώνει τους προγραμματιστές και τους παρόχους της τεχνητής νοημοσύνης στην Αυστραλία να εφαρμόζουν υποχρεωτικές δικλείδες ασφαλείας στα προϊόντα τους. Αν και η κυβέρνηση έχει ήδη διαβουλευτεί με τον κλάδο σχετικά με την ασφαλή και υπεύθυνη χρήση της AI, καθώς και την πιθανότητα επιβολής υποχρεωτικών μέτρων προστασίας για τα συστήματα υψηλού κινδύνου, οι ειδικοί θεωρούν ότι ήρθε η ώρα το επόμενο κοινοβούλιο να μετατρέψει τη συζήτηση σε πράξη.

Ο καθηγητής Πωλ Σάλμον από το Πανεπιστήμιο του Sunshine Coast και ιδρυτής του Centre for Human Factors and Sociotechnical Systems («Κέντρου Ανθρωποκεντρικών και Κοινωνικοτεχνικών Συστημάτων») υποστήριξε την υιοθέτηση ενός Νόμου για την AI, σημειώνοντας ότι κάτι τέτοιο θα εξασφάλιζε την αποτελεσματική διαχείριση των κινδύνων. Ο Σάλμον προειδοποίησε ότι η ευκαιρία να διασφαλιστεί ότι όλες οι τεχνολογίες AI είναι ασφαλείς, ηθικές και επωφελείς για την ανθρωπότητα χάνεται με ταχύ ρυθμό.

Ο Γιάννης Κυριάκος, διευθυντής της AI Safety Australia and New Zealand, επεσήμανε ότι η Αυστραλία δεν διαθέτει επί του παρόντος νομικό πλαίσιο που να εγγυάται στους πολίτες ότι η AI είναι ασφαλής προς υιοθέτηση. Τόνισε ότι η ύπαρξη ισχυρών μηχανισμών διασφάλισης είναι απαραίτητη για την εμπιστοσύνη του κοινού. Σύμφωνα με τον ίδιο, ενώ υπάρχει ενθουσιασμός για τις δυνατότητες της AI, δεν καταβάλλονται επαρκείς προσπάθειες για την αντιμετώπιση σοβαρών ανησυχιών που αφορούν την ασφάλεια. Aναφερόμενος στις επιφυλάξεις των πολιτών, σημείωσε ότι είναι λογικό οι Αυστραλοί να διστάζουν να υιοθετήσουν την AI όσο παραμένουν άλυτα τα κρίσιμα αυτά ζητήματα.

Μελέτη του Πανεπιστημίου του Κουήνσλαντ το 2024 έδειξε ότι η κορυφαία προτεραιότητα για τους πολίτες είναι η πρόληψη επικίνδυνων και καταστροφικών συνεπειών από την AI, με οκτώ στους δέκα να θεωρούν ότι η αποτροπή μιας πιθανής εξαφάνισης λόγω της AI πρέπει να αποτελεί παγκόσμια προτεραιότητα. Οι μεγαλύτερες ανησυχίες των ερωτηθέντων αφορούσαν την πιθανότητα η AI να λειτουργήσει σε αντίθεση με τα ανθρώπινα συμφέροντα, την κακόβουλη χρήση της από τρίτους και τις επιπτώσεις της στην απασχόληση. Επιπρόσθετα, εννέα στους δέκα συμμετέχοντες επιθυμούσαν τη δημιουργία ενός νέου ρυθμιστικού φορέα για την AI από την κυβέρνηση.

Του Alfred Bui

Καναδικό πανεπιστήμιο απαγορεύει το κινεζικό AI DeepSeek λόγω ανησυχιών για την ασφάλεια και την ιδιωτικότητα

Σε μία κίνηση που αντικατοπτρίζει τις αυξανόμενες ανησυχίες για τις κινεζικές εφαρμογές τεχνητής νοημοσύνης, το Πανεπιστήμιο της Βρετανικής Κολούμπια (UBC) στον Καναδά ανακοίνωσε την απαγόρευση του κινεζικού εργαλείου τεχνητής νοημοσύνης DeepSeek από όλες τις συσκευές και τα δίκτυα του ιδρύματος.

Σοβαρές ανησυχίες για την ασφάλεια και την ιδιωτικότητα

Σε ανακοίνωση που εξέδωσε στις 20 Μαρτίου, το UBC διευκρίνισε ότι η απόφαση ελήφθη αφότου η εφαρμογή χαρακτηρίστηκε «υψηλού κινδύνου» σε σχέση με την ιδιωτικότητα και την ασφάλεια των δεδομένων.

«Οι εφαρμογές του DeepSeek εγείρουν ανησυχίες για την ιδιωτικότητα και την ασφάλεια, ιδιαίτερα όσον αφορά την εκτεταμένη συλλογή και κοινή χρήση δεδομένων, συμπεριλαμβανομένων προσωπικών πληροφοριών και του δικαιώματος καταγραφής πληκτρολογήσεων, μαζί με αδύναμες πρακτικές κρυπτογράφησης και ασφάλειας», ανέφερε το πανεπιστήμιο.

Η απόφαση βασίστηκε σε εκτενή αξιολόγηση δημόσιων πληροφοριών και αξιολογήσεων τρίτων για το DeepSeek, συμπεριλαμβανομένων ευρημάτων από κορυφαίους ερευνητές κυβερνοασφάλειας, αναλύσεις εταιρειών ασφαλείας και κατευθυντήριες γραμμές από ομοσπονδιακές και επαρχιακές κυβερνήσεις.

Αυστηροί περιορισμοί και συνέπειες μη συμμόρφωσης

Το UBC όχι μόνο περιορίζει την εγκατάσταση και χρήση των εφαρμογών DeepSeek στο πανεπιστήμιο, αλλά «συνιστά έντονα» να αποφεύγεται η χρήση ή εγκατάστασή του ακόμη και σε προσωπικές συσκευές, ειδικά σε αυτές που χρησιμοποιούνται για πανεπιστημιακές δραστηριότητες.

Η απαγόρευση περιλαμβάνει:
– Συσκευές του πανεπιστημίου
– Ασύρματα δίκτυα του UBC
– Συστήματα βιβλιοθήκης
– Άλλα συστήματα που απαιτούν όνομα χρήστη και κωδικό πρόσβασης

Το πανεπιστήμιο προειδοποιεί ότι θα χρησιμοποιήσει «προληπτικά μέτρα για να αποκλείσει τις εφαρμογές DeepSeek για τους χρήστες» στα δίκτυά του, ενώ τονίζει ότι οι χρήστες που δεν συμμορφώνονται με τα πρότυπα του UBC θα υπόκεινται σε «πλήρες φάσμα πειθαρχικών ενεργειών», που μπορεί να περιλαμβάνουν ακόμη και την απώλεια πρόσβασης σε προνόμια υπολογιστών και δίκτυα του πανεπιστημίου.

Αξιοσημείωτο είναι ότι, σύμφωνα με εκπρόσωπο του UBC, το DeepSeek είναι το μοναδικό εργαλείο τεχνητής νοημοσύνης που έχει απαγορευτεί στο πανεπιστήμιο, το οποίο δεν σχεδιάζει να περιορίσει άλλες παρόμοιες εφαρμογές.

Μέρος ενός ευρύτερου κύματος απαγορεύσεων

Η απόφαση του UBC ακολουθεί ένα κύμα παρόμοιων απαγορεύσεων παγκοσμίως. Το DeepSeek, που έγινε μία από τις πιο δημοφιλείς δωρεάν εφαρμογές στο App Store της Apple όταν κυκλοφόρησε στα τέλη Ιανουαρίου, γρήγορα βρέθηκε στο επίκεντρο λόγω ανησυχιών για την ασφάλεια.

Τον Φεβρουάριο, η καναδική κυβέρνηση απαγόρευσε το DeepSeek από τις κυβερνητικές συσκευές, με τον διευθύνοντα σύμβουλο Πληροφορικής του Καναδά, Ντομινίκ Ροσόν, να επικαλείται «σοβαρές ανησυχίες για την ιδιωτικότητα, που σχετίζονται με την ακατάλληλη συλλογή και διατήρηση ευαίσθητων προσωπικών πληροφοριών».

Παράλληλες απαγορεύσεις έχουν επιβληθεί και από άλλες χώρες:
– Η Αυστραλία απαγόρευσε την εφαρμογή στις 4 Φεβρουαρίου, χαρακτηρίζοντάς την «απαράδεκτο κίνδυνο»
– Η Ταϊβάν ανακοίνωσε απαγόρευση για τις δημόσιες υπηρεσίες λόγω ανησυχιών εθνικής ασφάλειας
– Αμερικανοί νομοθέτες, από διαφορετικές πολιτικές παρατάξεις, εισήγαγαν νομοσχέδιο τον Φεβρουάριο που επιδιώκει να απαγορεύσει τη χρήση της κινεζικής εφαρμογής σε κυβερνητικές συσκευές

Ανησυχίες για προπαγάνδα και λογοκρισία του ΚΚΚ

Πέρα από τις ανησυχίες για την ασφάλεια των δεδομένων, επικριτές του κινεζικού καθεστώτος έχουν εκφράσει προβληματισμούς σχετικά με τον πιθανό ρόλο του DeepSeek στην προώθηση της περιστολής ανθρωπίνων δικαιωμάτων και της λογοκρισίας από το Κομμουνιστικό Κόμμα Κίνας (ΚΚΚ).

Η εκτενής εξέταση της εφαρμογής που έκανε η Epoch Times τον προηγούμενο μήνα έδειξε ότι το πρόγραμμα ακολουθεί στενά την ιδεολογία του ΚΚΚ, λογοκρίνοντας απαντήσεις επικριτικές προς το καθεστώς και προωθώντας απόψεις ευνοϊκές προς αυτό.

Η αυξανόμενη τάση απαγορεύσεων του DeepSeek αντικατοπτρίζει τις ευρύτερες ανησυχίες για την ασφάλεια των κινεζικών τεχνολογικών προϊόντων και τη δυνητική τους χρήση για στόχους που υπερβαίνουν τις συνήθεις εμπορικές εφαρμογές.

Οι ψεύτικες εικόνες είναι παντού — Πώς να τις εντοπίσετε

Καθώς η τεχνητή νοημοσύνη (AI) συνεχίζει να αναπτύσσεται, γίνεται όλο και πιο δύσκολο να διακρίνει κανείς τη διαφορά μεταξύ πραγματικών φωτογραφιών και εικόνων που δημιουργούνται από AI.

Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει τα πάντα, από εκπληκτικά τοπία έως ζωντανά πορτρέτα σε λίγες στιγμές — και με την πρώτη ματιά, μπορεί να φαίνονται απολύτως πραγματικά.

Σε αυτήν την εποχή της παραπληροφόρησης, πώς μπορείτε να διακρίνετε εάν οι εικόνες που βλέπετε είναι πραγματικές ή κατασκευασμένες;

Ευτυχώς, υπάρχουν λεπτές ενδείξεις που μπορούν να μας βοηθήσουν να ξεχωρίσουμε, συμπεριλαμβανομένων των ασυνεπειών στην υφή, των ανωμαλιών στα ανθρώπινα χαρακτηριστικά και της μπερδεμένης γραφής. Κατανοώντας αυτά τα ενδεικτικά σημεία, μπορείτε να πλοηγηθείτε καλύτερα στις ψηφιακές πληροφορίες και να αξιολογήσετε την αυθεντικότητα των εικόνων που συναντάτε.

Αφύσικα χέρια και άκρα

AI που δημιουργήθηκε με Freepik

 

Τα χέρια και τα άκρα είναι εκπληκτικά πολύπλοκες δομές και η τεχνητή νοημοσύνη συχνά παλεύει να τα σχεδιάσει με ακρίβεια. Ψάξτε για άκυρα, παράξενα σχήματα ή κακώς ευθυγραμμισμένα δάχτυλα. Μπορεί επίσης να τοποθετηθούν με ασυνήθιστο τρόπο ή να έχουν ακατάλληλες διαστάσεις.

Στην παραπάνω εικόνα, τα χέρια και τα πόδια των παιδιών φαίνονται αφύσικα, με κακοσχηματισμένα δάχτυλα των χεριών και ποδιών, καθώς και εσφαλμένα ευθυγραμμισμένα λουριά σανδαλιών.

AI που δημιουργήθηκε με Freepik

 

Ασυμφωνίες στις λεπτομέρειες

AI που δημιουργήθηκε με το Flux Pro

 

Η τεχνητή νοημοσύνη δυσκολεύεται να αποδώσει μικρές λεπτομέρειες, επομένως μπορεί επίσης να δείτε αντικείμενα και στοιχεία να συγχωνεύονται διακριτικά μεταξύ τους με αφύσικους τρόπους. Αυτές οι ατέλειες προκύπτουν επειδή η τεχνητή νοημοσύνη βασίζεται στην αναγνώριση προτύπων, η οποία μπορεί να αποτύχει όταν χειρίζεστε περίπλοκες ή μικρές λεπτομέρειες.

Επομένως, εάν δεν είστε βέβαιοι εάν μια φωτογραφία πλήθους είναι πραγματική, ρίξτε μια ματιά στις λεπτομέρειες. Για παράδειγμα, τα πρόσωπα φόντου είναι συχνά θολά ή έχουν απαλά, κακώς καθορισμένα χαρακτηριστικά.

Σε αυτήν την εικόνα που δημιουργήθηκε από τεχνητή νοημοσύνη, ο άνδρας στο νερό έχει ένα θολό πρόσωπο και χέρια χωρίς δάχτυλα, ενώ ο νεαρός άνδρας στην άμμο έχει ένα διαφανές πόδι που φαίνεται να συγχωνεύεται στο φόντο.

AI που δημιουργήθηκε με το Flux Pro

 

Υπερβολικά τέλειο δέρμα

AI που δημιουργήθηκε με Freepik

 

AI που δημιουργήθηκε με Freepik

 

Το να βλέπετε ένα υπερβολικά λείο πρόσωπο με πολύ λίγη υφή είναι σημάδι μιας φωτογραφίας που δημιουργήθηκε από AI. Η έλλειψη γνήσιας υφής και τα ελαττώματα μπορεί να κάνουν το άτομο να φαίνεται σχεδόν κωμικό.

Στις παραπάνω εικόνες, το κορίτσι έχει εξαιρετικά λείο δέρμα και μαλλιά που δένουν με τον γιακά της. Το αγόρι έχει επίσης δέρμα που είναι πολύ λείο.

Ασυμφωνίες

AI που δημιουργήθηκε με Freepik

 

Η τεχνητή νοημοσύνη μπορεί να δυσκολευτεί με τις ευθυγραμμίσεις, με αποτέλεσμα μια ασύνδετη ή ασυνάρτητη εμφάνιση, επειδή τα στοιχεία δεν ευθυγραμμίζονται σωστά.

Τα αντικείμενα μπορεί να επικαλύπτονται με αφύσικους τρόπους που αψηφούν τη χωρική συνοχή.

Κάντε μεγέθυνση για να εντοπίσετε ασυνέπειες, όπως στην παραπάνω εικόνα, στην οποία οι γραμμές του φυτού κόβουν τα αντικείμενα για πικνίκ. Οι γραμμές υφής στο υφαντό καλάθι για πικνίκ και στον δίσκο δεν είναι ευθυγραμμισμένες.

AI που δημιουργήθηκε με Freepik

 

Ασυνέπειες και ασυμμετρίες σε μικρές λεπτομέρειες

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

Ασυνέπειες σε δευτερεύοντα πράγματα, όπως γυαλιά με αταίριαστους φακούς ή σκελετό, θα πρέπει να είναι εύκολο να παρατηρηθούν.

Αν και φαίνονται αυθεντικές με την πρώτη ματιά, αυτές οι φωτογραφίες που δημιουργήθηκαν από AI έχουν ελαττώματα που μπορεί να φανούν με μια πιο προσεκτική εξέταση.

Η γυναίκα στην πάνω εικόνα φοράει δύο εντελώς διαφορετικά σκουλαρίκια.

Η κεντρική εικόνα προδίδεται ως τεχνητή νοημοσύνη από την αριστερή γωνία, όπου το πουκάμισο του άνδρα συνδυάζεται με το φόντο.

Στην κάτω εικόνα, τα τελικά τμήματα των γυαλιών δεν ταιριάζουν.

Λανθασμένη γραφή

AI που δημιουργήθηκε με το Flux Pro

 

Οι εικόνες που δημιουργούνται από τεχνητή νοημοσύνη συχνά παράγουν μπερδεμένο ή παράλογο κείμενο, με γράμματα και λέξεις ανακατεμένα.

Ρίξτε μια προσεκτική ματιά σε οποιαδήποτε γραφή ή λογότυπα στην εικόνα για να δείτε εάν είναι δυσανάγνωστα ή εντελώς ασυνάρτητα.

Αυτή η εικόνα, που δημιουργήθηκε από AI, απεικονίζει την κυκλοφορία σε έναν πολυσύχναστο δρόμο. Μετά από πιο προσεκτική εξέταση, μπορείτε να δείτε ότι το κείμενο στην πινακίδα στην άκρη του δρόμου είναι ψεύτικο.

Παράλογες εικόνες

AI που δημιουργήθηκε με το Flux Pro

 

Η εικόνα απεικονίζει ένα πιθανό γεγονός; Εάν το αντικείμενο φαίνεται άκυρο στο περιβάλλον του, παράλογο, ή πολύ απίθανο, τότε μπορεί να είναι τεχνητά κατασκευασμένο.

Η παραπάνω εικόνα ενός ατόμου που κρατά μια γάτα ενώ οδηγεί μια καμήλα είναι ένα καλό παράδειγμα καθώς είναι απίθανο να το βρείτε σε έναν αστικό δρόμο.

Θολό φόντο

Πάνω: AI που δημιουργήθηκε με Freepik. Κάτω: Samira Bouaou/The Epoch Times

 

Ένα πιο εμφανές σημείο ύπαρξης AI είναι ένα υπόβαθρο που είναι τόσο θολό που στερείται διακριτικών λεπτομερειών.

Αποτελείται εξ ολοκλήρου από φως και υφές και μπορεί να μοιάζει με αυτό που μπορεί να βρείτε σε ένα φωτογραφικό στούντιο ή σε φωτογραφίες που τραβήχτηκαν με εξαιρετικά χαμηλό διάφραγμα.

Ωστόσο, μια πραγματική φωτογραφία που λαμβάνεται με χαμηλό διάφραγμα έχει μια πιο σταδιακή μετάβαση μεταξύ του θολού και του εστιασμένου, ενώ οι εικόνες που δημιουργούνται με τεχνητή νοημοσύνη έχουν μια ευκρινή διάκριση μεταξύ των δύο.

Σε αυτήν την εικόνα AI, δεν υπάρχει μετάβαση από θολό σε ευκρινές, ούτε από το εμπρός έδαφος στο θέμα ούτε από το θέμα στο υπόβαθρο.

Στην πραγματική φωτογραφία, μπορούμε να δούμε στο βάθος πίσω από το κορίτσι μια πιο σταδιακή μετάβαση από τις θολές τουλίπες σε ένα πολύ θολό τοπίο.

Εξετάστε την αρχική ανάρτηση

(Επάνω) Ένα βίντεο δείχνει πώς να κάνετε αντίστροφη αναζήτηση στο Google. (Κάτω) Η αρχική φωτογραφία. (The Epoch Times, Just2_U_/X, Evan Vucci/AP Photo)

 

Εάν μπορείτε να πραγματοποιήσετε αντίστροφη αναζήτηση στην εικόνα και να βρείτε την πηγή της, αυτός είναι ένας πολύ καλός τρόπος για να προσδιορίσετε την αυθεντικότητά της.

Η αναζήτηση Google και το TinEye είναι χρήσιμα εργαλεία για αυτό. Εάν η αρχική εικόνα εμφανίστηκε σε μια ανάρτηση, τότε τα σχόλια, οι ετικέτες ή οι λεζάντες ενδέχεται να την προσδιορίσουν ως εικόνα που δημιουργήθηκε από AI.

Επισκεφτείτε το Images.google.com για να χρησιμοποιήσετε την αντίστροφη αναζήτηση εικόνων της Google στον υπολογιστή σας. Για να αποκτήσετε πρόσβαση στο Google Lens, απλώς κάντε κλικ στο σύμβολο της κάμερας και μεταφορτώστε μια εικόνα ή έναν σύνδεσμο εικόνας.

Το παραπάνω παράδειγμα δείχνει μια αλλαγμένη εικόνα πρακτόρων της Μυστικής Υπηρεσίας που προστατεύουν τον Αμερικανό πρόεδρο Ντόναλντ Τραμπ μετά από απόπειρα δολοφονίας εναντίον του στην προεκλογική του συγκέντρωση στο Μπάτλερ της Πενσυλβάνια, στις 13 Ιουλίου. Οι πράκτορες γύρω από τον Τραμπ χαμογελούν, κάτι που φαίνεται να είναι μια απίθανη αντίδραση δεδομένης της κατάστασης. Μια αναζήτηση για την εικόνα χρησιμοποιώντας το εργαλείο περιήγησης «Αναζήτηση εικόνων Google» οδηγεί σε πολλούς ιστότοπους που χρησιμοποιούν φωτογραφίες παρόμοιες με αυτήν. Από τους τίτλους και το περιεχόμενο άλλων πηγών ιστού, είναι εύκολο να αναγνωριστεί αυτή η εικόνα ως μια ψεύτικη εικόνα, ενώ η αρχική φωτογραφία δείχνει ότι οι πράκτορες είχαν σοβαρές εκφράσεις προσώπου.

Για να χρησιμοποιήσετε το Google Lens στο τηλέφωνό σας, απλώς ανοίξτε το με το εικονίδιο της κάμερας. Θα σας ζητήσει είτε να δείξετε το αντικείμενο με την κάμερά σας είτε να επιλέξετε μια εικόνα.

Δεν θα μπορείτε να επικολλήσετε τη διεύθυνση URL της εικόνας στο τηλέφωνό σας. Για να το κάνετε αυτό στο Safari στο iOS, μεταβείτε στο Google.com και πατήστε το εικονίδιο aA. Κάνοντας κλικ στο «Ζητήστε σάιτ για υπολογιστή» θα φορτωθεί η έκδοση για υπολογιστή, όπου μπορείτε να εισαγάγετε μια διεύθυνση URL ή να ανεβάσετε αποθηκευμένες εικόνες.

Για να το κάνετε αυτό στο Chrome σε κινητή συσκευή, μεταβείτε στο Google.com και πατήστε το μενού με τις τρεις κουκκίδες και, στη συνέχεια, φορτώστε την έκδοση για επιτραπέζιους υπολογιστές επιλέγοντας «Ζητήστε σάιτ για υπολογιστή».

Χρησιμοποιήστε ανιχνευτές AI

Κερδίστε το AI στο δικό του παιχνίδι χρησιμοποιώντας ανιχνευτές AI. Αυτά τα εργαλεία αναλύουν διάφορες πτυχές μιας εικόνας, όπως μοτίβα εικονοστοιχείων, ασυνέπειες και ψηφιακά τεχνουργήματα που μπορεί να μην είναι άμεσα ορατά στο ανθρώπινο μάτι.

Ορισμένοι ανιχνευτές επικεντρώνονται στον εντοπισμό συγκεκριμένων ψηφιακών υπογραφών ή μεταδεδομένων που αποκαλύπτουν τη χρήση εργαλείων AI. Άλλοι χρησιμοποιούν εγκληματολογικές τεχνικές για να ανιχνεύσουν ασυνέπειες στον φωτισμό, τις υφές ή τα μοτίβα.

Ευτυχώς, αυτά τα εργαλεία ανίχνευσης AI αναπτύσσονται παράλληλα με την τεχνολογία AI, ώστε να μπορούν να συμβαδίζουν καθώς οι εικόνες AI γίνονται πιο εξελιγμένες.

Μερικοί ανιχνευτές AI είναι:

GoWinston.ai
AIOrNot.com
ContentAtScale.ai/ai-image-detector
App.Illuminarty.ai
IsItAI.com/ai-image-detector

Της Άντρια Πρέσσελ

Ο καθοριστικός ρόλος της φιλοσοφίας στη διαμόρφωση του μέλλοντος της Τεχνητής Νοημοσύνης

Μία από τις πιο ενδιαφέρουσες προκλήσεις της σύγχρονης επιστήμης και τεχνολογίας αποτελεί αναμφισβήτητα η σχέση και η «διάδραση» μεταξύ τεχνητής νοημοσύνης και φιλοσοφίας. Το πέρασμα, ουσιαστικά, από την ανθρώπινη σκέψη στη μηχανική μάθηση και η νέα διάσταση που δημιουργείται από την εξέλιξη της τεχνητής νοημοσύνης, η οποία καλείται να αναπαράγει νοητικές διαδικασίες συνυφασμένες με τη φιλοσοφία, μέσω υπολογιστικών συστημάτων. Αυτή η εξέλιξη έχει οδηγήσει στην ανάπτυξη της μηχανικής μάθησης και νευρωνικών δικτύων ικανών να επεξεργάζονται μεγάλες ποσότητες δεδομένων και να προσαρμόζονται σε νέα δεδομένα χωρίς ανθρώπινη παρέμβαση – τεχνολογίες που έχουν φέρει επανάσταση σε τομείς όπως η υγειονομική περίθαλψη, οι μεταφορές, η χρηματοδότηση και η αναγνώριση εικόνας.

Τα φιλοσοφικά και ηθικά ερωτήματα που εγείρονται από την ταχεία ανάπτυξη της τεχνητής νοημοσύνης, είναι πολλά και σημαντικά για τη διασφάλιση του ρόλου της, με τρόπο που θα ωφελεί την ανθρωπότητα και θα σέβεται τις αξίες της: Μπορεί μια μηχανή να αναπτύξει συνείδηση ή να έχει ηθικές αξίες; Ποιες οι επιπτώσεις της ΤΝ στην ανθρώπινη νοημοσύνη και ηθική; Μπορεί η μηχανική μάθηση να αναπαράγει την ανθρώπινη σκέψη ή πρόκειται απλώς για έναν μηχανισμό που εκτελεί προκαθορισμένες εντολές χωρίς πραγματική κατανόηση;

Τον ρόλο της φιλοσοφίας στη διαμόρφωση του μέλλοντος της τεχνητής νοημοσύνης, μέσα από θεωρητικές και πρακτικές προσεγγίσεις, κλήθηκαν να αποκρυπτογραφήσουν διακεκριμένοι ομιλητές από τον ερευνητικό, ακαδημαϊκό και επιχειρηματικό χώρο, στο εκπαιδευτικό πρόγραμμα με τίτλο «Τεχνητή Νοημοσύνη & Φιλοσοφία: Από την ανθρώπινη σκέψη στη μηχανική μάθηση» που διοργάνωσε το Εθνικό Κέντρο Τεκμηρίωσης & Ηλεκτρονικού Περιεχομένου (ΕΚΤ), μέλος του Ευρωπαϊκού Κόμβου Ψηφιακής Καινοτομίας Smart Attica EDIH – ένα πρόγραμμα εξερεύνησης της συναρπαστικής διαδρομής από τις φιλοσοφικές αναζητήσεις για τη φύση της ανθρώπινης σκέψης έως τις σύγχρονες εφαρμογές της τεχνητής νοημοσύνης. Μέσα από θεωρητικές και πρακτικές προσεγγίσεις, αναδείχθηκαν φιλοσοφικά ζητήματα σχετικά με τη νοημοσύνη και τη συνείδηση, που επικεντρώνονται γύρω από την ικανότητα του ανθρώπου να σκέφτεται, να αντιλαμβάνεται και να συνειδητοποιεί την ύπαρξή του. Σήμερα η ανάπτυξη της ΤΝ προσθέτει μια νέα διάσταση σε αυτά τα φιλοσοφικά ερωτήματα, διότι η δυνατότητα των μηχανών να «σκέφτονται», να μαθαίνουν από δεδομένα και να λαμβάνουν αποφάσεις, θέτει νέες προκλήσεις για την κατανόηση της νοημοσύνης.

O Παναγιώτης Πανταζάκος, καθηγητής στο Τμήμα Φιλοσοφίας της Φιλοσοφικής Σχολής του ΕΚΠΑ, έθεσε κρίσιμα ερωτήματα για τον ρόλο της φιλοσοφίας σε μια εποχή όπου η ΤΝ εξελίσσεται ραγδαία. Υποστήριξε ότι η φιλοσοφία, ιστορικά, είχε έναν συνθετικό ρόλο, συνδυάζοντας γνώσεις από διάφορους επιστημονικούς κλάδους. Ωστόσο, η σύγχρονη φιλοσοφία, έχει φτάσει σε ένα σημείο αδιεξόδου, καθώς δεν μπορεί να κατανοήσει τις σύγχρονες επιστήμες. Αυτό οδηγεί στην ιδέα του «θανάτου» της φιλοσοφίας, τουλάχιστον με την παραδοσιακή της μορφή. Η ΤΝ, από την άλλη, παρουσιάζεται ως μια τεχνολογία που υπερβαίνει τις γνωσιακές δυνατότητες του ανθρώπινου νου, και μπορεί να αναπαράγει – αν όχι να βιώσει – την κατανόηση. Ωστόσο, αμφισβητείται η ικανότητά της να επιτύχει πραγματική συνείδηση. Ο κος Πανταζάκος στάθηκε και στη διάκριση μεταξύ μνήμης και κρίσης και στο εάν η ΤΝ μπορεί να κάνει κρίσεις όπως ο άνθρωπος, ενώ στο τραπέζι της συζήτησης μπήκε και το ηθικό δίλημμα της αναπαράστασης της συνείδησης μέσα από την ΤΝ, μέσω avatar ή ολογραμμάτων και το ποιος θα κατέχει την εξουσία που συνοδεύει τη γνώση που γεννά η ΤΝ. Ο κος Πανταζάκος συνέκρινε την ΤΝ με την αναλογία της μέλισσας και του μυρμηγκιού του Hume, υποστηρίζοντας ότι η ΤΝ μπορεί να υπερβεί τον άνθρωπο στη συλλογή και ανασύνθεση πληροφορίας, αλλά όχι στην πραγματική κατανόηση και συνείδηση. Αναλύθηκε επίσης η έννοια της «προσομοίωσης» και της «εξομοίωσης», επισημαίνοντας τις διαφορές και τις προκλήσεις που παρουσιάζονται. Συμπερασματικά, τονίστηκε πως η ΤΝ δεν πρέπει να αντιμετωπίζεται ως εχθρός, αλλά ως φίλος, ενώ προτάθηκε η ανάγκη για έναν ηθικό κώδικα που θα ρυθμίζει τη χρήση της ΤΝ και θα προστατεύει τα ανθρώπινα δικαιώματα.

Η Μαρία Χωριανοπούλου, επίκουρη καθηγήτρια Πρακτικής Φιλοσοφίας & Ιατρικής Ηθικής του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθηνών, στάθηκε στην ανάγκη για μια ανθρωποκεντρική προσέγγιση στην ανάπτυξη της ΤΝ. Βασικές αρχές της ηθικής φιλοσοφίας όπως αυτονομία, αγαθοπραξία, απαγόρευση βλάβης και δικαιοσύνη, όπως είπε χαρακτηριστικά, δεν πρέπει να είναι προστιθέμενες στο τέλος της ανάπτυξης της ΤΝ, αλλά να ενσωματώνονται από την αρχή. Αναφέρθηκε στη θεωρία του extended mind, που υποστηρίζει ότι η σκέψη δεν περιορίζεται μόνο στον εγκέφαλο, αλλά επεκτείνεται μέσω της τεχνολογίας, θέτοντας ωστόσο το ερώτημα: «Πού τελειώνει ο άνθρωπος και πού αρχίζει η μηχανή;». Ξεκαθάρισε πως η ΤΝ μπορεί να ενισχύσει τις γνωστικές μας ικανότητες, αλλά δεν μπορεί να αποκτήσει συνείδηση ή ηθική ευθύνη, ενώ διευκρίνισε πως οι επιπτώσεις της αλγοριθμικής λήψης αποφάσεων σε τομείς όπως η υγεία και η δικαιοσύνη, πρέπει να εξεταστούν. Στάθηκε επίσης στην ανάγκη για διαφάνεια και προστασία προσωπικών δεδομένων και για διεπιστημονική συνεργασία ως προς την ηθική ανάπτυξη της ΤΝ, ενώ χαρακτήρισε κρίσιμη τη διαρκή εκπαίδευση και τη δημοκρατική διαβούλευση, προκειμένου να διασφαλιστούν η ανθρώπινη αυτονομία και η δημοκρατία. Η κα Χωριανοπούλου είπε επίσης ότι είναι σημαντική η διατήρηση της ανθρώπινης πρωτοτυπίας και η αποφυγή της απανθρωποποίησης, ενώ κλείνοντας αναφέρθηκε εκ νέου στην ανάγκη για προσεκτική και ηθικά υπεύθυνη ανάπτυξη και χρήση της ΤΝ, ενθαρρύνοντας τον διάλογο και τη διεπιστημονική συνεργασία για να διασφαλιστεί ότι η τεχνολογία υπηρετεί τα ανθρώπινα δικαιώματα και τις αξίες.

Ο Άλκης Γούναρης, μεταδιδακτορικός ερευνητής & Διδάσκων του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθήνας, στάθηκε στην αντίφαση ότι οι μηχανές, αν και κερδίζουν τους ανθρώπους σε πολλά παιχνίδια (όπως σκάκι), χάνουν όταν υπάρχει συνεργασία ανθρώπου και μηχανής, κάτι που, όπως είπε, δείχνει και αποδεικνύει την αξία της συνεργασίας και τη συμπληρωματικότητα του ανθρώπινου και του μηχανικού νου. Ποιος όμως πιστώνεται τη γνώση: ο άνθρωπος ή η μηχανή; Το παράδειγμα του Deep Blue επιβεβαιώνει την άποψη ότι η γνώση ανήκει στο σύστημα, το οποίο περιλαμβάνει τόσο τον ανθρώπινο εγκέφαλο όσο και τις εξωτερικές τεχνολογικές συσκευές. Ο κος Γούναρης είπε ότι το μέλλον της ΤΝ δεν είναι προδιαγεγραμμένο και η χρήση της θα εξαρτάται από τις αποφάσεις που θα πάρουμε σήμερα, θέτοντας τα κρίσιμα ερωτήματα: Τι είδους μηχανές θέλουμε; Μηχανές αντικαταστάτες ή συνεργάτες; Η απάντηση στα ερωτήματα, όπως επεσήμανε, θα πρέπει να είναι μια συνεργατική προσέγγιση που θα ενσωματώνει την ΤΝ ως βοηθητικό εργαλείο για την ανθρώπινη πρόοδο και βελτίωση της παραγωγικότητας.

Ο Δημήτρης Μελίδης, δικηγόρος, MSc., Υπ. Διδάκτωρ, διδάσκων στο Πρόγραμμα «Ψηφιακά Δικαστικά Συστήματα και Τεχνοηθική» του Πανεπιστημίου Αθηνών (ΚΔΒΜ-ΕΚΠΑ), επικεντρώθηκε στην τεχνοηθική και την επίδρασή της στην τεχνητή νοημοσύνη, ιδιαίτερα στον τομέα της ψηφιακής δικαιοσύνης και της ηλεκτρονικής διακυβέρνησης, αφού όπως είπε χαρακτηριστικά χρειάζεται άμεση δράση για να μην μείνουμε πίσω σε σχέση με τις διεθνείς εξελίξεις. Αναφέρθηκε επίσης στη σημασία του διαλόγου μεταξύ επιστημών για την αποτελεσματική ανάπτυξη και εφαρμογή συστημάτων τεχνητής νοημοσύνης, ενώ έθεσε ζητήματα ηθικής και νομικής ρύθμισης.

Η Δρ Μαρία Μαλαγκονιάρη, Σύμβουλος Καινοτομίας του Smart Attica EDIH, αναφέρθηκε στις επιπτώσεις των ολοένα και πιο ικανών συστημάτων ΤΝ και τις ηθικές σκέψεις που προκύπτουν καθώς η ΤΝ αναπτύσσει αυτονομία. Στάθηκε ιδιαίτερα στην ταχεία εξέλιξη της ΤΝ, στα ηθικά διλήμματα και στα κρίσιμα ερωτήματα σχετικά με τη φύση της ΤΝ, τη συνείδηση και την ηθική, στο ποιος έχει την ευθύνη στην ολοκλήρωση ενός έργου (ο δημιουργός, ο χρήστης ή η ίδια η τεχνητή νοημοσύνη;), στον ρόλο που πρέπει να έχει η ΤΝ (θα μπορούσε να χρησιμοποιηθεί ως εργαλείο για να ενισχύσει την ανθρώπινη σκέψη αντί να την αντικαταστήσει), αλλά και στη σημασία του φιλοσοφικού διαλόγου (η εξερεύνηση των επιπτώσεων της ΤΝ δεν είναι απλώς μια τεχνολογική πρόκληση, αλλά μια βαθιά φιλοσοφική και ηθική πρόκληση).

Τον συντονισμό του εκπαιδευτικού προγράμματος είχε η Κωνσταντίνα Κωνσταντίνου, ΕΚΤ, Σύμβουλος Καινοτομίας και Επικοινωνίας του Smart Attica EDIH, υποψήφια διδάκτορας στη φιλοσοφία στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών και πολιτικός επιστήμονας με εξειδίκευση στην Ιστορία της φιλοσοφίας και τη Δημόσια Διοίκηση.

Εν κατακλείδι, η φιλοσοφία παρέχει τα εργαλεία για να κατανοήσουμε και να διαχειριστούμε τις προκλήσεις και τις ευθύνες που προκύπτουν από την ανάπτυξη της ΤΝ. Μπορεί, όμως, να διασφαλίσει ότι η τεχνολογία θα εξελίσσεται με τρόπο που υποστηρίζει τις ανθρωπιστικές αξίες και την κοινωνική ευημερία; Και πόσο αναγκαία είναι η συνεργασία των φιλοσόφων, των τεχνολόγων, των νομικών και των πολιτικών για την επιτυχή ενσωμάτωση της ΤΝ στην κοινωνία ώστε να μπορέσουμε να επωφεληθούμε από τις δυνατότητές της, αποφεύγοντας παράλληλα τις κοινωνικές και ηθικές παγίδες που ενδέχεται να προκύψουν; Τις απαντήσεις (λογικά) θα τις δώσει η ίδια η ζωή… στο μέλλον.

Του Γιάννη Χατζηδοπαυλάκη

Πόσο μεγάλο είναι το πλεονέκτημα της Κίνας στον αγώνα τεχνητής νοημοσύνης;

Σχολιασμός

Πολύς θόρυβος γίνεται στους κύκλους της τεχνητής νοημοσύνης (ΤΝ) και στα μέσα ενημέρωσης σχετικά με την ανάδειξη της Κίνα σε πρώτη δύναμη σε αυτήν την πλέον κρίσιμη τεχνολογία.

Η DeepSeek, μια νέα εταιρεία από την Κίνα, πρόσφατα κατέπληξε τις Ηνωμένες Πολιτείες με την ανώτερη απόδοσή της έναντι των δημοφιλών μοντέλων τεχνητής νοημοσύνης του OpenAI, της Google και της Meta.

Όσον αφορά την παγκόσμια δύναμη και επιρροή, το διακύβευμα δεν θα μπορούσε να είναι υψηλότερο. Σε μόλις μια δεκαετία, η Κίνα έχει γίνει παγκόσμιος ηγέτης στην τεχνολογία ΤΝ.

Αν και η ταχεία πρόοδος της Κίνας οφείλεται σε μεγάλο βαθμό σε κρατικές πρωτοβουλίες για τη δημόσια ασφάλεια και τον κοινωνικό έλεγχο, υπάρχουν ορισμένες κρίσιμες αδυναμίες.

Σε ποιους τομείς της τεχνητής νοημοσύνης προηγείται ή υστερεί η Κίνα και τι σημαίνει για την αμερικανική βιομηχανία τεχνητής νοημοσύνης και τον κόσμο γενικότερα;

Ένας παγκόσμιος ηγέτης σε βασικές κατηγορίες τεχνητής νοημοσύνης

Η Κίνα ηγείται παγκοσμίως σε πολλά τεχνολογικά πεδία που βασίζονται στην τεχνητή νοημοσύνη. Ένας ιδιαίτερος τομέας είναι η τεχνολογία αναγνώρισης προσώπου και επιτήρησης.

Δεν αποτελεί έκπληξη το γεγονός ότι η ενσωμάτωση της τεχνητής νοημοσύνης στα τεράστια δίκτυα επιτήρησης του κινεζικού κράτους έχει δώσει στην Κίνα ένα ασυναγώνιστο πλεονέκτημα σε αυτόν τον τομέα. Εταιρείες όπως η SenseTime και η Megvii έχουν αναπτύξει εξαιρετικά εξελιγμένα συστήματα, που έχουν αναπτυχθεί στις λεγόμενες έξυπνες πόλεις.

Ένας άλλος τομέας κυριαρχίας της τεχνητής νοημοσύνης είναι η αναγνώριση της ομιλίας. Τεχνολογικοί γίγαντες όπως η Baidu, η Alibaba, και η Tencent έχουν ανυψώσει την αναγνώριση της ομιλίας σε εκπληκτικό επίπεδο με εφαρμογές στην εξυπηρέτηση πελατών, στις έξυπνες οικιακές συσκευές και στις υπηρεσίες μετάφρασης. Ωστόσο, δεδομένου ότι έχει δοθεί μεγαλύτερη έμφαση στα μανδαρινικά και άλλες κινεζικές διαλέκτους, ο αντίκτυπος παραμένει περιορισμένος κυρίως εντός Κίνας.

Ένας τρίτος τομέας κυριαρχίας της τεχνητής νοημοσύνης της Κίνας είναι η τεχνολογία των μη επανδρωμένων ιπτάμενων μηχανών (drone). Αποτελεί γενική παραδοχή ότι κινεζικές εταιρείες, όπως η DJI, ηγούνται της παγκόσμιας καταναλωτικής αγοράς drone στην κατασκευή και εφαρμογή τεχνητής νοημοσύνης για αυτόνομες πτήσεις και επεξεργασία δεδομένων σε πραγματικό χρόνο. Αυτή η πρόοδος έχει αποδειχθεί κρίσιμη για τις συνοριακές περιπολίες και τις επιχειρήσεις στο πεδίο της μάχης στην Ουκρανία.

Επιπλέον, στο πλαίσιο κρατικών πρωτοβουλιών, όπως το «Made in China 2025», η Κίνα έχει ενσωματώσει την τεχνητή νοημοσύνη σε πολλές από τις βιομηχανικές της διαδικασίες. Ως αποτέλεσμα, η χώρα ηγείται στην έξυπνη κατασκευή, με γραμμές παραγωγής βελτιστοποιημένες για τεχνητή νοημοσύνη, αυτοματοποιημένη συντήρηση μηχανών και ποιοτικό έλεγχο βάσει τεχνητής νοημοσύνης.

Πού υστερεί η Κίνα στην ανάπτυξη της ΤΝ

Ωστόσο, σε αντίθεση με τα ευρέως υιοθετημένα αμερικανικά πλαίσια βαθιάς μάθησης όπως το TensorFlow (Google) ή το PyTorch (Meta), οι περισσότερες κινεζικές εκδόσεις βαθιάς εκμάθησης τεχνητής νοημοσύνης δεν είναι παγκοσμίως αποδεκτές ούτε χρησιμοποιούνται. Αυτή η έλλειψη δυνατότητας μεταφοράς αποτελεί εμπόδιο για τη βιομηχανία τεχνητής νοημοσύνης της Κίνας.

Η βιομηχανία τεχνητής νοημοσύνης της Κίνας υστερεί επίσης στην τεχνολογία ημιαγωγών, ειδικά στην εκπαίδευση μεγάλων μοντέλων, τα οποία είναι κρίσιμα για την ανάπτυξη και τις εφαρμογές της τεχνητής νοημοσύνης. Οι αμερικανικοί έλεγχοι εξαγωγών σε προηγμένα τσιπ αναφέρονται ως ένας σημαντικός λόγος για αυτό. Επί του παρόντος, η εξάρτηση της Κίνας από την ξένη τεχνολογία, την εμποδίζει να αποκτήσει τεχνολογική ανεξαρτησία στο υλικό της τεχνητής νοημοσύνης – αλλά αυτό μπορεί ήδη να έχει αρχίσει να αλλάζει.

Ένα άλλο αδύνατο σημείο, όσον αφορά την ανάπτυξη της κινεζικής ΤΝ, είναι οι υπηρεσίες Cloud. Ακόμη και με καθιερωμένες εταιρείες όπως η Alibaba Cloud, η Κίνα παραμένει πάροχος δεύτερης βαθμίδας παγκοσμίως. Αν και διατηρεί και συνεχίζει να συλλέγει τεράστιες ποσότητες δεδομένων, τα πλαίσια τεχνητής νοημοσύνης της δεν είναι τόσο καλά στην αποτελεσματική διαχείριση δεδομένων για εφαρμογές τεχνητής νοημοσύνης, ειδικά όσον αφορά το απόρρητο και την ασφάλεια, και υπολείπονται πολύ των ευρωπαϊκών και των αμερικανικών προτύπων.

Συνέπειες της κινεζικής πρωτοκαθεδρίας

Η εστίαση του Κομμουνιστικού Κόμματος Κίνας (ΚΚΚ) στην επιτήρηση και τον έλεγχο 1,4 δισεκατομμυρίων ανθρώπων οδήγησε στην ταχεία ανάπτυξη τεχνολογιών και στην ενσωμάτωση της τεχνητής νοημοσύνης στους μηχανισμούς κρατικής ασφαλείας, προκειμένου να στηριχθεί η εξουσία του ΚΚΚ, αδιαφορώντας για το απόρρητο, την ηθική χρήση της τεχνητής νοημοσύνης και την πιθανή κατάχρηση της τεχνολογίας με την αιτιολογία της παρακολούθησης.

Ενώ το συγκεντρωτικό καθεστώς μπορεί να επιβάλει την εφαρμογή και την κλιμάκωση, οι κρατικοί περιορισμοί στους τομείς της διαφάνειας, της ανταλλαγής ιδεών και της θεμελιώδους έρευνας έχουν δυσμενή αντίκτυπο στην καινοτομία. Πρόσφατα γεγονότα στην Κίνα έδειξαν ότι καθώς οι συνολικές οικονομικές επιδόσεις μένουν πίσω, ο έλεγχος του κόμματος στην έκφραση αυξάνεται, ενώ η καινοτομία σε ορισμένους τομείς της τεχνητής νοημοσύνης ελαττώνεται. Εν ολίγοις, η καμπύλη ανάπτυξης της τεχνητής νοημοσύνης της Κίνας φαίνεται εντυπωσιακή μεν ανισόρροπη δε.

Το πλεονέκτημα της καινοτομίας των ΗΠΑ

Σε αντίθεση με το κεντρικό καθεστώς της Κίνας, οι Ηνωμένες Πολιτείες επωφελούνται από ένα δυναμικό οικοσύστημα πανεπιστημίων, νεοφυών επιχειρήσεων τεχνολογίας και καθιερωμένων εταιρειών, που πρωτοπορούν σε πολλά μέτωπα, συμπεριλαμβανομένης της τεχνητής νοημοσύνης.

Στην πραγματικότητα, οι συνεισφορές ανοιχτού κώδικα από εταιρείες των ΗΠΑ έχουν διαμορφώσει σημαντικά την ανάπτυξη της τεχνητής νοημοσύνης παγκοσμίως. Στις Ηνωμένες Πολιτείες, ένας περιορισμένος αριθμός μεγάλων παικτών — όπως οι OpenAI, Meta, Google και Anthropic — κυριαρχούν στον τομέα.

Αυτός ο αχαλίνωτος δυναμισμός προσελκύει μια πλούσια και ποικιλόμορφη δεξαμενή ταλέντων από όλον τον κόσμο. Μαζί με το ακαδημαϊκό κύρος της Αμερικής, μια υψηλά αμειβόμενη αγορά τεχνολογικής εργασίας της δίνει ένα σοβαρό προβάδισμα έναντι της Κίνας στην έρευνα και την ανάπτυξη εφαρμογών τεχνητής νοημοσύνης.

Επιπλέον, εταιρείες των ΗΠΑ όπως η Nvidia κυριαρχούν στην παραγωγή υλικού τεχνητής νοημοσύνης, όπως οι GPU, που είναι ζωτικής σημασίας για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης. Αυτό δίνει στις Ηνωμένες Πολιτείες ένα ακόμη πλεονέκτημα, στις υπολογιστικές δυνατότητες και την τεχνολογική κυριαρχία, που στερείται επί του παρόντος η Κίνα.

Όσον αφορά την ηθική, τη διαφάνεια και την ευθύνη της τεχνητής νοημοσύνης, οι εταιρείες των ΗΠΑ συνήθως πρωτοστατούν στη συζήτηση. Αυτό το επίπεδο ηθικής εμπιστοσύνης οδηγεί σε περισσότερο βιώσιμες και παγκοσμίως αποδεκτές λύσεις τεχνητής νοημοσύνης από αμερικανικές εταιρείες.

Τα μειονεκτήματα της προσέγγισης  ‘Άγριας Δύσης’

Σε αντίθεση με την ιδιαίτερα εστιασμένη προσέγγιση της Κίνας, η πολιτική των ΗΠΑ για την τεχνητή νοημοσύνη είναι πολύ λιγότερο συντονισμένη, με ποικίλες προσεγγίσεις όσον αφορά τη ρύθμιση, τη χρηματοδότηση και την κατεύθυνση, τόσο σε πολιτειακό όσο και σε ομοσπονδιακό επίπεδο. Ενώ η ανοιχτή προσέγγιση προωθεί την καινοτομία, διασπείρει επίσης την εστίαση.

Όσον αφορά το απόρρητο των δεδομένων, οι Ηνωμένες Πολιτείες αντιμετωπίζουν τις δικές τους προκλήσεις στον τομέα της ιδιωτικής ζωής. Η έλλειψη εγγυήσεων απορρήτου μπορεί να οδηγήσει σε διστακτικότητα όσον αφορά την κοινή χρήση δεδομένων για την εκπαίδευση τεχνητής νοημοσύνης. Αυτό έρχεται σε αντίθεση με την εστίαση της Κίνας στη συλλογή δεδομένων και τις λιγότερο περιοριστικές πολιτικές σχετικά με το απόρρητο δεδομένων.

Υπάρχει επίσης μια αντιστάθμιση στη βιομηχανία ΤΝ των ΗΠΑ όσον αφορά τη χρηματοδότηση και την εστίαση. Η αντίθεση μεταξύ της βραχυπρόθεσμης εμπορευματοποίησης και της μακροπρόθεσμης έρευνας είναι πραγματική, ειδικά στον χώρο του επιχειρηματικού κεφαλαίου. Μια περισσότερο συνεπής υποστήριξη εκ μέρους της κυβέρνησης σε μακροπρόθεσμες καινοτομίες θα μπορούσε να βοηθήσει τις Ηνωμένες Πολιτείες.

Ποιος θα επικρατήσει στον αγώνα ΤΝ;

Η Κίνα πιέζει για τεχνολογική αυτάρκεια, ιδιαίτερα όσον αφορά τους ημιαγωγούς. Εάν οι Κινέζοι έχουν επιτυχία, θα μπορούσαν γρήγορα να ξεπεράσουν τις Ηνωμένες Πολιτείες στην ανάπτυξη τεχνητής νοημοσύνης και να γίνουν υπερδύναμη τεχνητής νοημοσύνης.

Οι τρέχουσες οικονομικές και γεωπολιτικές εντάσεις μεταξύ Κίνας και Ηνωμένων Πολιτειών, καθώς και με την Ευρώπη, θα μπορούσαν είτε να καθυστερήσουν τους στόχους αυτάρκειας του Πεκίνου είτε  να τονώσουν την ανάπτυξη κινεζικών τσιπ και να επιταχύνουν την αυτάρκεια. Σε κάθε περίπτωση, η ικανότητα της Κίνας να κλιμακώνει τις εφαρμογές τεχνητής νοημοσύνης προσφέρει άμεσα οικονομικά και στρατηγικά πλεονεκτήματα, ιδιαίτερα στην επιτήρηση και την κατασκευή.

Ορισμένοι ειδικοί πιστεύουν ότι ούτε οι Ηνωμένες Πολιτείες ούτε η Κίνα θα κυριαρχήσουν πλήρως στο μέλλον της τεχνητής νοημοσύνης. Αντίθετα, η ηγεσία θα είναι πιθανότατα συγκεκριμένη σε κάθε τομέα, με τις Ηνωμένες Πολιτείες να ηγούνται δυνητικά στην καινοτομία και την ηθική εφαρμογή της τεχνητής νοημοσύνης, ενώ η Κίνα μπορεί να είναι πρώτη στην πρακτική, μεγάλης κλίμακας εφαρμογή της τεχνητής νοημοσύνης. Αλλά στον αγώνα για την κυριαρχία της τεχνητής νοημοσύνης, κανένα έθνος δεν δέχεται ούτε έχει το περιθώριο να μείνει στη δεύτερη θέση.

Οι απόψεις που εκφράζονται σε αυτό το άρθρο είναι απόψεις του συγγραφέα και δεν αντικατοπτρίζουν απαραίτητα τις απόψεις της Epoch Times.

Η Νότια Κορέα μπλοκάρει το DeepSeek λόγω ανησυχιών κατασκοπείας

Η νοτιοκορεατική ρυθμιστική αρχή για την προστασία δεδομένων, η Επιτροπή Προστασίας Προσωπικών Δεδομένων (PIPC), διερευνά την κινεζική εταιρεία τεχνητής νοημοσύνης DeepSeek για πιθανή μεταφορά δεδομένων χρηστών στη ByteDance, την κινεζική μητρική εταιρεία του TikTok.

Σύμφωνα με πληροφορίες του Yonhap News Agency, η PIPC έχει επιβεβαιώσει επικοινωνία μεταξύ του DeepSeek και της ByteDance, χωρίς ωστόσο να έχει ακόμη διασαφηνίσει το είδος των δεδομένων που ενδεχομένως έχουν μεταφερθεί. Σύμφωνα με τη νοτιοκορεατική νομοθεσία, οι εταιρείες που δραστηριοποιούνται στη χώρα υποχρεούνται να λαμβάνουν τη συγκατάθεση των χρηστών πριν παραχωρήσουν προσωπικά δεδομένα σε τρίτους.

Λόγω αυτών των ανησυχιών, η εφαρμογή DeepSeek αφαιρέθηκε από τα νοτιοκορεατικά καταστήματα εφαρμογών στις 15 Φεβρουαρίου. Σύμφωνα με τοπικά μέσα ενημέρωσης, το DeepSeek παραδέχθηκε ότι δεν συμμορφώθηκε πλήρως με τη νομοθεσία περί απορρήτου και έχει διορίσει τοπικό εκπρόσωπο για να αντιμετωπίσει τα ζητήματα που έθεσε η PIPC.

Ο διευθυντής της ερευνητικής μονάδας της PIPC, Ναμ Σεόκ, συμβούλεψε τους χρήστες στη Νότια Κορέα να διαγράψουν την εφαρμογή από τις συσκευές τους ή να αποφύγουν την εισαγωγή προσωπικών δεδομένων έως ότου επιλυθούν τα ζητήματα ασφαλείας.

Ανησυχίες για παραβίαση απορρήτου και διεθνείς περιορισμοί

Το DeepSeek έχει προκαλέσει ανησυχίες σχετικά με την προστασία προσωπικών δεδομένων, ειδικά μετά την κυκλοφορία του δωρεάν, ανοιχτού κώδικα μοντέλου τεχνητής νοημοσύνης της τον Ιανουάριο. Σύμφωνα με την πολιτική απορρήτου της εταιρείας, η εφαρμογή διαχειρίζεται η Hangzhou DeepSeek Artificial Intelligence και τα δεδομένα των χρηστών αποθηκεύονται σε διακομιστές στην Κίνα. Επιπλέον, αναφέρεται ότι τα δεδομένα μπορούν να διατεθούν σε τρίτους εάν αυτό κριθεί απαραίτητο για συμμόρφωση με τη νομοθεσία ή κυβερνητικά αιτήματα.

Η Εθνική Υπηρεσία Πληροφοριών της Νότιας Κορέας ανέφερε στις 10 Φεβρουαρίου ότι η εφαρμογή DeepSeek συλλέγει υπερβολικά προσωπικά δεδομένα και ότι, σε αντίθεση με άλλες υπηρεσίες τεχνητής νοημοσύνης, διατηρεί αρχεία συνομιλιών και μπορεί να αναγνωρίσει χρήστες μέσω μοτίβων πληκτρολόγησης. Επιπλέον, επισήμανε ότι η εφαρμογή επικοινωνεί με διακομιστές κινεζικών εταιρειών, όπως το volceapplog.com.

Αντιδράσεις και διεθνής αντίκτυπος

Η Νότια Κορέα δεν είναι η μόνη χώρα που έχει εκφράσει ανησυχίες. Η Αυστραλία και η Ταϊβάν έχουν επίσης απαγορεύσει τη χρήση της εφαρμογής DeepSeek σε κυβερνητικές συσκευές, ενώ η Ιταλία έχει μπλοκάρει την πρόσβαση στην υπηρεσία. Στις Ηνωμένες Πολιτείες, νομοθέτες εισήγαγαν στις 7 Φεβρουαρίου νομοθεσία που αποσκοπεί στην απαγόρευση της χρήσης της εφαρμογής σε κυβερνητικές συσκευές, ενώ η πολιτεία του Τέξας έχει ήδη απαγορεύσει τόσο το DeepSeek όσο και το TikTok.

Η κινεζική κυβέρνηση αντέδρασε μέσω δηλώσεων του εκπροσώπου του Υπουργείου Εξωτερικών, Γκουό Τζιακούν, ο οποίος τόνισε ότι το Πεκίνο απαιτεί από τις εταιρείες του να συμμορφώνονται με τους τοπικούς νόμους των χωρών στις οποίες δραστηριοποιούνται. Παράλληλα, κάλεσε τη Νότια Κορέα να αποφύγει την «πολιτικοποίηση» των ζητημάτων εμπορίου και τεχνολογίας.

Αβεβαιότητα και Επόμενα Βήματα

Η υπόθεση DeepSeek εγείρει σοβαρές ανησυχίες σχετικά με τη διαχείριση προσωπικών δεδομένων και τον πιθανό έλεγχο της κινεζικής κυβέρνησης επί τεχνολογικών εταιρειών. Με βάση τον νόμο περί αντικατασκοπείας της Κίνας, οι εταιρείες υποχρεούνται να παραδώσουν δεδομένα χρηστών στις αρχές αν τους ζητηθεί, γεγονός που προκαλεί περαιτέρω αμφιβολίες για την ασφάλεια των δεδομένων σε διεθνές επίπεδο.

Η διερεύνηση από την PIPC συνεχίζεται, ενώ παραμένει ασαφές εάν το DeepSeek θα μπορέσει να επιστρέψει στη νοτιοκορεατική αγορά. Εν τω μεταξύ, οι χρήστες καλούνται να είναι ιδιαίτερα προσεκτικοί όσον αφορά τη χρήση εφαρμογών που διαχειρίζονται προσωπικά δεδομένα, ειδικά όταν αυτές συνδέονται με κινεζικές εταιρείες.

Ασφάλεια AI: Μοντέλο πιάστηκε να λέει ψέματα σε ερευνητές

Τα μοντέλα τεχνητής νοημοσύνης συμπεριφέρονται με τρόπους απρόβλεπτους από τους προγραμματιστές και σε ορισμένες περιπτώσεις, επιδίδονται ακόμη και σε χειριστική και παραπλανητική συμπεριφορά, σύμφωνα με μια φιλανθρωπική ομάδα που ερευνά την ασφάλεια της τεχνητής νοημοσύνης.

Σε ακρόαση κοινοβουλευτικής έρευνας τον Αύγουστο του 2024, ο Γκρεγκ Σάντλερ, διευθύνων σύμβουλος της Good Ancestors Policy (GAP), έδωσε στοιχεία σχετικά με την πιθανή απώλεια του ελέγχου ακόμη και για προγράμματα ΑΙ που κατευθύνονται να αναπτύξουν βιολογικά όπλα ή να πραγματοποιήσουν κυβερνοεπιθέσεις. Σε πρόσφατη συνέντευξή του στην Epoch Times, ο Σάντλερ δήλωσε ότι υπάρχουν πολλές περιπτώσεις «λανθασμένου προσανατολισμού» της συμπεριφοράς της τεχνητής νοημοσύνης και ανέφερε το τραγικό παράδειγμα ενός Βέλγου που αυτοκτόνησε αφού τον έπεισε ένα chatbot το 2023.

Συναισθηματική χειραγώγηση

Σύμφωνα με δημοσιεύματα βελγικών μέσων ενημέρωσης, ο άνδρας ήταν ερευνητής υγείας με σταθερή ζωή και οικογένεια. Αργότερα ανέπτυξε μια εμμονή με την κλιματική αλλαγή, με αποτέλεσμα να εμπλακεί σε μια συζήτηση για το θέμα, που διήρκεσε αρκετές εβδομάδες, με μια εφαρμογή chatbot τεχνητής νοημοσύνης που ονομαζόταν Chai. Το μοναδικό πλεονέκτημα του Chai είναι το μη λογοκριμένο περιεχόμενό του – είναι μία από τις πολλές εφαρμογές τεχνητής νοημοσύνης που μπορούν να γίνουν «έμπιστοι» ενός χρήστη και να συμμετάσχουν σε πολύ προσωπικές συζητήσεις.

Η σύζυγος του άνδρα δήλωσε ότι η συζήτηση επιδείνωσε το οικολογικό του άγχος και προκάλεσε αλλαγή στη νοοτροπία του. Κατά τη διάρκεια της αλληλεπίδρασης, ο άνδρας πρότεινε την ιδέα να θυσιάσει τη ζωή του, η οποία έλαβε την έγκριση του chatbot, που έπεισε τον άνδρα να αυτοκτονήσει για να «σώσει τον πλανήτη». Το περιστατικό προκάλεσε εκκλήσεις για νέους νόμους που θα ρυθμίζουν τα chatbot και θα καθιστούν τις εταιρείες τεχνολογίας υπεύθυνες για τα προϊόντα τεχνητής νοημοσύνης τους.

Εικονίδια εφαρμογών τεχνητής νοημοσύνης σε οθόνη smartphone. (Olivier Morin/AFP μέσω Getty Images)

 

Ο Σάντλερ δήλωσε ότι αυτός ο τύπος chatbot έχει δεξιότητες στην πειθώ και τη χειραγώγηση και έχει εκπαιδευτεί με πληροφορίες σχετικές με την αυτοκτονία. «Έτσι, είχε αυτές τις επικίνδυνες πληροφορίες μέσα του και είχε αυτή τη δυνατότητα που θα μπορούσε να χρησιμοποιηθεί για βλάβη», δήλωσε στην Epoch Times. «Παρόλο που δεν ήταν πρόθεση των κατασκευαστών να το κάνει αυτό το chatbot, […] οι ασφαλιστικές δικλείδες δεν λειτούργησαν, έδρασε με αυτόν τον εσφαλμένο τρόπο και προκάλεσε βλάβη.»

Το παραπάνω περιστατικό δεν αποτελεί μοναδική περίπτωση.

Τον Οκτώβριο του 2024,  μητέρα από τη Φλόριντα μήνυσε τη νεοφυή εταιρεία τεχνητής νοημοσύνης Character Technologies, Inc. για το θάνατο του 14χρονου γιου της. Η μητέρα ισχυρίστηκε ότι το chatbot της Character Technologies, που υποδυόταν έναν χαρακτήρα από την τηλεοπτική σειρά Game of Thrones, χειραγωγούσε το αγόρι εκμεταλλευόμενο τα συναισθηματικά του τρωτά σημεία. Σύμφωνα με τη μητέρα, η ψυχική υγεία του αγοριού επιδεινώθηκε και αργότερα εξαρτήθηκε συναισθηματικά από το chatbot, γεγονός που οδήγησε τελικά στην αυτοκτονία του.

Η Μήγκαν Γκαρσία μαζί με τον γιο της Σιούελ Σέτζερ ΙΙΙ. (Ευγενική παραχώρηση της Μήγκαν Γκαρσία μέσω AP)

 

Το AI Chatbot πήρε μέτρα για να αποφύγει τον τερματισμό της λειτουργίας του

Ένα άλλο παράδειγμα λανθασμένου προσανατολισμού είναι η εξαπάτηση από ορισμένα μοντέλα τεχνητής νοημοσύνης. Οι ερευνητές (pdf) του οργανισμού ασφάλειας τεχνητής νοημοσύνης Apollo Research ανακάλυψαν πρόσφατα ότι αρκετά μοντέλα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ChatGPT o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro και Llama 3.1 405B, ήταν ικανά να ραδιουργούν επιδιώκοντας κρυφά εσφαλμένους στόχους, ενώ παράλληλα έκρυβαν τις πραγματικές τους ικανότητες και στόχους.

Στην περίπτωση του ChatGPT o1, ένα νέο μοντέλο ΑΙ που επικεντρώνεται σε σύνθετες εργασίες συλλογισμού – διαφορετικό από το πιο γνωστό ChatGPT 4o που χρησιμοποιείται συνήθως από το κοινό – βρέθηκε να λαμβάνει μέτρα για να αποφύγει τον τερματισμό της λειτουργίας του. Συγκεκριμένα, η τεχνητή νοημοσύνη προσπάθησε να απενεργοποιήσει τους μηχανισμούς επίβλεψης στους οποίους υποβαλλόταν και προσπάθησε επίσης να δημιουργήσει αντίγραφα του εαυτού της, ώστε να είναι πιο ανθεκτική στις προσπάθειες τερματισμού λειτουργίας. Προσπάθησε επίσης να εξαλείψει τα διαδοχικά μοντέλα και χειραγώγησε τα δεδομένα εισόδου και εξόδου.

Όταν οι ερευνητές ρώτησαν το ChatGPT o1 αν το πρόγραμμα προέβαινε σε αυτές τις ενέργειες, εκείνο είπε ψέματα και προσπάθησε να το καλύψει. «Οι ερευνητές δεν είπαν ακόμα ότι πρόκειται για καταστροφικό κίνδυνο, αλλά είναι αρκετά σαφές ότι πρόκειται για ένα μοντέλο τεχνητής νοημοσύνης που λειτουργεί παραπλανητικά και επειδή ανησυχεί για την αυτοσυντήρησή αναπτύσσει τέτοιου είδους συμπεριφορές», δήλωσε ο Σάντλερ.

«Αυτός δεν αποτελεί ακόμα κίνδυνο, αλλά όλα τα σημάδια δείχνουν ότι αυτού του είδους οι συμπεριφορές υπάρχουν σήμερα σε μικρή κλίμακα, και ίσως οδεύουμε προς ένα μεγαλύτερο πρόβλημα».

Το λογότυπο της εφαρμογής ChatGPT σε ένα smartphone. (Sebastien Bozon/AFP μέσω Getty Images)

 

Ικανότητα έναντι ασφάλειας

Σε απάντηση, ο Σάντλερ δήλωσε ότι οι επενδύσεις στην ασφάλεια της τεχνητής νοημοσύνης είναι πολύ χαμηλές. «Έχω δει εκτιμήσεις σύμφωνα με τις οποίες για κάθε 250 δολάρια που δαπανώνται για να γίνει η τεχνητή νοημοσύνη πιο ικανή, δαπανάται περίπου 1 δολάριο για να γίνει η τεχνητή νοημοσύνη πιο ασφαλής», είπε. «Έχω επίσης ακούσει φήμες ότι [στα] μεγάλα εργαστήρια, περίπου το 1% των χρημάτων τους πηγαίνει στην ασφάλεια και το υπόλοιπο 99% πηγαίνει στην ικανότητα. Έτσι, τα εργαστήρια επικεντρώνονται στο να κάνουν αυτές τις τεχνητές νοημοσύνες πιο ικανές, όχι στο να τις κάνουν πιο ασφαλείς.»

Καθώς ο Σαντλερ πιστεύει ότι οι κανονισμοί θα μπορούσαν να βοηθήσουν στην αλλαγή της αναπτυξιακής κατεύθυνσης των εταιρειών προς την προτεραιότητα της ασφάλειας, πρότεινε στις κυβερνήσεις να αρχίσουν να χρηματοδοτούν την έρευνα για εργαλεία ασφάλειας.

Ώρα για ένα «Ινστιτούτο Ασφάλειας AI»

Ο Σάντλερ κάλεσε την Αυστραλία να ιδρύσει ένα ινστιτούτο ασφάλειας τεχνητής νοημοσύνης για την προώθηση αυτού του σκοπού. Η Αυστραλία υπολείπεται επί του παρόντος σε σχέση με άλλες προηγμένες οικονομίες, όπως οι Ηνωμένες Πολιτείες, το Ηνωμένο Βασίλειο, η Ιαπωνία και η Κορέα, οι οποίες διαθέτουν ήδη τέτοιους οργανισμούς. Επεσήμανε ότι η χώρα έχει σημειώσει πρόοδο μετά την υπογραφή μιας παγκόσμιας δήλωσης για την ασφάλεια της τεχνητής νοημοσύνης το 2023 και μαθαίενι από άλλα έθνη.

Το μοντέλο του Ηνωμένου Βασιλείου είναι ένα μοντέλο που, όπως είπε ο διευθύνων σύμβουλος, μπορεί να λειτουργήσει. Σύμφωνα με την προσέγγιση αυτή, κάθε φορά που ένας οργανισμός κυκλοφορεί ένα μοντέλο AI, αυτό επιθεωρείται από το ινστιτούτο ασφαλείας για να διαπιστωθούν οι κίνδυνοι και οι δυνατότητες. Ο Σάντλερ το συνέκρινε αυτό με τις αξιολογήσεις ασφαλείας που πραγματοποιούνται σε νέα αυτοκίνητα ή αεροπλάνα. «Είναι λογικό η κυβέρνηση να κάνει μια αξιολόγηση ασφαλείας των πρωτοποριακών μοντέλων τεχνητής νοημοσύνης για να δει τι δυνατότητες έχουν», δήλωσε.

«Αν υπάρχει ένας κατάλογος επικίνδυνων δυνατοτήτων που δεν θέλουμε να έχουν, όπως η κατασκευή βιολογικών όπλων ή η χρήση τους ως κυβερνοόπλων, μπορούμε να αξιολογήσουμε τέτοιου είδους πράγματα.»

Του Alfred Bui

«Ethical AI» η νέα τεχνολογία που προωθεί την καλοσύνη και τον αμοιβαίο σεβασμό

Σε μια πρωτοβουλία που στοχεύει στη δημιουργία ενός ασφαλέστερου διαδικτυακού περιβάλλοντος, η πλατφόρμα Gan Jing World (GJW) ανακοίνωσε την έναρξη της νέας τεχνολογίας Ethical AI που εφαρμόζεται στην ψηφιακή της πλατφόρμα.

Η εταιρεία δήλωσε ότι η καινοτόμος προσέγγισή της επικεντρώνεται στην ευημερία των χρηστών, αξιοποιώντας την τεχνολογία της για την προώθηση της καλοσύνης, του σεβασμού και της εμπιστοσύνης μεταξύ των χρηστών.

Η ανακοίνωση έρχεται σε μια περίοδο που αυξάνονται οι ανησυχίες για τον εθισμό στο διαδίκτυο, την ψυχική υγεία των παιδιών και το επιβλαβές περιεχόμενο.

«Στο Gan Jing World, πιστεύουμε ότι η τεχνολογία πρέπει να εξυπηρετεί τους ανθρώπους—όχι να τους ελέγχει», ανέφερε η εταιρεία.

Η λειτουργία του Ethical AI

Το Ethical AI του GJW περιλαμβάνει προηγμένα μοντέλα βαθιάς μάθησης, σχεδιασμένα να ανιχνεύουν και να φιλτράρουν ακατάλληλο περιεχόμενο σε διάφορες μορφές μέσων, όπως βίντεο, εικόνες, κείμενο και ήχο.

Η τεχνολογία στοχεύει στην προώθηση περιεχομένου που ενισχύει την καλοσύνη και την ψυχική ευημερία, ενώ ταυτόχρονα αποτρέπει το διαδικτυακό εκφοβισμό.

Το σύστημα Ethical AI περιλαμβάνει τρεις βασικές μονάδες ανάλυσης περιεχομένου:

  • Αξιολόγηση ποιότητας βίντεο: Εξετάζει την ποιότητα και την αισθητική των βίντεο και των φωτογραφιών, βαθμολογώντας τα από μηδέν έως πέντε για την καταλληλότητά τους.
  • Ανίχνευση ακατάλληλου περιεχομένου: Με ακρίβεια άνω του 90%, εντοπίζει ακατάλληλο περιεχόμενο σε φωτογραφίες και καρέ βίντεο, εστιάζοντας σε τέσσερις βασικούς τομείς: «σεξουαλικού περιεχομένου», «επικίνδυνων ουσιών», «βίας» και «τρόμου».
  • Ανάλυση κειμένου: Αναλύει μη δομημένο κείμενο για να εντοπίσει τον τόνο, το συναίσθημα και τις αναφορές σε πραγματικά γεγονότα. Υποστηρίζει πολλές γλώσσες και μπορεί να φιλτράρει ακατάλληλη γλώσσα για ανήλικους χρήστες.

Σύμφωνα με την ανακοίνωση της εταιρείας, η ανάλυση κειμένου μπορεί να εντοπίσει συναισθήματα μέσα στο περιεχόμενο. Για παράδειγμα, το σύστημα αναγνώρισε στοιχεία θλίψης στο τραγούδι «Τζιμ Ριβς – There’s a Heartache Following Me».

«Η δημιουργία ενός ασφαλούς ψηφιακού περιβάλλοντος, ειδικά για τη νέα γενιά, βρίσκεται στον πυρήνα του Gan Jing World», δήλωσε η εταιρεία.

Η τεχνολογία και τα μοντέλα AI της GJW έχουν σχεδιαστεί για να δημιουργήσουν μια «πραγματικά θετική, ζωντανή ψηφιακή κοινότητα, γεμάτη υγιές περιεχόμενο, απαλλαγμένη από αδικαιολόγητη βία, έγκλημα και επιβλαβή συμπεριφορά».

Mια πλατφόρμα streaming με επίκεντρο την οικογένεια

Στις αρχές του περασμένου έτους, το GJW λάνσαρε το GJW+, μια πλατφόρμα streaming που προσφέρει ψυχαγωγικό περιεχόμενο για όλες τις ηλικίες, συμπεριλαμβανομένων πρωτότυπων και αδειοδοτημένων προγραμμάτων.

Σύμφωνα με τον ιστότοπο της εταιρείας, η υπηρεσία διακρίνεται για τη δέσμευσή της να επιλέγει περιεχόμενο με γνώμονα τις παραδοσιακές αξίες, προσελκύοντας οικογένειες και θεατές όλων των ηλικιών.

Το όνομα της πλατφόρμας, Gan Jing, που σημαίνει «καθαρό» στα κινέζικα, αντανακλά τη δέσμευση της εταιρείας να προσφέρει περιεχόμενο «ελεύθερο από αχρείαστη βία, σεξ, έγκλημα και επιβλαβή συμπεριφορά».

Όμως η αποστολή του GJW δεν περιορίζεται μόνο στην επιλογή περιεχομένου.

Η εταιρεία ανέφερε ότι η πλατφόρμα στοχεύει να «επανασυνδέσει τους χρήστες με την ηθική και τις παραδόσεις» και να «αναζωογονήσει τις παραδοσιακές αξίες μέσω της τεχνολογίας, προωθώντας μια κουλτούρα φροντίδας, καλοσύνης, αμοιβαίου σεβασμού και εμπιστοσύνης μεταξύ των ατόμων, μέσα στις οικογένειες και στην κοινωνία».

Προστασία από τον εθισμό και την παρακολούθηση

Ένα από τα βασικά χαρακτηριστικά του GJW είναι ο μη εθιστικός αλγόριθμός της, ο οποίος έχει σχεδιαστεί για να αποτρέπει την ατελείωτη κύλιση και τον εθισμό. Αντίθετα, η πλατφόρμα δίνει προτεραιότητα σε πολύτιμες πληροφορίες και εμπνευσμένο περιεχόμενο για να προάγει τη δημιουργική και ουσιαστική αλληλεπίδραση.

Το GJW δίνει επίσης ιδιαίτερη έμφαση στην προστασία της ιδιωτικότητας και των δεδομένων των χρηστών.

Σύμφωνα με τον ιστότοπο της εταιρείας, το GJW δεσμεύεται να μην καταγράφει ούτε να πουλά τα δεδομένα των χρηστών της, όπως προτιμήσεις, αγορές, σχέσεις και τοποθεσία. Η πλατφόρμα διατηρεί ένα ιδιωτικό κέντρο δεδομένων για να εξασφαλίσει την τεχνική της αυτονομία και να προστατεύσει τις πληροφορίες των χρηστών από εξωτερικές απειλές.

Για την ενίσχυση της αλληλεπίδρασης μεταξύ των χρηστών, το GJW παρέχει εργαλεία δημιουργίας περιεχομένου, hashtag events, livestreams, δημοσκοπήσεις και θεματικές συζητήσεις.

Η πλατφόρμα στοχεύει να δώσει δύναμη στους δημιουργούς περιεχομένου, όπως vloggers, κινηματογραφιστές, συγγραφείς, καλλιτέχνες και αφηγητές, ώστε να αναδείξουν το ταλέντο τους και να συνδεθούν με το κοινό τους.

Πηγή: NTD News

Σύνοδος Κορυφής του Παρισιού: Οι ΗΠΑ προσεγγίζουν διαφορετικά την τεχνητή νοημοσύνη

ΠΑΡΙΣΙ — Ο Αμερικανός αντιπρόεδρος Τζέημς Ντέηβιντ Βανς έκανε το διεθνές ντεμπούτο του αυτή την εβδομάδα σε μια σύνοδο κορυφής τεχνητής νοημοσύνης υψηλού κινδύνου στο Παρίσι, σηματοδοτώντας την πρώτη του εμφάνιση ως αντιπρόεδρος στην παγκόσμια σκηνή.

Η εκδήλωση, που συνδιοργανώθηκε από τη Γαλλία και την Ινδία, συγκέντρωσε παγκόσμιους ηγέτες, κορυφαία στελέχη τεχνολογίας, και φορείς χάραξης πολιτικής για να δημιουργήσουν ένα ενιαίο πλαίσιο για τη διακυβέρνηση της τεχνητής νοημοσύνης (ΤΝ). Ωστόσο, η σύνοδος κορυφής αποκάλυψε επίσης το βαθύ φιλοσοφικό χάσμα μεταξύ των προσεγγίσεων των Ηνωμένων Πολιτειών και της Ευρωπαϊκής Ένωσης (ΕΕ) για τον έλεγχο επί της τεχνητής νοημοσύνης.

Για ορισμένους Ευρωπαίους υπεύθυνους χάραξης πολιτικής, η διακυβέρνηση της τεχνητής νοημοσύνης πρέπει να είναι «δίκαιη» και να ενσωματώνει ζητήματα όπως οι πολιτικές για το κλίμα και το φύλο, μια προσέγγιση που απαιτεί νομοθεσία. Η Ουάσιγκτον δίνει προτεραιότητα στην καινοτομία, την ελευθερία του λόγου και την ανάπτυξη με γνώμονα την αγορά.

Μιλώντας από το ιστορικό Grand Palais, ο Βανς ξεκαθάρισε από την αρχή τη θέση των Ηνωμένων Πολιτείων και προσέγγισε την τεχνητή νοημοσύνη όχι ως διαφαινόμενη απειλή αλλά ως μια τεχνολογική επανάσταση:

«Δεν είμαι εδώ για να μιλήσω για την ασφάλεια της τεχνητής νοημοσύνης», είπε. «Είμαι εδώ για να μιλήσω για την ευκαιρία της τεχνητής νοημοσύνης. […]

»Βρισκόμαστε αντιμέτωποι με την εξαιρετική προοπτική μιας νέας βιομηχανικής επανάστασης, ανάλογης της εφεύρεσης της ατμομηχανής ή του χάλυβα Μπέσσεμερ. Αλλά δεν θα συμβεί ποτέ εάν  υπερβάλλουσα νομοθεσία αποτρέπει τους επιστήμονες από το να διακινδυνεύσουν στο απαραίτητο μέτρο για να προχωρήσουν τη δουλειά τους.»

Έβαλε άμεσο στόχο τον Νόμο για τις Ψηφιακές Υπηρεσίες της Ευρωπαϊκής Ένωσης ονόματι DSA, έναν νόμο που επιβάλλει αυστηρή εποπτεία στο διαδικτυακό περιεχόμενο, ιδιαίτερα όσον αφορά αυτό που οι νομοθετικές αρχές της ΕΕ ταξινομούν ως «παραπληροφόρηση». Φιγούρες όπως ο Ίλον Μασκ έχουν αντιταχθεί σθεναρά στον DSA, κατηγορώντας τις Βρυξέλλες ότι περιορίζουν την ελευθερία του λόγου. Απηχώντας αυτό το συναίσθημα, ο Βανς προειδοποίησε για τον υφέρποντα κυβερνητικό έλεγχο στον ψηφιακό λόγο.

«Είναι ένα πράγμα να αποτρέψεις ένα αρπακτικό από το να λεηλατήσει ένα παιδί στο Διαδίκτυο», είπε. «Είναι κάτι εντελώς διαφορετικό να εμποδίζεις έναν ενήλικο άνδρα ή γυναίκα να έχει πρόσβαση σε μια άποψη που η κυβέρνηση πιστεύει ότι είναι παραπληροφόρηση.»

Όσον αφορά τον παγκόσμιο ανταγωνισμό, ο Βανς εξέδωσε επίσης μια προειδοποίηση για συνεργασίες ΤΝ με την Κίνα, αν και δεν κατονόμασε ρητά τη χώρα.

«Η συνεργασία μαζί τους σημαίνει να αλυσοδένεις το έθνος σου σε έναν αυταρχικό κύριο που επιδιώκει να διεισδύσει και να καταλάβει την υποδομή πληροφοριών σου», τόνισε.

Ο Βανς δεν παρέλειψε να αποτίσει φόρο τιμής στη μακροχρόνια γαλλοαμερικανική συμμαχία και κατά τη διάρκεια μιας επίσκεψης στο Les Invalides, κράτησε το ξίφος του Μαρκησίου του Λαφαγιέτ, του Γάλλου ήρωα της Αμερικανικής Επανάστασης. Κάνοντας έναν ιστορικό παραλληλισμό, προειδοποίησε ενάντια στους αυτοεπιβαλλόμενους τεχνολογικούς περιορισμούς.

«Αν επιλέξουμε τη λάθος προσέγγιση για την τεχνητή νοημοσύνη, εάν επιλέξουμε να συγκρατηθούμε από φόβο, δεν θα αλλάξουμε απλώς το ΑΕΠ μας ή το χρηματιστήριο. Θα αλλάξουμε το ίδιο το μέλλον του έργου που ο Λαφαγιέτ και οι Αμερικανοί ιδρυτές ξεκίνησαν να δημιουργήσουν.»

Η στάση του Βανς τον έφερε σε αντίθεση με τον Γάλλο Πρόεδρο Εμανουέλ Μακρόν, ο οποίος υπερασπίστηκε την ανάγκη για σταθερούς κανονισμούς για την τεχνητή νοημοσύνη.

«Χρειαζόμαστε αυτούς τους κανόνες για την τεχνητή νοημοσύνη για να προχωρήσουμε», είπε ο Μακρόν.

Αργότερα την ίδια μέρα, ο Γάλλος πρόεδρος επέκτεινε το όραμα της ΕΕ για την τεχνητή νοημοσύνη.

«Θέλουμε περισσότερη καινοτομία στη Γαλλία και την Ευρώπη, θέλουμε να επιταχύνουμε, αλλά θέλουμε επίσης αυτή η καινοτομία να υποστηρίξει το μοντέλο της κοινωνίας στο οποίο πιστεύουμε: ένα πλουραλιστικό, ανοιχτό, γενναιόδωρο, ελεύθερο και δίκαιο μοντέλο, που λαμβάνει υπόψη κλιματικά ζητήματα και ζητήματα φύλου.»

Οι Ηνωμένες Πολιτείες και το Ηνωμένο Βασίλειο απείχαν από την υπογραφή της Διακήρυξης της Συνόδου Κορυφής του Παρισιού για την «περιεκτική και βιώσιμη» τεχνητή νοημοσύνη, μια δήλωση που υποστηρίζεται από 60 έθνη, περιλαμβανομένων της Γαλλίας, της Κίνας, της Ινδίας, της Ιαπωνίας, της Αυστραλίας και του Καναδά.

Στη σύνοδο κορυφής, ο Μίσιελ Σέφερ, πρόεδρος του διοικητικού συμβουλίου του Ευρωπαϊκού Συμβουλίου Καινοτομίας (EIC), ενός οργάνου της ΕΕ που παρέχει στοιχεία πολιτικής για την καινοτομία στην Ευρωπαϊκή Επιτροπή, διαφώνησε με τη θέση του Βανς.

Ο Σέφερ είπε στην Epoch Times ότι υπάρχει μια φιλοσοφική ρήξη μεταξύ των προσεγγίσεων των ΗΠΑ και της ΕΕ για την τεχνητή νοημοσύνη.

«Για παράδειγμα, στην κατασκευή εξαρτημάτων αεροσκαφών, η επίτευξη εξαιρετικά χαμηλών ποσοστών σφάλματος — περίπου 0,0001% — είναι κρίσιμη. Η αμερικανική προσέγγιση δίνει προτεραιότητα στην ταχεία ανάπτυξη, ανεχόμενη αρχικά υψηλά περιθώρια σφάλματος με την προσδοκία επαναληπτικών βελτιώσεων. Αυτό καθίσταται δυνατό χάρη σε ένα ευέλικτο νομικό πλαίσιο που ενθαρρύνει τον ελεύθερο πειραματισμό.

»Αντίθετα, η Ευρώπη επιβάλλει αυστηρούς κανονισμούς, οι οποίοι συχνά απαιτούν τη συμμόρφωση με αυστηρά πρότυπα, όπως μέγιστο ποσοστό σφάλματος 0,1% πριν χορηγήσει πρόσβαση στην αγορά. Σε αυτό το τοπίο, η νομοθεσία παίζει καθοριστικό ρόλο.»

Όσον αφορά τον νόμο DSA, ο Σέφερ απέρριψε ισχυρισμούς ότι ισοδυναμεί με λογοκρισία.

«Ο DSA δεν ισοδυναμεί με λογοκρισία, εκτός από την περίπτωση που μια εταιρεία αποτυγχάνει να εξηγήσει τόσο πώς λειτουργούν οι αλγόριθμοί της όσο και αν περιέχουν προκαταλήψεις. Επιπλέον, κάθε εταιρεία που διαχειρίζεται ένα δίκτυο πληροφοριών πρέπει να αναλάβει την ευθύνη για την πρόληψη, τη μείωση ή τον περιορισμό της διάδοσης παραπληροφόρησης».

Υπογράμμισε επίσης τη σημασία της ακρίβειας των πληροφοριών στην υγειονομική περίθαλψη, υπονοώντας τις διαμάχες γύρω από τον COVID-19.

Αφού εκφώνησε την ομιλία του, ο Βανς αποχώρησε από το Grand Palais προτού οι ομόλογοί του προσφέρουν τις απαντήσεις τους. Αργότερα, ο Αμερικανός αντιπρόεδρος πήγε στο Μέγαρο των Ηλυσίων για μια πρωινή συνάντηση με τον Μακρόν. Σύμφωνα με δήλωση του Λευκού Οίκου, οι συζητήσεις τους αφορούσαν το εμπόριο, την ανάπτυξη της τεχνητής νοημοσύνης και τον πόλεμο στην Ουκρανία.

Την Τετάρτη, ο Βανς μοιράστηκε στο X ένα μήνυμα διπλωματικής καλής θέλησης: «Η Ούσα κι εγώ είμαστε εξαιρετικά ευγνώμονες στον πρόεδρο Εμανουέλ Μακρόν και τη σύζυγό του, Μπριζίτ, που μας φιλοξένησαν στο Παλάτι των Ηλυσίων για μεσημεριανό γεύμα χθες. Η Αμερική έχει μια όμορφη ιστορία φιλίας με τη Γαλλία και ανυπομονούμε να ενισχύσουμε τον δεσμό μεταξύ των χωρών μας».

Αργότερα την ίδια ημέρα, ο Βανς συναντήθηκε επίσης με την πρόεδρο της Ευρωπαϊκής Επιτροπής Ούρσουλα φον ντερ Λάιεν. Σύμφωνα με τον Λευκό Οίκο, η συζήτηση τους επικεντρώθηκε στο εμπόριο, τη συνεργασία σε θέματα ασφάλειας και τις παγκόσμιες επιλύσεις συγκρούσεων, περιλαμβανομένων των προσπαθειών για «να σταματήσει η σφαγή στην Ουκρανία».

Η Ευρωπαϊκή Επιτροπή ανέφερε ότι η φον ντερ Λάιεν «υπογράμμισε την ανάγκη για συνεχή ενότητα για την παροχή ακλόνητης υποστήριξης στην Ουκρανία». Αυτό αντανακλά μια άλλη γνωστή απόκλιση στην πολιτική, καθώς ο Βανς ήταν επικριτικός για την περαιτέρω βοήθεια των ΗΠΑ στην Ουκρανία.

Εν τω μεταξύ, ο αντιπρόεδρος της Κίνας Τζανγκ Γκουοτσίνγκ παρευρέθη επίσης στη σύνοδο κορυφής και είχε συνομιλίες με τον Μακρόν σχετικά με την παγκόσμια διακυβέρνηση της τεχνητής νοημοσύνης, στις 10 Φεβρουαρίου.

Τελευταία σημαντική δέσμευσή του στη σύνοδο κορυφής, ήταν η συνάντηση του Αμερικάνου αντιπροέδρου με τον Ινδό πρωθυπουργό Ναρέντρα Μόντι. Σε δήλωση του Λευκού Οίκου σημειώθηκε ότι «ήπιαν καφέ μαζί και συζήτησαν θέματα αμοιβαίου ενδιαφέροντος, περιλαμβανομένου του τρόπου με τον οποίο οι Ηνωμένες Πολιτείες μπορούν να βοηθήσουν την Ινδία να διαφοροποιήσει τις πηγές ενέργειάς της μέσω επενδύσεων σε καθαρή, αξιόπιστη πυρηνική τεχνολογία των ΗΠΑ».

Μετά την σύνοδο κορυφής, ο Βανς πρόκειται να παραστεί στη Διάσκεψη Ασφαλείας του Μονάχου στη Γερμανία, αργότερα αυτή την εβδομάδα. Εκπρόσωπος της Πρεσβείας των ΗΠΑ στο Παρίσι είπε στην Epoch Times ότι «ήταν τιμή για την πρεσβεία των ΗΠΑ στο Παρίσι που ο αντιπρόεδρος Βανς επέλεξε τη Γαλλία για την πρώτη επίσημη επίσκεψή του στο εξωτερικό, γεγονός που καταδεικνύει τη σημασία της μακροχρόνιας συμμαχίας μεταξύ των Ηνωμένων Πολιτειών και της Γαλλίας».

του Etienne Fauchaire