Τρίτη, 01 Ιούλ, 2025

Ανθρωποκεντρική Tεχνητή Νοημοσύνη: Το όραμα της Ελλάδας στον ΟΗΕ

‘Ατυπη συνεδρίαση του Συμβουλίου Ασφαλείας του ΟΗΕ -γνωστή ως «φόρμουλα ‘Αρια»- με τίτλο «αξιοποιώντας την ασφαλή, χωρίς αποκλεισμούς και αξιόπιστη τεχνητή νοημοσύνη για τη διατήρηση της διεθνούς ειρήνης και ασφάλειας» διοργάνωσε η Ελλάδα μαζί με τη Γαλλία και τη Δημοκρατία της Κορέας, με συνδιοργανωτές την Αρμενία, την Ιταλία και την Ολλανδία.

Σκοπός της συνεδρίασης ήταν να εξεταστούν τα πρακτικά βήματα που μπορούν να ληφθούν από τον ΟΗΕ και το Συμβούλιο Ασφαλείας για την υπεύθυνη χρήση της τεχνητής νοημοσύνης (AI) για την προστασία της διεθνούς ειρήνης και ασφάλειας.

Οι βασικοί ομιλητές ήταν ο Γιάννης Μαστρογεωργίου, Ειδικός Γραμματέας Στρατηγικής Προοπτικής της Ελληνικής Κυβέρνησης, η Γιασμίν Αφινά, ερευνήτρια AI στο UNIDIR και η Σαρλότ Σκάνταν, Σύμβουλος Πληροφοριακής Ακεραιότητας στο Τμήμα Παγκόσμιας Επικοινωνίας του ΟΗΕ.

Η συνάντηση εστίασε σε τρέχουσες πρωτοβουλίες, προκλήσεις και ευκαιρίες σχετικά με την τεχνητή νοημοσύνη AI, ειδικά σε αποστολές διατήρησης της ειρήνης.

Πρακτικά μέτρα που συζητήθηκαν περιλάμβαναν ρυθμιστικές παρεμβάσεις, μη διάδοση, αποτροπή κακόβουλης στρατιωτικής χρήσης, καθώς και ενίσχυση του κράτους δικαίου και της κοινωνικής συνοχής.

Ο Μόνιμος Αντιπρόσωπος της Ελλάδας, πρέσβης Ευάγγελος Σέκερης, υπογράμμισε τη σημασία της συνεργασίας για την αντιμετώπιση των προκλήσεων που επιφέρει η Τεχνητή Νοημοσύνη.

Xαρακτήρισε την τεχνητή νοημοσύνη ως «την πιο αξιοσημείωτη τεχνολογική καινοτομία της εποχής μας» και τόνισε τη δέσμευσή της Ελλάδας για μια «ανθρωποκεντρική ατζέντα για την τεχνητή νοημοσύνη», βασισμένη στη διαφάνεια, την ηθική χρήση και τη λογοδοσία, ώστε να ενισχύεται η προστασία των ανθρωπίνων δικαιωμάτων και των δημοκρατικών αρχών.

Αναγνώρισε τη σύνδεση της τεχνητής νοημοσύνης με τη διεθνή ειρήνη και ασφάλεια, με αναφορά σε πολλές διεθνείς πρωτοβουλίες και σημείωσε ότι ο Έλληνας Πρωθυπουργός υπέγραψε τη «Διακήρυξη των Παρισίων για τη Διατήρηση του Ανθρώπινου Ελέγχου στα Οπλικά Συστήματα με τεχνητή νοημοσύνη», δεσμευόμενος για υπεύθυνη χρήση της στο στρατιωτικό πεδίο «σε συμφωνία με το διεθνές δίκαιο».

Η Ελλάδα προετοιμάζει εθνική συνεισφορά στην έκθεση του Γενικού Γραμματέα σχετικά με την τεχνητή νοημοσύνη και τη διεθνή ασφάλεια, ενώ οργανώνει και «Διεθνές Συνέδριο Διαχείρισης Κρίσεων» τον Μάιο, με αντικείμενο την τεχνητή στον στρατιωτικό τομέα.

Ο κ. Σέκερης κάλεσε το Συμβούλιο Ασφαλείας να μην αγνοήσει τη «διεθνή συναίνεση» για την ανάγκη ρύθμισης της τεχνητής νοημοσύνης και πρότεινε να συμπεριληφθεί σε εντολές ειρηνευτικών αποστολών η «υπεύθυνη χρήση εφαρμογών τεχνητής νοημοσύνης» με στόχο την προστασία των ειρηνευτικών αποστολών και των αμάχων, καθώς και την αντιμετώπιση «κακόβουλων κυβερνοεπιθέσεων, ρητορικής μίσους και παραπληροφόρησης».

Ιδιαίτερη έμφαση δόθηκε στην ανάγκη συμμόρφωσης με τον «Χάρτη του ΟΗΕ και το Διεθνές Δίκαιο, συμπεριλαμβανομένου του Διεθνούς Ανθρωπιστικού Δικαίου και του Δικαίου των Ανθρωπίνων Δικαιωμάτων».

Η Ελλάδα στήριξε την έκκληση του Γενικού Γραμματέα για «απαγόρευση των φονικών αυτόνομων όπλων» και τη θέσπιση περιορισμών έως το 2026, δηλώνοντας έτοιμη να συμμετάσχει στις σχετικές συζητήσεις ως «εκλεγμένο μέλος του Συμβουλίου Ασφαλείας».

Ο κ. Σέκερης έκανε έκκληση για «ενότητα, διορατικότητα και όραμα» από το Συμβούλιο Ασφαλείας, ώστε να συμβάλει «στις παγκόσμιες προσπάθειες για την αξιοποίηση ασφαλούς, και αξιόπιστης τεχνητής νοημοσύνης για τη διατήρηση της διεθνούς ειρήνης και ασφάλειας».

Ο Γιάννης Μαστρογεωργίου, Ειδικός Γραμματέας Στρατηγικής Προοπτικής της ελληνικής κυβέρνησης και συντονιστής της Συμβουλευτικής Επιτροπής Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη μιλώντας στη συνεδρίαση ανέφερε ότι η Ελλάδα δίνει ιδιαίτερη έμφαση στη διαμόρφωση ενός «παγκόσμιου πλαισίου για την ασφαλή, αξιόπιστη και χωρίς αποκλεισμούς Τεχνητή Νοημοσύνη (AI)».

Η χώρα μας, τόνισε, στηρίζει ενεργά τον ρόλο του ΟΗΕ ως καταλύτη για τη διαμόρφωση κοινών ηθικών και ρυθμιστικών προτύπων, με στόχο η τεχνητή νοημοσύνη να λειτουργήσει προς όφελος της ανθρωπότητας και όχι εις βάρος της διεθνούς ειρήνης και ασφάλειας. Η εθνική στρατηγική για την τεχνητή νοημοσύνη στην Ελλάδας, όπως αποτυπώνεται στον «Οδικό Χάρτη για τον Ψηφιακό Μετασχηματισμό», προτάσσει μια ανθρωποκεντρική προσέγγιση, με έμφαση στη διαφάνεια, τη δημοκρατία και τη βιώσιμη ανάπτυξη.

Η Ελλάδα ανέφερε, συμμετέχει σε κορυφαίες διεθνείς πρωτοβουλίες όπως η Σύνοδος Κορυφής AI στο Παρίσι, το GPAI, η Επιτροπή AI του Συμβουλίου της Ευρώπης, ενώ συνεργάζεται με κορυφαία ακαδημαϊκά ιδρύματα (Oxford, Stanford, Harvard) στο «Lyceum Project», που ενσωματώνει τις αξίες της αριστοτελικής ηθικής στη ρύθμιση της τεχνητής νοημοσύνης.

Επιπλέον, η Ελλάδα αποτελεί μία από τις 7 χώρες της ΕΕ που φιλοξενούν «AI Factories», ενισχύοντας την καινοτομία, τη σύνδεση επιστήμης και οικονομίας και την κοινωνική συνοχή.

Η ελληνική πλευρά τονίζει πως η τεχνητή νοημοσύνη δεν είναι απλώς τεχνολογία, αλλά βαθιά κοινωνική αλλαγή. Υπογραμμίζει την ανάγκη προστασίας των ανηλίκων από τους κινδύνους των εθιστικών αλγορίθμων και της ψηφιακής χειραγώγησης, ενώ στηρίζει την ένταξη της τεχνητής νοημοσύνης στην παγκόσμια ατζέντα ειρήνης και ασφάλειας του ΟΗΕ.

Η εθνική στρατηγική της Ελλάδας για την τεχνητή νοημοσύνη στοχεύει να εξασφαλίσει ότι η τεχνολογική πρόοδος θα συμβαδίζει με «την ενίσχυση των ανθρωπίνων δικαιωμάτων και των δημοκρατικών αρχών».

Στο ίδιο πνεύμα, παρουσιάστηκε το εθνικό σχέδιο «Blueprint for Greece’s AI Transformation», το οποίο καθορίζει αρχές και έργα για την πρόοδο της τεχνητής νοημοσύνης με στόχους όπως η «ενίσχυση της δημοκρατίας, η περιβαλλοντική βιωσιμότητα και η προστασία της κοινωνίας από κινδύνους μη ρυθμιζόμενης χρήσης».

Η Ελλάδα προτείνει συγκεκριμένα βήματα στο πλαίσιο του ΟΗΕ:

– «Διεθνή ερευνητικά κέντρα για την ασφάλεια και την ηθική της τεχνητής νοημοσύνης»

– «Δημιουργία διεθνούς παρατηρητηρίου τεχνητής νοημοσύνης»

– «Εξειδικευμένα φόρα διαλόγου μεταξύ υπευθύνων πολιτικής, επιστημόνων, κοινωνίας πολιτών και βιομηχανίας»

Ο κ. Μαστρογεωργίου επανέλαβε την ανάγκη λήψης μέτρων για την προστασία των παιδιών από «τους κινδύνους του ψηφιακού κόσμου, τους εθιστικούς αλγόριθμους και τους μηχανισμούς χειραγώγησης», τονίζοντας ότι η τεχνητή νοημοσύνη αποτελεί «βαθιά κοινωνική αλλαγή που επηρεάζει τον τρόπο που εργαζόμαστε, επικοινωνούμε, εκπαιδευόμαστε και μεγαλώνουμε τα παιδιά μας».

Η Ελλάδα προειδοποιεί, ανέφερε, πως χωρίς κοινό ρυθμιστικό πλαίσιο, η τεχνητή νοημοσύνη μπορεί να αυξήσει τις διακρίσεις και να απειλήσει την ειρήνη.

Κύπρος: Αξιοποίηση τεχνητής νοημοσύνης για δημόσιο καλό, οικονομική ανάπτυξη, καινοτομία

H Aναπλ. Μόνιμη Αντιπρόσωπος της Κύπρου Γαβριέλλα Μιχαηλίδου, που συμμετείχε στη συνεδρίαση τόνισε ότι η Κυπριακή Δημοκρατία θα αξιοποιήσει την τεχνητή νοημοσύνη για «το δημόσιο καλό, την οικονομική ανάπτυξη και την καινοτομία», διασφαλίζοντας ότι η ανάπτυξή της παραμένει «ηθική και διαφανής», σε συμφωνία με τα ευρωπαϊκά και διεθνή πρότυπα.

Η Κύπρος επισήμανε την ανάγκη για άμεση καθιέρωση «αρχών, των διεθνών κανόνων και κανονισμών» σχετικά με τις αναδυόμενες τεχνολογίες όπως η τεχνητή νοημοσύνη και τα αυτόνομα οπλικά συστήματα, προκειμένου να διασφαλιστεί η αποτελεσματική διαχείριση συγκρούσεων και η διατήρηση της διεθνούς ασφάλειας.

Η διαφάνεια και η ενσωμάτωση, ανέφερε, κρίνονται απαραίτητες για την αποτροπή «κακής χρήσης που θα μπορούσε να απειλήσει την πολιτική σταθερότητα, τη δημοκρατία και τη διεθνή ασφάλεια», με έμφαση στην προστασία ευάλωτων ομάδων από «δυσανάλογες βλάβες».

Τόνισε επίσης τη σημασία της διαδικασίας REAIM στη διαμόρφωση «διεθνών ηθικών προτύπων» που ενισχύουν την εμπιστοσύνη και μειώνουν τους κινδύνους που σχετίζονται με τον κυβερνοπόλεμο και τις στρατιωτικές δυνατότητες που βασίζονται στην τεχνητή νοημοσύνη.

Υπογραμμίζοντας ότι «το διεθνές δίκαιο εφαρμόζεται στην τεχνητή νοημοσύνη», η Κύπρος υποστήριξε τον ενεργό ρόλο του ΟΗΕ-ιδίως μέσω του Συμβουλίου Ασφαλείας-για την προώθηση ρυθμίσεων που αποτρέπουν «κακόβουλες ενέργειες, όπως η ανάπτυξη αυτόνομων όπλων, ο κυβερνοπόλεμος και η παραπληροφόρηση».

Σε περιβαλλοντικό επίπεδο, η Κύπρος στηρίζει λύσεις μέσω τεχνητής νοημοσύνης που μειώνουν την κατανάλωση ενέργειας και τις εκπομπές άνθρακα, στηρίζοντας τον «Συνασπισμό για Βιώσιμη Τεχνητή Νοημοσύνη» και προωθώντας πολιτικές που ευθυγραμμίζονται με τους στόχους βιωσιμότητας της ΕΕ και σε παγκόσμιο επίπεδο.

Τέλος, η Κύπρος τονίζει την ανάγκη για στενές συνεργασίες μεταξύ ΟΗΕ, κυβερνήσεων, τεχνολογικού τομέα και κοινωνίας των πολιτών ώστε να διατηρηθεί «η ακεραιότητα της πληροφορίας» και να αντιμετωπιστούν αποτελεσματικά ο εξτρεμισμός και η ρητορική μίσους, συμβάλλοντας συνολικά στην «ενίσχυση της διεθνούς ειρήνης, ασφάλειας και της συμμόρφωσης με το διεθνές ανθρωπιστικό δίκαιο».

Στη συνεδρίαση τονίστηκε η ανάγκη για μια χωρίς αποκλεισμούς και συντονισμένη προσέγγιση, ώστε η τεχνητή νοημοσύνη AI να αξιοποιηθεί για την ειρήνη και όχι για την πρόκληση συγκρούσεων.

Του Γ. Γαραντζιώτη

Ειδικοί καλούν την Αυστραλία να διαχειριστεί τους κινδύνους της AI «πριν να είναι αργά»

Περισσότεροι από 100 ειδικοί στην τεχνητή νοημοσύνη και ανήσυχα μέλη της κοινότητας υπέγραψαν ανοιχτή επιστολή, ζητώντας από την επόμενη αυστραλιανή κυβέρνηση να δημιουργήσει ένα Ινστιτούτο Ασφαλείας AI (AI Safety Institute-AISI) ώστε να διαχειριστεί τους κινδύνους που απορρέουν από την τεχνολογία πριν να είναι πολύ αργά. Η επιστολή απεστάλη στα πολιτικά κόμματα εν όψει των ομοσπονδιακών εκλογών του Μαΐου.

Οι ειδικοί προέτρεψαν τους πολιτικούς να τηρήσουν τις δεσμεύσεις που ανέλαβε η αυστραλιανή κυβέρνηση στη Σύνοδο Κορυφής της Σεούλ για την AI τον Μάιο του 2024. Σύμφωνα με τη Διακήρυξη της Σεούλ (Seoul Declaration), οι συμμετέχουσες χώρες υποσχέθηκαν να «δημιουργήσουν ή να επεκτείνουν ινστιτούτα ασφάλειας της AI, ερευνητικά προγράμματα και άλλους σχετικούς θεσμούς, συμπεριλαμβανομένων εποπτικών φορέων». Ωστόσο, η Αυστραλία παραμένει η μόνη χώρα που υπέγραψε τη διακήρυξη χωρίς να έχει ιδρύσει ακόμη ένα τέτοιο ινστιτούτο.

Ο Γκρεγκ Σάντλερ, διευθύνων σύμβουλος της Good Ancestors Policy («Πολιτική καλών προγόνων») και συντονιστής της ομάδας Australians for AI Safety («Αυστραλοί για την ασφάλεια της AI»), επεσήμανε ότι η αθέτηση μίας επίσημης δέσμευσης δημιουργεί ένα επικίνδυνο προηγούμενο για τη χώρα.

Ο Τόμπι Όρντ, ανώτερος ερευνητής στο Πανεπιστήμιο της Οξφόρδης και μέλος του διοικητικού συμβουλίου του Centre for the Governance of AI («Κέντρο για τη διακυβέρνηση της ΑΙ»), προειδοποίησε ότι η Αυστραλία κινδυνεύει να βρεθεί σε θέση όπου δεν θα έχει ουσιαστικό λόγο για τα συστήματα τεχνητής νοημοσύνης. Σύμφωνα με τον ίδιο, η ίδρυση ενός αυστραλιανού Ινστιτούτου Ασφαλείας AI θα της επέτρεπε να συμμετέχει ενεργά στη διεθνή διακυβέρνηση αυτής της κρίσιμης τεχνολογίας.

Η επιστολή τόνισε, επίσης, ότι ενώ οι οργανισμοί επενδύουν τεράστια ποσά στην ενίσχυση των δυνατοτήτων της AI, ελάχιστη χρηματοδότηση διατίθεται για την κατανόηση και την αντιμετώπιση των κινδύνων της. Ο Σάντλερ ανέφερε σε προηγούμενη συνέντευξή του ότι για κάθε 250 δολάρια που δαπανώνται για την ανάπτυξη της AI, μόλις 1 δολάριο επενδύεται στην ασφάλειά της.

Η επιστολή υπογράμμισε την ανάγκη ύπαρξης ανεξάρτητης τεχνικής εξειδίκευσης εντός της κυβέρνησης, ώστε να συνδεθεί η Αυστραλία με την παγκόσμια έρευνα για τους κινδύνους της AI και να διασφαλιστεί ότι οι ρυθμίσεις και οι πολιτικές καλύπτουν τις ανάγκες της χώρας.

Υποχρεωτικά μέτρα ασφαλείας για την AI

Παράλληλα, οι ειδικοί ζήτησαν τη θέσπιση ενός «Νόμου για την AI», ο οποίος θα υποχρεώνει τους προγραμματιστές και τους παρόχους της τεχνητής νοημοσύνης στην Αυστραλία να εφαρμόζουν υποχρεωτικές δικλείδες ασφαλείας στα προϊόντα τους. Αν και η κυβέρνηση έχει ήδη διαβουλευτεί με τον κλάδο σχετικά με την ασφαλή και υπεύθυνη χρήση της AI, καθώς και την πιθανότητα επιβολής υποχρεωτικών μέτρων προστασίας για τα συστήματα υψηλού κινδύνου, οι ειδικοί θεωρούν ότι ήρθε η ώρα το επόμενο κοινοβούλιο να μετατρέψει τη συζήτηση σε πράξη.

Ο καθηγητής Πωλ Σάλμον από το Πανεπιστήμιο του Sunshine Coast και ιδρυτής του Centre for Human Factors and Sociotechnical Systems («Κέντρου Ανθρωποκεντρικών και Κοινωνικοτεχνικών Συστημάτων») υποστήριξε την υιοθέτηση ενός Νόμου για την AI, σημειώνοντας ότι κάτι τέτοιο θα εξασφάλιζε την αποτελεσματική διαχείριση των κινδύνων. Ο Σάλμον προειδοποίησε ότι η ευκαιρία να διασφαλιστεί ότι όλες οι τεχνολογίες AI είναι ασφαλείς, ηθικές και επωφελείς για την ανθρωπότητα χάνεται με ταχύ ρυθμό.

Ο Γιάννης Κυριάκος, διευθυντής της AI Safety Australia and New Zealand, επεσήμανε ότι η Αυστραλία δεν διαθέτει επί του παρόντος νομικό πλαίσιο που να εγγυάται στους πολίτες ότι η AI είναι ασφαλής προς υιοθέτηση. Τόνισε ότι η ύπαρξη ισχυρών μηχανισμών διασφάλισης είναι απαραίτητη για την εμπιστοσύνη του κοινού. Σύμφωνα με τον ίδιο, ενώ υπάρχει ενθουσιασμός για τις δυνατότητες της AI, δεν καταβάλλονται επαρκείς προσπάθειες για την αντιμετώπιση σοβαρών ανησυχιών που αφορούν την ασφάλεια. Aναφερόμενος στις επιφυλάξεις των πολιτών, σημείωσε ότι είναι λογικό οι Αυστραλοί να διστάζουν να υιοθετήσουν την AI όσο παραμένουν άλυτα τα κρίσιμα αυτά ζητήματα.

Μελέτη του Πανεπιστημίου του Κουήνσλαντ το 2024 έδειξε ότι η κορυφαία προτεραιότητα για τους πολίτες είναι η πρόληψη επικίνδυνων και καταστροφικών συνεπειών από την AI, με οκτώ στους δέκα να θεωρούν ότι η αποτροπή μιας πιθανής εξαφάνισης λόγω της AI πρέπει να αποτελεί παγκόσμια προτεραιότητα. Οι μεγαλύτερες ανησυχίες των ερωτηθέντων αφορούσαν την πιθανότητα η AI να λειτουργήσει σε αντίθεση με τα ανθρώπινα συμφέροντα, την κακόβουλη χρήση της από τρίτους και τις επιπτώσεις της στην απασχόληση. Επιπρόσθετα, εννέα στους δέκα συμμετέχοντες επιθυμούσαν τη δημιουργία ενός νέου ρυθμιστικού φορέα για την AI από την κυβέρνηση.

Του Alfred Bui

Καναδικό πανεπιστήμιο απαγορεύει το κινεζικό AI DeepSeek λόγω ανησυχιών για την ασφάλεια και την ιδιωτικότητα

Σε μία κίνηση που αντικατοπτρίζει τις αυξανόμενες ανησυχίες για τις κινεζικές εφαρμογές τεχνητής νοημοσύνης, το Πανεπιστήμιο της Βρετανικής Κολούμπια (UBC) στον Καναδά ανακοίνωσε την απαγόρευση του κινεζικού εργαλείου τεχνητής νοημοσύνης DeepSeek από όλες τις συσκευές και τα δίκτυα του ιδρύματος.

Σοβαρές ανησυχίες για την ασφάλεια και την ιδιωτικότητα

Σε ανακοίνωση που εξέδωσε στις 20 Μαρτίου, το UBC διευκρίνισε ότι η απόφαση ελήφθη αφότου η εφαρμογή χαρακτηρίστηκε «υψηλού κινδύνου» σε σχέση με την ιδιωτικότητα και την ασφάλεια των δεδομένων.

«Οι εφαρμογές του DeepSeek εγείρουν ανησυχίες για την ιδιωτικότητα και την ασφάλεια, ιδιαίτερα όσον αφορά την εκτεταμένη συλλογή και κοινή χρήση δεδομένων, συμπεριλαμβανομένων προσωπικών πληροφοριών και του δικαιώματος καταγραφής πληκτρολογήσεων, μαζί με αδύναμες πρακτικές κρυπτογράφησης και ασφάλειας», ανέφερε το πανεπιστήμιο.

Η απόφαση βασίστηκε σε εκτενή αξιολόγηση δημόσιων πληροφοριών και αξιολογήσεων τρίτων για το DeepSeek, συμπεριλαμβανομένων ευρημάτων από κορυφαίους ερευνητές κυβερνοασφάλειας, αναλύσεις εταιρειών ασφαλείας και κατευθυντήριες γραμμές από ομοσπονδιακές και επαρχιακές κυβερνήσεις.

Αυστηροί περιορισμοί και συνέπειες μη συμμόρφωσης

Το UBC όχι μόνο περιορίζει την εγκατάσταση και χρήση των εφαρμογών DeepSeek στο πανεπιστήμιο, αλλά «συνιστά έντονα» να αποφεύγεται η χρήση ή εγκατάστασή του ακόμη και σε προσωπικές συσκευές, ειδικά σε αυτές που χρησιμοποιούνται για πανεπιστημιακές δραστηριότητες.

Η απαγόρευση περιλαμβάνει:
– Συσκευές του πανεπιστημίου
– Ασύρματα δίκτυα του UBC
– Συστήματα βιβλιοθήκης
– Άλλα συστήματα που απαιτούν όνομα χρήστη και κωδικό πρόσβασης

Το πανεπιστήμιο προειδοποιεί ότι θα χρησιμοποιήσει «προληπτικά μέτρα για να αποκλείσει τις εφαρμογές DeepSeek για τους χρήστες» στα δίκτυά του, ενώ τονίζει ότι οι χρήστες που δεν συμμορφώνονται με τα πρότυπα του UBC θα υπόκεινται σε «πλήρες φάσμα πειθαρχικών ενεργειών», που μπορεί να περιλαμβάνουν ακόμη και την απώλεια πρόσβασης σε προνόμια υπολογιστών και δίκτυα του πανεπιστημίου.

Αξιοσημείωτο είναι ότι, σύμφωνα με εκπρόσωπο του UBC, το DeepSeek είναι το μοναδικό εργαλείο τεχνητής νοημοσύνης που έχει απαγορευτεί στο πανεπιστήμιο, το οποίο δεν σχεδιάζει να περιορίσει άλλες παρόμοιες εφαρμογές.

Μέρος ενός ευρύτερου κύματος απαγορεύσεων

Η απόφαση του UBC ακολουθεί ένα κύμα παρόμοιων απαγορεύσεων παγκοσμίως. Το DeepSeek, που έγινε μία από τις πιο δημοφιλείς δωρεάν εφαρμογές στο App Store της Apple όταν κυκλοφόρησε στα τέλη Ιανουαρίου, γρήγορα βρέθηκε στο επίκεντρο λόγω ανησυχιών για την ασφάλεια.

Τον Φεβρουάριο, η καναδική κυβέρνηση απαγόρευσε το DeepSeek από τις κυβερνητικές συσκευές, με τον διευθύνοντα σύμβουλο Πληροφορικής του Καναδά, Ντομινίκ Ροσόν, να επικαλείται «σοβαρές ανησυχίες για την ιδιωτικότητα, που σχετίζονται με την ακατάλληλη συλλογή και διατήρηση ευαίσθητων προσωπικών πληροφοριών».

Παράλληλες απαγορεύσεις έχουν επιβληθεί και από άλλες χώρες:
– Η Αυστραλία απαγόρευσε την εφαρμογή στις 4 Φεβρουαρίου, χαρακτηρίζοντάς την «απαράδεκτο κίνδυνο»
– Η Ταϊβάν ανακοίνωσε απαγόρευση για τις δημόσιες υπηρεσίες λόγω ανησυχιών εθνικής ασφάλειας
– Αμερικανοί νομοθέτες, από διαφορετικές πολιτικές παρατάξεις, εισήγαγαν νομοσχέδιο τον Φεβρουάριο που επιδιώκει να απαγορεύσει τη χρήση της κινεζικής εφαρμογής σε κυβερνητικές συσκευές

Ανησυχίες για προπαγάνδα και λογοκρισία του ΚΚΚ

Πέρα από τις ανησυχίες για την ασφάλεια των δεδομένων, επικριτές του κινεζικού καθεστώτος έχουν εκφράσει προβληματισμούς σχετικά με τον πιθανό ρόλο του DeepSeek στην προώθηση της περιστολής ανθρωπίνων δικαιωμάτων και της λογοκρισίας από το Κομμουνιστικό Κόμμα Κίνας (ΚΚΚ).

Η εκτενής εξέταση της εφαρμογής που έκανε η Epoch Times τον προηγούμενο μήνα έδειξε ότι το πρόγραμμα ακολουθεί στενά την ιδεολογία του ΚΚΚ, λογοκρίνοντας απαντήσεις επικριτικές προς το καθεστώς και προωθώντας απόψεις ευνοϊκές προς αυτό.

Η αυξανόμενη τάση απαγορεύσεων του DeepSeek αντικατοπτρίζει τις ευρύτερες ανησυχίες για την ασφάλεια των κινεζικών τεχνολογικών προϊόντων και τη δυνητική τους χρήση για στόχους που υπερβαίνουν τις συνήθεις εμπορικές εφαρμογές.

Οι ψεύτικες εικόνες είναι παντού — Πώς να τις εντοπίσετε

Καθώς η τεχνητή νοημοσύνη (AI) συνεχίζει να αναπτύσσεται, γίνεται όλο και πιο δύσκολο να διακρίνει κανείς τη διαφορά μεταξύ πραγματικών φωτογραφιών και εικόνων που δημιουργούνται από AI.

Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει τα πάντα, από εκπληκτικά τοπία έως ζωντανά πορτρέτα σε λίγες στιγμές — και με την πρώτη ματιά, μπορεί να φαίνονται απολύτως πραγματικά.

Σε αυτήν την εποχή της παραπληροφόρησης, πώς μπορείτε να διακρίνετε εάν οι εικόνες που βλέπετε είναι πραγματικές ή κατασκευασμένες;

Ευτυχώς, υπάρχουν λεπτές ενδείξεις που μπορούν να μας βοηθήσουν να ξεχωρίσουμε, συμπεριλαμβανομένων των ασυνεπειών στην υφή, των ανωμαλιών στα ανθρώπινα χαρακτηριστικά και της μπερδεμένης γραφής. Κατανοώντας αυτά τα ενδεικτικά σημεία, μπορείτε να πλοηγηθείτε καλύτερα στις ψηφιακές πληροφορίες και να αξιολογήσετε την αυθεντικότητα των εικόνων που συναντάτε.

Αφύσικα χέρια και άκρα

AI που δημιουργήθηκε με Freepik

 

Τα χέρια και τα άκρα είναι εκπληκτικά πολύπλοκες δομές και η τεχνητή νοημοσύνη συχνά παλεύει να τα σχεδιάσει με ακρίβεια. Ψάξτε για άκυρα, παράξενα σχήματα ή κακώς ευθυγραμμισμένα δάχτυλα. Μπορεί επίσης να τοποθετηθούν με ασυνήθιστο τρόπο ή να έχουν ακατάλληλες διαστάσεις.

Στην παραπάνω εικόνα, τα χέρια και τα πόδια των παιδιών φαίνονται αφύσικα, με κακοσχηματισμένα δάχτυλα των χεριών και ποδιών, καθώς και εσφαλμένα ευθυγραμμισμένα λουριά σανδαλιών.

AI που δημιουργήθηκε με Freepik

 

Ασυμφωνίες στις λεπτομέρειες

AI που δημιουργήθηκε με το Flux Pro

 

Η τεχνητή νοημοσύνη δυσκολεύεται να αποδώσει μικρές λεπτομέρειες, επομένως μπορεί επίσης να δείτε αντικείμενα και στοιχεία να συγχωνεύονται διακριτικά μεταξύ τους με αφύσικους τρόπους. Αυτές οι ατέλειες προκύπτουν επειδή η τεχνητή νοημοσύνη βασίζεται στην αναγνώριση προτύπων, η οποία μπορεί να αποτύχει όταν χειρίζεστε περίπλοκες ή μικρές λεπτομέρειες.

Επομένως, εάν δεν είστε βέβαιοι εάν μια φωτογραφία πλήθους είναι πραγματική, ρίξτε μια ματιά στις λεπτομέρειες. Για παράδειγμα, τα πρόσωπα φόντου είναι συχνά θολά ή έχουν απαλά, κακώς καθορισμένα χαρακτηριστικά.

Σε αυτήν την εικόνα που δημιουργήθηκε από τεχνητή νοημοσύνη, ο άνδρας στο νερό έχει ένα θολό πρόσωπο και χέρια χωρίς δάχτυλα, ενώ ο νεαρός άνδρας στην άμμο έχει ένα διαφανές πόδι που φαίνεται να συγχωνεύεται στο φόντο.

AI που δημιουργήθηκε με το Flux Pro

 

Υπερβολικά τέλειο δέρμα

AI που δημιουργήθηκε με Freepik

 

AI που δημιουργήθηκε με Freepik

 

Το να βλέπετε ένα υπερβολικά λείο πρόσωπο με πολύ λίγη υφή είναι σημάδι μιας φωτογραφίας που δημιουργήθηκε από AI. Η έλλειψη γνήσιας υφής και τα ελαττώματα μπορεί να κάνουν το άτομο να φαίνεται σχεδόν κωμικό.

Στις παραπάνω εικόνες, το κορίτσι έχει εξαιρετικά λείο δέρμα και μαλλιά που δένουν με τον γιακά της. Το αγόρι έχει επίσης δέρμα που είναι πολύ λείο.

Ασυμφωνίες

AI που δημιουργήθηκε με Freepik

 

Η τεχνητή νοημοσύνη μπορεί να δυσκολευτεί με τις ευθυγραμμίσεις, με αποτέλεσμα μια ασύνδετη ή ασυνάρτητη εμφάνιση, επειδή τα στοιχεία δεν ευθυγραμμίζονται σωστά.

Τα αντικείμενα μπορεί να επικαλύπτονται με αφύσικους τρόπους που αψηφούν τη χωρική συνοχή.

Κάντε μεγέθυνση για να εντοπίσετε ασυνέπειες, όπως στην παραπάνω εικόνα, στην οποία οι γραμμές του φυτού κόβουν τα αντικείμενα για πικνίκ. Οι γραμμές υφής στο υφαντό καλάθι για πικνίκ και στον δίσκο δεν είναι ευθυγραμμισμένες.

AI που δημιουργήθηκε με Freepik

 

Ασυνέπειες και ασυμμετρίες σε μικρές λεπτομέρειες

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

Ασυνέπειες σε δευτερεύοντα πράγματα, όπως γυαλιά με αταίριαστους φακούς ή σκελετό, θα πρέπει να είναι εύκολο να παρατηρηθούν.

Αν και φαίνονται αυθεντικές με την πρώτη ματιά, αυτές οι φωτογραφίες που δημιουργήθηκαν από AI έχουν ελαττώματα που μπορεί να φανούν με μια πιο προσεκτική εξέταση.

Η γυναίκα στην πάνω εικόνα φοράει δύο εντελώς διαφορετικά σκουλαρίκια.

Η κεντρική εικόνα προδίδεται ως τεχνητή νοημοσύνη από την αριστερή γωνία, όπου το πουκάμισο του άνδρα συνδυάζεται με το φόντο.

Στην κάτω εικόνα, τα τελικά τμήματα των γυαλιών δεν ταιριάζουν.

Λανθασμένη γραφή

AI που δημιουργήθηκε με το Flux Pro

 

Οι εικόνες που δημιουργούνται από τεχνητή νοημοσύνη συχνά παράγουν μπερδεμένο ή παράλογο κείμενο, με γράμματα και λέξεις ανακατεμένα.

Ρίξτε μια προσεκτική ματιά σε οποιαδήποτε γραφή ή λογότυπα στην εικόνα για να δείτε εάν είναι δυσανάγνωστα ή εντελώς ασυνάρτητα.

Αυτή η εικόνα, που δημιουργήθηκε από AI, απεικονίζει την κυκλοφορία σε έναν πολυσύχναστο δρόμο. Μετά από πιο προσεκτική εξέταση, μπορείτε να δείτε ότι το κείμενο στην πινακίδα στην άκρη του δρόμου είναι ψεύτικο.

Παράλογες εικόνες

AI που δημιουργήθηκε με το Flux Pro

 

Η εικόνα απεικονίζει ένα πιθανό γεγονός; Εάν το αντικείμενο φαίνεται άκυρο στο περιβάλλον του, παράλογο, ή πολύ απίθανο, τότε μπορεί να είναι τεχνητά κατασκευασμένο.

Η παραπάνω εικόνα ενός ατόμου που κρατά μια γάτα ενώ οδηγεί μια καμήλα είναι ένα καλό παράδειγμα καθώς είναι απίθανο να το βρείτε σε έναν αστικό δρόμο.

Θολό φόντο

Πάνω: AI που δημιουργήθηκε με Freepik. Κάτω: Samira Bouaou/The Epoch Times

 

Ένα πιο εμφανές σημείο ύπαρξης AI είναι ένα υπόβαθρο που είναι τόσο θολό που στερείται διακριτικών λεπτομερειών.

Αποτελείται εξ ολοκλήρου από φως και υφές και μπορεί να μοιάζει με αυτό που μπορεί να βρείτε σε ένα φωτογραφικό στούντιο ή σε φωτογραφίες που τραβήχτηκαν με εξαιρετικά χαμηλό διάφραγμα.

Ωστόσο, μια πραγματική φωτογραφία που λαμβάνεται με χαμηλό διάφραγμα έχει μια πιο σταδιακή μετάβαση μεταξύ του θολού και του εστιασμένου, ενώ οι εικόνες που δημιουργούνται με τεχνητή νοημοσύνη έχουν μια ευκρινή διάκριση μεταξύ των δύο.

Σε αυτήν την εικόνα AI, δεν υπάρχει μετάβαση από θολό σε ευκρινές, ούτε από το εμπρός έδαφος στο θέμα ούτε από το θέμα στο υπόβαθρο.

Στην πραγματική φωτογραφία, μπορούμε να δούμε στο βάθος πίσω από το κορίτσι μια πιο σταδιακή μετάβαση από τις θολές τουλίπες σε ένα πολύ θολό τοπίο.

Εξετάστε την αρχική ανάρτηση

(Επάνω) Ένα βίντεο δείχνει πώς να κάνετε αντίστροφη αναζήτηση στο Google. (Κάτω) Η αρχική φωτογραφία. (The Epoch Times, Just2_U_/X, Evan Vucci/AP Photo)

 

Εάν μπορείτε να πραγματοποιήσετε αντίστροφη αναζήτηση στην εικόνα και να βρείτε την πηγή της, αυτός είναι ένας πολύ καλός τρόπος για να προσδιορίσετε την αυθεντικότητά της.

Η αναζήτηση Google και το TinEye είναι χρήσιμα εργαλεία για αυτό. Εάν η αρχική εικόνα εμφανίστηκε σε μια ανάρτηση, τότε τα σχόλια, οι ετικέτες ή οι λεζάντες ενδέχεται να την προσδιορίσουν ως εικόνα που δημιουργήθηκε από AI.

Επισκεφτείτε το Images.google.com για να χρησιμοποιήσετε την αντίστροφη αναζήτηση εικόνων της Google στον υπολογιστή σας. Για να αποκτήσετε πρόσβαση στο Google Lens, απλώς κάντε κλικ στο σύμβολο της κάμερας και μεταφορτώστε μια εικόνα ή έναν σύνδεσμο εικόνας.

Το παραπάνω παράδειγμα δείχνει μια αλλαγμένη εικόνα πρακτόρων της Μυστικής Υπηρεσίας που προστατεύουν τον Αμερικανό πρόεδρο Ντόναλντ Τραμπ μετά από απόπειρα δολοφονίας εναντίον του στην προεκλογική του συγκέντρωση στο Μπάτλερ της Πενσυλβάνια, στις 13 Ιουλίου. Οι πράκτορες γύρω από τον Τραμπ χαμογελούν, κάτι που φαίνεται να είναι μια απίθανη αντίδραση δεδομένης της κατάστασης. Μια αναζήτηση για την εικόνα χρησιμοποιώντας το εργαλείο περιήγησης «Αναζήτηση εικόνων Google» οδηγεί σε πολλούς ιστότοπους που χρησιμοποιούν φωτογραφίες παρόμοιες με αυτήν. Από τους τίτλους και το περιεχόμενο άλλων πηγών ιστού, είναι εύκολο να αναγνωριστεί αυτή η εικόνα ως μια ψεύτικη εικόνα, ενώ η αρχική φωτογραφία δείχνει ότι οι πράκτορες είχαν σοβαρές εκφράσεις προσώπου.

Για να χρησιμοποιήσετε το Google Lens στο τηλέφωνό σας, απλώς ανοίξτε το με το εικονίδιο της κάμερας. Θα σας ζητήσει είτε να δείξετε το αντικείμενο με την κάμερά σας είτε να επιλέξετε μια εικόνα.

Δεν θα μπορείτε να επικολλήσετε τη διεύθυνση URL της εικόνας στο τηλέφωνό σας. Για να το κάνετε αυτό στο Safari στο iOS, μεταβείτε στο Google.com και πατήστε το εικονίδιο aA. Κάνοντας κλικ στο «Ζητήστε σάιτ για υπολογιστή» θα φορτωθεί η έκδοση για υπολογιστή, όπου μπορείτε να εισαγάγετε μια διεύθυνση URL ή να ανεβάσετε αποθηκευμένες εικόνες.

Για να το κάνετε αυτό στο Chrome σε κινητή συσκευή, μεταβείτε στο Google.com και πατήστε το μενού με τις τρεις κουκκίδες και, στη συνέχεια, φορτώστε την έκδοση για επιτραπέζιους υπολογιστές επιλέγοντας «Ζητήστε σάιτ για υπολογιστή».

Χρησιμοποιήστε ανιχνευτές AI

Κερδίστε το AI στο δικό του παιχνίδι χρησιμοποιώντας ανιχνευτές AI. Αυτά τα εργαλεία αναλύουν διάφορες πτυχές μιας εικόνας, όπως μοτίβα εικονοστοιχείων, ασυνέπειες και ψηφιακά τεχνουργήματα που μπορεί να μην είναι άμεσα ορατά στο ανθρώπινο μάτι.

Ορισμένοι ανιχνευτές επικεντρώνονται στον εντοπισμό συγκεκριμένων ψηφιακών υπογραφών ή μεταδεδομένων που αποκαλύπτουν τη χρήση εργαλείων AI. Άλλοι χρησιμοποιούν εγκληματολογικές τεχνικές για να ανιχνεύσουν ασυνέπειες στον φωτισμό, τις υφές ή τα μοτίβα.

Ευτυχώς, αυτά τα εργαλεία ανίχνευσης AI αναπτύσσονται παράλληλα με την τεχνολογία AI, ώστε να μπορούν να συμβαδίζουν καθώς οι εικόνες AI γίνονται πιο εξελιγμένες.

Μερικοί ανιχνευτές AI είναι:

GoWinston.ai
AIOrNot.com
ContentAtScale.ai/ai-image-detector
App.Illuminarty.ai
IsItAI.com/ai-image-detector

Της Άντρια Πρέσσελ

«Ethical AI» η νέα τεχνολογία που προωθεί την καλοσύνη και τον αμοιβαίο σεβασμό

Σε μια πρωτοβουλία που στοχεύει στη δημιουργία ενός ασφαλέστερου διαδικτυακού περιβάλλοντος, η πλατφόρμα Gan Jing World (GJW) ανακοίνωσε την έναρξη της νέας τεχνολογίας Ethical AI που εφαρμόζεται στην ψηφιακή της πλατφόρμα.

Η εταιρεία δήλωσε ότι η καινοτόμος προσέγγισή της επικεντρώνεται στην ευημερία των χρηστών, αξιοποιώντας την τεχνολογία της για την προώθηση της καλοσύνης, του σεβασμού και της εμπιστοσύνης μεταξύ των χρηστών.

Η ανακοίνωση έρχεται σε μια περίοδο που αυξάνονται οι ανησυχίες για τον εθισμό στο διαδίκτυο, την ψυχική υγεία των παιδιών και το επιβλαβές περιεχόμενο.

«Στο Gan Jing World, πιστεύουμε ότι η τεχνολογία πρέπει να εξυπηρετεί τους ανθρώπους—όχι να τους ελέγχει», ανέφερε η εταιρεία.

Η λειτουργία του Ethical AI

Το Ethical AI του GJW περιλαμβάνει προηγμένα μοντέλα βαθιάς μάθησης, σχεδιασμένα να ανιχνεύουν και να φιλτράρουν ακατάλληλο περιεχόμενο σε διάφορες μορφές μέσων, όπως βίντεο, εικόνες, κείμενο και ήχο.

Η τεχνολογία στοχεύει στην προώθηση περιεχομένου που ενισχύει την καλοσύνη και την ψυχική ευημερία, ενώ ταυτόχρονα αποτρέπει το διαδικτυακό εκφοβισμό.

Το σύστημα Ethical AI περιλαμβάνει τρεις βασικές μονάδες ανάλυσης περιεχομένου:

  • Αξιολόγηση ποιότητας βίντεο: Εξετάζει την ποιότητα και την αισθητική των βίντεο και των φωτογραφιών, βαθμολογώντας τα από μηδέν έως πέντε για την καταλληλότητά τους.
  • Ανίχνευση ακατάλληλου περιεχομένου: Με ακρίβεια άνω του 90%, εντοπίζει ακατάλληλο περιεχόμενο σε φωτογραφίες και καρέ βίντεο, εστιάζοντας σε τέσσερις βασικούς τομείς: «σεξουαλικού περιεχομένου», «επικίνδυνων ουσιών», «βίας» και «τρόμου».
  • Ανάλυση κειμένου: Αναλύει μη δομημένο κείμενο για να εντοπίσει τον τόνο, το συναίσθημα και τις αναφορές σε πραγματικά γεγονότα. Υποστηρίζει πολλές γλώσσες και μπορεί να φιλτράρει ακατάλληλη γλώσσα για ανήλικους χρήστες.

Σύμφωνα με την ανακοίνωση της εταιρείας, η ανάλυση κειμένου μπορεί να εντοπίσει συναισθήματα μέσα στο περιεχόμενο. Για παράδειγμα, το σύστημα αναγνώρισε στοιχεία θλίψης στο τραγούδι «Τζιμ Ριβς – There’s a Heartache Following Me».

«Η δημιουργία ενός ασφαλούς ψηφιακού περιβάλλοντος, ειδικά για τη νέα γενιά, βρίσκεται στον πυρήνα του Gan Jing World», δήλωσε η εταιρεία.

Η τεχνολογία και τα μοντέλα AI της GJW έχουν σχεδιαστεί για να δημιουργήσουν μια «πραγματικά θετική, ζωντανή ψηφιακή κοινότητα, γεμάτη υγιές περιεχόμενο, απαλλαγμένη από αδικαιολόγητη βία, έγκλημα και επιβλαβή συμπεριφορά».

Mια πλατφόρμα streaming με επίκεντρο την οικογένεια

Στις αρχές του περασμένου έτους, το GJW λάνσαρε το GJW+, μια πλατφόρμα streaming που προσφέρει ψυχαγωγικό περιεχόμενο για όλες τις ηλικίες, συμπεριλαμβανομένων πρωτότυπων και αδειοδοτημένων προγραμμάτων.

Σύμφωνα με τον ιστότοπο της εταιρείας, η υπηρεσία διακρίνεται για τη δέσμευσή της να επιλέγει περιεχόμενο με γνώμονα τις παραδοσιακές αξίες, προσελκύοντας οικογένειες και θεατές όλων των ηλικιών.

Το όνομα της πλατφόρμας, Gan Jing, που σημαίνει «καθαρό» στα κινέζικα, αντανακλά τη δέσμευση της εταιρείας να προσφέρει περιεχόμενο «ελεύθερο από αχρείαστη βία, σεξ, έγκλημα και επιβλαβή συμπεριφορά».

Όμως η αποστολή του GJW δεν περιορίζεται μόνο στην επιλογή περιεχομένου.

Η εταιρεία ανέφερε ότι η πλατφόρμα στοχεύει να «επανασυνδέσει τους χρήστες με την ηθική και τις παραδόσεις» και να «αναζωογονήσει τις παραδοσιακές αξίες μέσω της τεχνολογίας, προωθώντας μια κουλτούρα φροντίδας, καλοσύνης, αμοιβαίου σεβασμού και εμπιστοσύνης μεταξύ των ατόμων, μέσα στις οικογένειες και στην κοινωνία».

Προστασία από τον εθισμό και την παρακολούθηση

Ένα από τα βασικά χαρακτηριστικά του GJW είναι ο μη εθιστικός αλγόριθμός της, ο οποίος έχει σχεδιαστεί για να αποτρέπει την ατελείωτη κύλιση και τον εθισμό. Αντίθετα, η πλατφόρμα δίνει προτεραιότητα σε πολύτιμες πληροφορίες και εμπνευσμένο περιεχόμενο για να προάγει τη δημιουργική και ουσιαστική αλληλεπίδραση.

Το GJW δίνει επίσης ιδιαίτερη έμφαση στην προστασία της ιδιωτικότητας και των δεδομένων των χρηστών.

Σύμφωνα με τον ιστότοπο της εταιρείας, το GJW δεσμεύεται να μην καταγράφει ούτε να πουλά τα δεδομένα των χρηστών της, όπως προτιμήσεις, αγορές, σχέσεις και τοποθεσία. Η πλατφόρμα διατηρεί ένα ιδιωτικό κέντρο δεδομένων για να εξασφαλίσει την τεχνική της αυτονομία και να προστατεύσει τις πληροφορίες των χρηστών από εξωτερικές απειλές.

Για την ενίσχυση της αλληλεπίδρασης μεταξύ των χρηστών, το GJW παρέχει εργαλεία δημιουργίας περιεχομένου, hashtag events, livestreams, δημοσκοπήσεις και θεματικές συζητήσεις.

Η πλατφόρμα στοχεύει να δώσει δύναμη στους δημιουργούς περιεχομένου, όπως vloggers, κινηματογραφιστές, συγγραφείς, καλλιτέχνες και αφηγητές, ώστε να αναδείξουν το ταλέντο τους και να συνδεθούν με το κοινό τους.

Πηγή: NTD News

Τεχνητή νοημοσύνη και κλοπή ταυτότητας- Συμβουλές από την ESET

Η απάτη που βασίζεται στην τεχνητή νοημοσύνη αντιπροσωπεύει πλέον πάνω από το 43% όλων των προσπαθειών απάτης που καταγράφονται στον χρηματοπιστωτικό τομέα, ενώ σχεδόν το 29% αυτών των προσπαθειών αποδεικνύονται επιτυχείς. Τα παραπάνω προκύπτουν από εκτιμήσεις τις οποίες παρουσιάζει η εταιρεία ασφάλειας πληροφοριακών συστημάτων ESET.

H τεχνητή νοημοσύνη χρησιμοποιείται από κυβερνοεγκληματίες, ιδιαίτερα σε περιπτώσεις κλοπής ταυτότητας – του πιο διαδεδομένου τύπου απάτης σήμερα. Περισσότερο από το ένα τρίτο των τραπεζικών στελεχών στο Ηνωμένο Βασίλειο, την Ισπανία και τις Ηνωμένες Πολιτείες δηλώνουν ότι η μεγαλύτερη πρόκληση που αντιμετωπίζουν σήμερα είναι η άνοδος της απάτης που βασίζεται στην τεχνητή νοημοσύνη και στα deepfake.

Η απάτη κλοπής ταυτότητας συμβαίνει όταν οι προσωπικές σας πληροφορίες (PII) χρησιμοποιούνται για παράνομες δραστηριότητες, όπως συναλλαγές με πιστωτικές κάρτες ή πρόσβαση σε τραπεζικούς και άλλους λογαριασμούς.

Υπάρχουν διάφορες τακτικές στην κατεύθυνση αυτή:

– Καταλήψεις λογαριασμών μέσω deepfake και δημιουργία νέων λογαριασμών: Οι απατεώνες αξιοποιούν ψεύτικα αρχεία ήχου και βίντεο για να παρακάμψουν τους ελέγχους που χρησιμοποιούν οι χρηματοπιστωτικές εταιρείες για την επαλήθευση της ταυτότητας των πελατών τους. Μια φωτογραφία ή ένα βίντεο που έχει αναρτηθεί στο διαδίκτυο μπορεί να εισαχθεί σε μια εφαρμογή δημιουργίας deepfake ή γενετικής τεχνητής νοημοσύνης. Στη συνέχεια, χρησιμοποιείται σε επιθέσεις τύπου “injection”, σχεδιασμένες να παραπλανήσουν τα συστήματα ταυτοποίησης των χρηματοπιστωτικών υπηρεσιών. Σύμφωνα με έκθεση, τα deepfakes ευθύνονται πλέον για το 24% των ψευδών προσπαθειών να ξεπεράσουν βιομετρικούς ελέγχους που βασίζονται στην κίνηση και το 5% των στατικών ελέγχων που βασίζονται σε φωτογραφίες selfie.

– Πλαστογράφηση εγγράφων: Πιο παλιά, οι απατεώνες χρησιμοποιούσαν πλαστά διαβατήρια για να ανοίγουν νέους λογαριασμούς στο όνομα ανυποψίαστων θυμάτων. Σήμερα, ωστόσο, αυτή η διαδικασία έχει γίνει πολύ πιο εύκολη με τη χρήση της τεχνολογίας. Σύμφωνα με έκθεση, η ψηφιακή πλαστογράφηση αντιπροσωπεύει πάνω από το 57% του συνόλου των απατών με έγγραφα, με μια ετήσια αύξηση της τάξης του 244%. Οι απατεώνες έχουν συνήθως πρόσβαση σε πρότυπα εγγράφων στο διαδίκτυο ή κατεβάζουν εικόνες εγγράφων που έχουν κλαπεί μέσω παραβιάσεων δεδομένων. Στη συνέχεια, τροποποιούν τις λεπτομέρειες χρησιμοποιώντας εργαλεία όπως το Photoshop. Τα εργαλεία δημιουργικής τεχνητής νοημοσύνης (GenAI) τους επιτρέπουν να το κάνουν αυτό με ταχύτητα και σε μεγάλη κλίμακα.

– Συνθετική απάτη: Οι απατεώνες είτε δημιουργούν νέες ταυτότητες συνδυάζοντας πραγματικά (κλεμμένα) και επινοημένα προσωπικά στοιχεία για να σχηματίσουν μια εντελώς νέα ταυτότητα, είτε χρησιμοποιούν αποκλειστικά κατασκευασμένα στοιχεία. Αυτές οι ταυτότητες χρησιμοποιούνται στη συνέχεια για το άνοιγμα νέων λογαριασμών σε τράπεζες και εταιρείες πιστωτικών καρτών. Οι πλαστογραφίες εγγράφων και τα deepfake μπορούν να συνδυαστούν με αυτές τις ταυτότητες, αυξάνοντας τις πιθανότητες επιτυχίας των απατεώνων. Σύμφωνα με μια έκθεση, το 76% των επαγγελματιών διαχείρισης κινδύνου και απάτης στις ΗΠΑ πιστεύει ότι η εταιρεία τους έχει συνθετικούς πελάτες. Εκτιμούν, επίσης, ότι αυτός ο τύπος απάτης έχει αυξηθεί κατά 17% ετησίως.

– Deepfake που ξεγελούν φίλους και οικογένεια: Μερικές φορές, ψεύτικα βίντεο ή ήχοι μπορούν να χρησιμοποιηθούν σε απάτες που εξαπατούν ακόμα και κοντινά πρόσωπα. Μια συνηθισμένη τακτική είναι η εικονική απαγωγή, όπου συγγενείς λαμβάνουν ένα τηλεφώνημα από έναν δράστη που ισχυρίζεται ότι σας έχει απαγάγει. Παίζουν έναν deepfake ηχητικό αρχείο της φωνής σας ως «απόδειξη» και στη συνέχεια ζητούν λύτρα. Το GenAI, εκτός από τη δημιουργία των ψεύτικων αρχείων, μπορεί να χρησιμοποιηθεί και για να βοηθήσει τους απατεώνες να εντοπίσουν πιθανά θύματα.

– Συμπλήρωση διαπιστευτηρίων: Η συμπλήρωση διαπιστευτηρίων περιλαμβάνει τη χρήση κλεμμένων συνδυασμών ονόματος χρήστη και κωδικού πρόσβασης σε αυτοματοποιημένες προσπάθειες πρόσβασης σε άλλους λογαριασμούς, όπου ενδεχομένως έχουν χρησιμοποιηθεί τα ίδια διαπιστευτήρια. Εργαλεία τεχνητής νοημοσύνης μπορούν να δημιουργήσουν γρήγορα λίστες με τέτοια διαπιστευτήρια από πολλαπλές πηγές δεδομένων, συμβάλλοντας στην κλιμάκωση των επιθέσεων. Επιπλέον, μπορούν να χρησιμοποιηθούν για την ακριβή μίμηση της ανθρώπινης συμπεριφοράς κατά τη διαδικασία σύνδεσης, ώστε να παρακάμψουν τα συστήματα προστασίας.

Για να αντιμετωπίσουν τη χρήση της τεχνητής νοημοσύνης σε επιθέσεις εναντίον τους, οι εταιρείες στρέφονται όλο και περισσότερο σε αμυντικά εργαλεία τεχνητής νοημοσύνης. Αυτά τα εργαλεία βοηθούν στον εντοπισμό προειδοποιητικών σημείων απάτης, ενισχύοντας την ασφάλεια των δεδομένων τους.

Οι συμβουλές της ESET προς το κοινό προκειμένου να προλάβει τέτοιες απειλές είναι:

– Περιορίστε τις πληροφορίες που μοιράζεστε στα μέσα κοινωνικής δικτύωσης και προσαρμόστε τις ρυθμίσεις απορρήτου για μεγαλύτερη ασφάλεια.

– Να είστε προσεκτικοί με το phishing: ελέγχετε πάντα τα στοιχεία των αποστολέων, αναζητάτε τυπογραφικά και γραμματικά λάθη και μην ανοίγετε συνδέσμους ή συνημμένα από ανεπιθύμητα μηνύματα ηλεκτρονικού ταχυδρομείου.

– Ενεργοποιήστε τον έλεγχο ταυτότητας πολλαπλών παραγόντων (MFA) σε όλους τους λογαριασμούς σας.

– Χρησιμοποιείτε ισχυρούς, μοναδικούς κωδικούς πρόσβασης και αποθηκεύστε τους με ασφάλεια σε έναν διαχειριστή κωδικών.

– Διατηρείτε ενημερωμένο το λογισμικό σε όλες τις συσκευές σας, συμπεριλαμβανομένων φορητών υπολογιστών και κινητών τηλεφώνων.

– Παρακολουθείτε στενά τους τραπεζικούς και πιστωτικούς λογαριασμούς σας, ελέγχοντας τακτικά για ύποπτες συναλλαγές, και κλειδώστε άμεσα τον λογαριασμό σας εάν παρατηρήσετε κάτι ύποπτο.

– Εγκαταστήστε πολυεπίπεδο λογισμικό ασφαλείας από αξιόπιστο προμηθευτή σε όλες τις συσκευές σας.

– Είναι σημαντικό να ενημερώνεστε για τις τελευταίες τακτικές απάτης με τεχνητή νοημοσύνη και να εκπαιδεύετε τους φίλους και την οικογένειά σας σχετικά με τις απάτες deepfake και άλλες τεχνικές εξαπάτησης που αξιοποιούν την τεχνητή νοημοσύνη.

Τεχνητή νοημοσύνη και επιστήμονες ενώνουν δυνάμεις για την αποκρυπτογράφηση αρχαίων παπύρων

ΛΟΝΔΙΝΟ – Επιστήμονες ελπίζουν ότι ένας συνδυασμός τεχνητής νοημοσύνης και ανθρώπινης εμπειρογνωμοσύνης θα βοηθήσει στην αποκρυπτογράφηση αρχαίων παπύρων που απανθρακώθηκαν λόγω ηφαιστειακής έκρηξης πριν από 2.000 χρόνια.

Πρόκειται για εκατοντάδες παπύρους που ανακαλύφθηκαν τη δεκαετία του 1750 στα ερείπια μίας πολυτελούς έπαυλης στην αρχαία ρωμαϊκή πόλη Ηράκλειο (Herculaneum), η οποία καταστράφηκε, όπως και η Πομπηία, από την έκρηξη του Βεζούβιου, το 79 μ.Χ.

Η βιβλιοθήκη της λεγόμενης Έπαυλης των Παπύρων θα μπορούσε να αυξήσει σημαντικά τις γνώσεις μας για την αρχαία σκέψη, εάν οι πάπυροι — οι οποίοι έχουν τυλιχθεί σε ρολά μεγέθους μιας μικρής σοκολάτας — καταστούν αναγνώσιμοι.

Η θερμότητα και η ηφαιστειακή τέφρα από τον Βεζούβιο κατέστρεψαν μεν την πόλη, αλλά ταυτόχρονα διατήρησαν τους παπύρους σε μια κατάσταση όπου είναι αδύνατο να ξετυλιχθούν χωρίς να αποσαθρωθούν.

Εδώ και περισσότερα από 250 χρόνια, μελετητές και επιστήμονες αναζητούν τρόπους αποκρυπτογράφησης των παπύρων, η πλειονότητα των οποίων φυλάσσεται στη Εθνική Βιβλιοθήκη της Νάπολης.

Το 2023, επιχειρηματίες χρηματοδότησαν τον διαγωνισμό «Vesuvius Challenge», προσφέροντας χρηματικά έπαθλα για την αποκρυπτογράφηση των παπύρων μέσω μηχανικής μάθησης, υπολογιστικής όρασης και γεωμετρίας.

Την Τετάρτη, οι διοργανωτές του διαγωνισμού ανακοίνωσαν «ιστορική πρόοδο», αποκαλύπτοντας ότι ερευνητές κατάφεραν να δημιουργήσουν την πρώτη εικόνα του εσωτερικού ενός εκ των τριών παπύρων που φυλάσσονται στη Βιβλιοθήκη Bodleian του Πανεπιστημίου της Οξφόρδης.

Ο Μπρεντ Σιλς, καθηγητής πληροφορικής στο Πανεπιστήμιο του Κεντάκι και συνιδρυτής του «Vesuvius Challenge», δήλωσε ότι οι διοργανωτές είναι «ενθουσιασμένοι με την επιτυχή απεικόνιση αυτού του παπύρου». Όπως σημείωσε, «περιέχει περισσότερο ανακτήσιμο κείμενο από ό,τι έχουμε δει ποτέ σε σαρωμένο πάπυρο από το Ηράκλειο».

Η σάρωση του παπύρου πραγματοποιήθηκε από το Diamond Light Source, ένα ερευνητικό εργαστήριο στο Χάργουελ, κοντά στην Οξφόρδη, το οποίο χρησιμοποιεί έναν επιταχυντή σωματιδίων, γνωστόν ως σύγχροτρο, για τη δημιουργία εξαιρετικά ισχυρών ακτίνων Χ.

Στη συνέχεια, οι επιστήμονες χρησιμοποίησαν τεχνητή νοημοσύνη για να συνθέσουν τις εικόνες, να εντοπίσουν το μελάνι που αποκαλύπτει την ύπαρξη κειμένου και να βελτιώσουν την ευκρίνεια των γραμμάτων. Η διαδικασία αυτή οδήγησε στη δημιουργία τρισδιάστατης εικόνας του παπύρου, επιτρέποντας στους ειδικούς να τον «ξετυλίξουν» ψηφιακά μέσω μιας μεθόδου που ονομάζεται τμηματοποίηση.

Ωστόσο, η τεχνητή νοημοσύνη έχει ακόμη περιορισμούς. Μέχρι στιγμής, έχει αποκρυπτογραφηθεί μόνο ένα μικρό μέρος του κειμένου. Οι ερευνητές καλούν περισσότερους μελετητές να συμμετάσχουν στην προσπάθεια ολοκλήρωσης της ανάγνωσης του κειμένου.

«Βρισκόμαστε ακόμα στην αρχή μιας μακράς διαδικασίας», δήλωσε ο Πήτερ Τοτ, επιμελητής ελληνικών συλλογών στη Βιβλιοθήκη Bodleian. «Χρειαζόμαστε καλύτερες εικόνες -αλλά η ομάδα πιστεύει ότι θα μπορέσει να βελτιώσει την ποιότητα της εικόνας και την αναγνωσιμότητα του κειμένου».

Ο Τοτ εξέφρασε επίσης την ελπίδα ότι η τεχνολογία θα καταστεί διαθέσιμη σε τοπικό επίπεδο, ώστε να μην χρειαστεί να μεταφερθούν οι άλλοι δύο εύθραυστοι πάπυροι στις εγκαταστάσεις του Diamond.

«Ίσως υπάρξει κάποια άλλη λύση», ανέφερε προσθέτοντας: «Μην ξεχνάτε ότι υπάρχουν περίπου 1.000 ακόμη πάπυροι στη Νάπολη».

Των Jill Lawless και Pan Pylas

Ο καθοριστικός ρόλος της φιλοσοφίας στη διαμόρφωση του μέλλοντος της Τεχνητής Νοημοσύνης

Μία από τις πιο ενδιαφέρουσες προκλήσεις της σύγχρονης επιστήμης και τεχνολογίας αποτελεί αναμφισβήτητα η σχέση και η «διάδραση» μεταξύ τεχνητής νοημοσύνης και φιλοσοφίας. Το πέρασμα, ουσιαστικά, από την ανθρώπινη σκέψη στη μηχανική μάθηση και η νέα διάσταση που δημιουργείται από την εξέλιξη της τεχνητής νοημοσύνης, η οποία καλείται να αναπαράγει νοητικές διαδικασίες συνυφασμένες με τη φιλοσοφία, μέσω υπολογιστικών συστημάτων. Αυτή η εξέλιξη έχει οδηγήσει στην ανάπτυξη της μηχανικής μάθησης και νευρωνικών δικτύων ικανών να επεξεργάζονται μεγάλες ποσότητες δεδομένων και να προσαρμόζονται σε νέα δεδομένα χωρίς ανθρώπινη παρέμβαση – τεχνολογίες που έχουν φέρει επανάσταση σε τομείς όπως η υγειονομική περίθαλψη, οι μεταφορές, η χρηματοδότηση και η αναγνώριση εικόνας.

Τα φιλοσοφικά και ηθικά ερωτήματα που εγείρονται από την ταχεία ανάπτυξη της τεχνητής νοημοσύνης, είναι πολλά και σημαντικά για τη διασφάλιση του ρόλου της, με τρόπο που θα ωφελεί την ανθρωπότητα και θα σέβεται τις αξίες της: Μπορεί μια μηχανή να αναπτύξει συνείδηση ή να έχει ηθικές αξίες; Ποιες οι επιπτώσεις της ΤΝ στην ανθρώπινη νοημοσύνη και ηθική; Μπορεί η μηχανική μάθηση να αναπαράγει την ανθρώπινη σκέψη ή πρόκειται απλώς για έναν μηχανισμό που εκτελεί προκαθορισμένες εντολές χωρίς πραγματική κατανόηση;

Τον ρόλο της φιλοσοφίας στη διαμόρφωση του μέλλοντος της τεχνητής νοημοσύνης, μέσα από θεωρητικές και πρακτικές προσεγγίσεις, κλήθηκαν να αποκρυπτογραφήσουν διακεκριμένοι ομιλητές από τον ερευνητικό, ακαδημαϊκό και επιχειρηματικό χώρο, στο εκπαιδευτικό πρόγραμμα με τίτλο «Τεχνητή Νοημοσύνη & Φιλοσοφία: Από την ανθρώπινη σκέψη στη μηχανική μάθηση» που διοργάνωσε το Εθνικό Κέντρο Τεκμηρίωσης & Ηλεκτρονικού Περιεχομένου (ΕΚΤ), μέλος του Ευρωπαϊκού Κόμβου Ψηφιακής Καινοτομίας Smart Attica EDIH – ένα πρόγραμμα εξερεύνησης της συναρπαστικής διαδρομής από τις φιλοσοφικές αναζητήσεις για τη φύση της ανθρώπινης σκέψης έως τις σύγχρονες εφαρμογές της τεχνητής νοημοσύνης. Μέσα από θεωρητικές και πρακτικές προσεγγίσεις, αναδείχθηκαν φιλοσοφικά ζητήματα σχετικά με τη νοημοσύνη και τη συνείδηση, που επικεντρώνονται γύρω από την ικανότητα του ανθρώπου να σκέφτεται, να αντιλαμβάνεται και να συνειδητοποιεί την ύπαρξή του. Σήμερα η ανάπτυξη της ΤΝ προσθέτει μια νέα διάσταση σε αυτά τα φιλοσοφικά ερωτήματα, διότι η δυνατότητα των μηχανών να «σκέφτονται», να μαθαίνουν από δεδομένα και να λαμβάνουν αποφάσεις, θέτει νέες προκλήσεις για την κατανόηση της νοημοσύνης.

O Παναγιώτης Πανταζάκος, καθηγητής στο Τμήμα Φιλοσοφίας της Φιλοσοφικής Σχολής του ΕΚΠΑ, έθεσε κρίσιμα ερωτήματα για τον ρόλο της φιλοσοφίας σε μια εποχή όπου η ΤΝ εξελίσσεται ραγδαία. Υποστήριξε ότι η φιλοσοφία, ιστορικά, είχε έναν συνθετικό ρόλο, συνδυάζοντας γνώσεις από διάφορους επιστημονικούς κλάδους. Ωστόσο, η σύγχρονη φιλοσοφία, έχει φτάσει σε ένα σημείο αδιεξόδου, καθώς δεν μπορεί να κατανοήσει τις σύγχρονες επιστήμες. Αυτό οδηγεί στην ιδέα του «θανάτου» της φιλοσοφίας, τουλάχιστον με την παραδοσιακή της μορφή. Η ΤΝ, από την άλλη, παρουσιάζεται ως μια τεχνολογία που υπερβαίνει τις γνωσιακές δυνατότητες του ανθρώπινου νου, και μπορεί να αναπαράγει – αν όχι να βιώσει – την κατανόηση. Ωστόσο, αμφισβητείται η ικανότητά της να επιτύχει πραγματική συνείδηση. Ο κος Πανταζάκος στάθηκε και στη διάκριση μεταξύ μνήμης και κρίσης και στο εάν η ΤΝ μπορεί να κάνει κρίσεις όπως ο άνθρωπος, ενώ στο τραπέζι της συζήτησης μπήκε και το ηθικό δίλημμα της αναπαράστασης της συνείδησης μέσα από την ΤΝ, μέσω avatar ή ολογραμμάτων και το ποιος θα κατέχει την εξουσία που συνοδεύει τη γνώση που γεννά η ΤΝ. Ο κος Πανταζάκος συνέκρινε την ΤΝ με την αναλογία της μέλισσας και του μυρμηγκιού του Hume, υποστηρίζοντας ότι η ΤΝ μπορεί να υπερβεί τον άνθρωπο στη συλλογή και ανασύνθεση πληροφορίας, αλλά όχι στην πραγματική κατανόηση και συνείδηση. Αναλύθηκε επίσης η έννοια της «προσομοίωσης» και της «εξομοίωσης», επισημαίνοντας τις διαφορές και τις προκλήσεις που παρουσιάζονται. Συμπερασματικά, τονίστηκε πως η ΤΝ δεν πρέπει να αντιμετωπίζεται ως εχθρός, αλλά ως φίλος, ενώ προτάθηκε η ανάγκη για έναν ηθικό κώδικα που θα ρυθμίζει τη χρήση της ΤΝ και θα προστατεύει τα ανθρώπινα δικαιώματα.

Η Μαρία Χωριανοπούλου, επίκουρη καθηγήτρια Πρακτικής Φιλοσοφίας & Ιατρικής Ηθικής του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθηνών, στάθηκε στην ανάγκη για μια ανθρωποκεντρική προσέγγιση στην ανάπτυξη της ΤΝ. Βασικές αρχές της ηθικής φιλοσοφίας όπως αυτονομία, αγαθοπραξία, απαγόρευση βλάβης και δικαιοσύνη, όπως είπε χαρακτηριστικά, δεν πρέπει να είναι προστιθέμενες στο τέλος της ανάπτυξης της ΤΝ, αλλά να ενσωματώνονται από την αρχή. Αναφέρθηκε στη θεωρία του extended mind, που υποστηρίζει ότι η σκέψη δεν περιορίζεται μόνο στον εγκέφαλο, αλλά επεκτείνεται μέσω της τεχνολογίας, θέτοντας ωστόσο το ερώτημα: «Πού τελειώνει ο άνθρωπος και πού αρχίζει η μηχανή;». Ξεκαθάρισε πως η ΤΝ μπορεί να ενισχύσει τις γνωστικές μας ικανότητες, αλλά δεν μπορεί να αποκτήσει συνείδηση ή ηθική ευθύνη, ενώ διευκρίνισε πως οι επιπτώσεις της αλγοριθμικής λήψης αποφάσεων σε τομείς όπως η υγεία και η δικαιοσύνη, πρέπει να εξεταστούν. Στάθηκε επίσης στην ανάγκη για διαφάνεια και προστασία προσωπικών δεδομένων και για διεπιστημονική συνεργασία ως προς την ηθική ανάπτυξη της ΤΝ, ενώ χαρακτήρισε κρίσιμη τη διαρκή εκπαίδευση και τη δημοκρατική διαβούλευση, προκειμένου να διασφαλιστούν η ανθρώπινη αυτονομία και η δημοκρατία. Η κα Χωριανοπούλου είπε επίσης ότι είναι σημαντική η διατήρηση της ανθρώπινης πρωτοτυπίας και η αποφυγή της απανθρωποποίησης, ενώ κλείνοντας αναφέρθηκε εκ νέου στην ανάγκη για προσεκτική και ηθικά υπεύθυνη ανάπτυξη και χρήση της ΤΝ, ενθαρρύνοντας τον διάλογο και τη διεπιστημονική συνεργασία για να διασφαλιστεί ότι η τεχνολογία υπηρετεί τα ανθρώπινα δικαιώματα και τις αξίες.

Ο Άλκης Γούναρης, μεταδιδακτορικός ερευνητής & Διδάσκων του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθήνας, στάθηκε στην αντίφαση ότι οι μηχανές, αν και κερδίζουν τους ανθρώπους σε πολλά παιχνίδια (όπως σκάκι), χάνουν όταν υπάρχει συνεργασία ανθρώπου και μηχανής, κάτι που, όπως είπε, δείχνει και αποδεικνύει την αξία της συνεργασίας και τη συμπληρωματικότητα του ανθρώπινου και του μηχανικού νου. Ποιος όμως πιστώνεται τη γνώση: ο άνθρωπος ή η μηχανή; Το παράδειγμα του Deep Blue επιβεβαιώνει την άποψη ότι η γνώση ανήκει στο σύστημα, το οποίο περιλαμβάνει τόσο τον ανθρώπινο εγκέφαλο όσο και τις εξωτερικές τεχνολογικές συσκευές. Ο κος Γούναρης είπε ότι το μέλλον της ΤΝ δεν είναι προδιαγεγραμμένο και η χρήση της θα εξαρτάται από τις αποφάσεις που θα πάρουμε σήμερα, θέτοντας τα κρίσιμα ερωτήματα: Τι είδους μηχανές θέλουμε; Μηχανές αντικαταστάτες ή συνεργάτες; Η απάντηση στα ερωτήματα, όπως επεσήμανε, θα πρέπει να είναι μια συνεργατική προσέγγιση που θα ενσωματώνει την ΤΝ ως βοηθητικό εργαλείο για την ανθρώπινη πρόοδο και βελτίωση της παραγωγικότητας.

Ο Δημήτρης Μελίδης, δικηγόρος, MSc., Υπ. Διδάκτωρ, διδάσκων στο Πρόγραμμα «Ψηφιακά Δικαστικά Συστήματα και Τεχνοηθική» του Πανεπιστημίου Αθηνών (ΚΔΒΜ-ΕΚΠΑ), επικεντρώθηκε στην τεχνοηθική και την επίδρασή της στην τεχνητή νοημοσύνη, ιδιαίτερα στον τομέα της ψηφιακής δικαιοσύνης και της ηλεκτρονικής διακυβέρνησης, αφού όπως είπε χαρακτηριστικά χρειάζεται άμεση δράση για να μην μείνουμε πίσω σε σχέση με τις διεθνείς εξελίξεις. Αναφέρθηκε επίσης στη σημασία του διαλόγου μεταξύ επιστημών για την αποτελεσματική ανάπτυξη και εφαρμογή συστημάτων τεχνητής νοημοσύνης, ενώ έθεσε ζητήματα ηθικής και νομικής ρύθμισης.

Η Δρ Μαρία Μαλαγκονιάρη, Σύμβουλος Καινοτομίας του Smart Attica EDIH, αναφέρθηκε στις επιπτώσεις των ολοένα και πιο ικανών συστημάτων ΤΝ και τις ηθικές σκέψεις που προκύπτουν καθώς η ΤΝ αναπτύσσει αυτονομία. Στάθηκε ιδιαίτερα στην ταχεία εξέλιξη της ΤΝ, στα ηθικά διλήμματα και στα κρίσιμα ερωτήματα σχετικά με τη φύση της ΤΝ, τη συνείδηση και την ηθική, στο ποιος έχει την ευθύνη στην ολοκλήρωση ενός έργου (ο δημιουργός, ο χρήστης ή η ίδια η τεχνητή νοημοσύνη;), στον ρόλο που πρέπει να έχει η ΤΝ (θα μπορούσε να χρησιμοποιηθεί ως εργαλείο για να ενισχύσει την ανθρώπινη σκέψη αντί να την αντικαταστήσει), αλλά και στη σημασία του φιλοσοφικού διαλόγου (η εξερεύνηση των επιπτώσεων της ΤΝ δεν είναι απλώς μια τεχνολογική πρόκληση, αλλά μια βαθιά φιλοσοφική και ηθική πρόκληση).

Τον συντονισμό του εκπαιδευτικού προγράμματος είχε η Κωνσταντίνα Κωνσταντίνου, ΕΚΤ, Σύμβουλος Καινοτομίας και Επικοινωνίας του Smart Attica EDIH, υποψήφια διδάκτορας στη φιλοσοφία στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών και πολιτικός επιστήμονας με εξειδίκευση στην Ιστορία της φιλοσοφίας και τη Δημόσια Διοίκηση.

Εν κατακλείδι, η φιλοσοφία παρέχει τα εργαλεία για να κατανοήσουμε και να διαχειριστούμε τις προκλήσεις και τις ευθύνες που προκύπτουν από την ανάπτυξη της ΤΝ. Μπορεί, όμως, να διασφαλίσει ότι η τεχνολογία θα εξελίσσεται με τρόπο που υποστηρίζει τις ανθρωπιστικές αξίες και την κοινωνική ευημερία; Και πόσο αναγκαία είναι η συνεργασία των φιλοσόφων, των τεχνολόγων, των νομικών και των πολιτικών για την επιτυχή ενσωμάτωση της ΤΝ στην κοινωνία ώστε να μπορέσουμε να επωφεληθούμε από τις δυνατότητές της, αποφεύγοντας παράλληλα τις κοινωνικές και ηθικές παγίδες που ενδέχεται να προκύψουν; Τις απαντήσεις (λογικά) θα τις δώσει η ίδια η ζωή… στο μέλλον.

Του Γιάννη Χατζηδοπαυλάκη

Πόσο μεγάλο είναι το πλεονέκτημα της Κίνας στον αγώνα τεχνητής νοημοσύνης;

Σχολιασμός

Πολύς θόρυβος γίνεται στους κύκλους της τεχνητής νοημοσύνης (ΤΝ) και στα μέσα ενημέρωσης σχετικά με την ανάδειξη της Κίνα σε πρώτη δύναμη σε αυτήν την πλέον κρίσιμη τεχνολογία.

Η DeepSeek, μια νέα εταιρεία από την Κίνα, πρόσφατα κατέπληξε τις Ηνωμένες Πολιτείες με την ανώτερη απόδοσή της έναντι των δημοφιλών μοντέλων τεχνητής νοημοσύνης του OpenAI, της Google και της Meta.

Όσον αφορά την παγκόσμια δύναμη και επιρροή, το διακύβευμα δεν θα μπορούσε να είναι υψηλότερο. Σε μόλις μια δεκαετία, η Κίνα έχει γίνει παγκόσμιος ηγέτης στην τεχνολογία ΤΝ.

Αν και η ταχεία πρόοδος της Κίνας οφείλεται σε μεγάλο βαθμό σε κρατικές πρωτοβουλίες για τη δημόσια ασφάλεια και τον κοινωνικό έλεγχο, υπάρχουν ορισμένες κρίσιμες αδυναμίες.

Σε ποιους τομείς της τεχνητής νοημοσύνης προηγείται ή υστερεί η Κίνα και τι σημαίνει για την αμερικανική βιομηχανία τεχνητής νοημοσύνης και τον κόσμο γενικότερα;

Ένας παγκόσμιος ηγέτης σε βασικές κατηγορίες τεχνητής νοημοσύνης

Η Κίνα ηγείται παγκοσμίως σε πολλά τεχνολογικά πεδία που βασίζονται στην τεχνητή νοημοσύνη. Ένας ιδιαίτερος τομέας είναι η τεχνολογία αναγνώρισης προσώπου και επιτήρησης.

Δεν αποτελεί έκπληξη το γεγονός ότι η ενσωμάτωση της τεχνητής νοημοσύνης στα τεράστια δίκτυα επιτήρησης του κινεζικού κράτους έχει δώσει στην Κίνα ένα ασυναγώνιστο πλεονέκτημα σε αυτόν τον τομέα. Εταιρείες όπως η SenseTime και η Megvii έχουν αναπτύξει εξαιρετικά εξελιγμένα συστήματα, που έχουν αναπτυχθεί στις λεγόμενες έξυπνες πόλεις.

Ένας άλλος τομέας κυριαρχίας της τεχνητής νοημοσύνης είναι η αναγνώριση της ομιλίας. Τεχνολογικοί γίγαντες όπως η Baidu, η Alibaba, και η Tencent έχουν ανυψώσει την αναγνώριση της ομιλίας σε εκπληκτικό επίπεδο με εφαρμογές στην εξυπηρέτηση πελατών, στις έξυπνες οικιακές συσκευές και στις υπηρεσίες μετάφρασης. Ωστόσο, δεδομένου ότι έχει δοθεί μεγαλύτερη έμφαση στα μανδαρινικά και άλλες κινεζικές διαλέκτους, ο αντίκτυπος παραμένει περιορισμένος κυρίως εντός Κίνας.

Ένας τρίτος τομέας κυριαρχίας της τεχνητής νοημοσύνης της Κίνας είναι η τεχνολογία των μη επανδρωμένων ιπτάμενων μηχανών (drone). Αποτελεί γενική παραδοχή ότι κινεζικές εταιρείες, όπως η DJI, ηγούνται της παγκόσμιας καταναλωτικής αγοράς drone στην κατασκευή και εφαρμογή τεχνητής νοημοσύνης για αυτόνομες πτήσεις και επεξεργασία δεδομένων σε πραγματικό χρόνο. Αυτή η πρόοδος έχει αποδειχθεί κρίσιμη για τις συνοριακές περιπολίες και τις επιχειρήσεις στο πεδίο της μάχης στην Ουκρανία.

Επιπλέον, στο πλαίσιο κρατικών πρωτοβουλιών, όπως το «Made in China 2025», η Κίνα έχει ενσωματώσει την τεχνητή νοημοσύνη σε πολλές από τις βιομηχανικές της διαδικασίες. Ως αποτέλεσμα, η χώρα ηγείται στην έξυπνη κατασκευή, με γραμμές παραγωγής βελτιστοποιημένες για τεχνητή νοημοσύνη, αυτοματοποιημένη συντήρηση μηχανών και ποιοτικό έλεγχο βάσει τεχνητής νοημοσύνης.

Πού υστερεί η Κίνα στην ανάπτυξη της ΤΝ

Ωστόσο, σε αντίθεση με τα ευρέως υιοθετημένα αμερικανικά πλαίσια βαθιάς μάθησης όπως το TensorFlow (Google) ή το PyTorch (Meta), οι περισσότερες κινεζικές εκδόσεις βαθιάς εκμάθησης τεχνητής νοημοσύνης δεν είναι παγκοσμίως αποδεκτές ούτε χρησιμοποιούνται. Αυτή η έλλειψη δυνατότητας μεταφοράς αποτελεί εμπόδιο για τη βιομηχανία τεχνητής νοημοσύνης της Κίνας.

Η βιομηχανία τεχνητής νοημοσύνης της Κίνας υστερεί επίσης στην τεχνολογία ημιαγωγών, ειδικά στην εκπαίδευση μεγάλων μοντέλων, τα οποία είναι κρίσιμα για την ανάπτυξη και τις εφαρμογές της τεχνητής νοημοσύνης. Οι αμερικανικοί έλεγχοι εξαγωγών σε προηγμένα τσιπ αναφέρονται ως ένας σημαντικός λόγος για αυτό. Επί του παρόντος, η εξάρτηση της Κίνας από την ξένη τεχνολογία, την εμποδίζει να αποκτήσει τεχνολογική ανεξαρτησία στο υλικό της τεχνητής νοημοσύνης – αλλά αυτό μπορεί ήδη να έχει αρχίσει να αλλάζει.

Ένα άλλο αδύνατο σημείο, όσον αφορά την ανάπτυξη της κινεζικής ΤΝ, είναι οι υπηρεσίες Cloud. Ακόμη και με καθιερωμένες εταιρείες όπως η Alibaba Cloud, η Κίνα παραμένει πάροχος δεύτερης βαθμίδας παγκοσμίως. Αν και διατηρεί και συνεχίζει να συλλέγει τεράστιες ποσότητες δεδομένων, τα πλαίσια τεχνητής νοημοσύνης της δεν είναι τόσο καλά στην αποτελεσματική διαχείριση δεδομένων για εφαρμογές τεχνητής νοημοσύνης, ειδικά όσον αφορά το απόρρητο και την ασφάλεια, και υπολείπονται πολύ των ευρωπαϊκών και των αμερικανικών προτύπων.

Συνέπειες της κινεζικής πρωτοκαθεδρίας

Η εστίαση του Κομμουνιστικού Κόμματος Κίνας (ΚΚΚ) στην επιτήρηση και τον έλεγχο 1,4 δισεκατομμυρίων ανθρώπων οδήγησε στην ταχεία ανάπτυξη τεχνολογιών και στην ενσωμάτωση της τεχνητής νοημοσύνης στους μηχανισμούς κρατικής ασφαλείας, προκειμένου να στηριχθεί η εξουσία του ΚΚΚ, αδιαφορώντας για το απόρρητο, την ηθική χρήση της τεχνητής νοημοσύνης και την πιθανή κατάχρηση της τεχνολογίας με την αιτιολογία της παρακολούθησης.

Ενώ το συγκεντρωτικό καθεστώς μπορεί να επιβάλει την εφαρμογή και την κλιμάκωση, οι κρατικοί περιορισμοί στους τομείς της διαφάνειας, της ανταλλαγής ιδεών και της θεμελιώδους έρευνας έχουν δυσμενή αντίκτυπο στην καινοτομία. Πρόσφατα γεγονότα στην Κίνα έδειξαν ότι καθώς οι συνολικές οικονομικές επιδόσεις μένουν πίσω, ο έλεγχος του κόμματος στην έκφραση αυξάνεται, ενώ η καινοτομία σε ορισμένους τομείς της τεχνητής νοημοσύνης ελαττώνεται. Εν ολίγοις, η καμπύλη ανάπτυξης της τεχνητής νοημοσύνης της Κίνας φαίνεται εντυπωσιακή μεν ανισόρροπη δε.

Το πλεονέκτημα της καινοτομίας των ΗΠΑ

Σε αντίθεση με το κεντρικό καθεστώς της Κίνας, οι Ηνωμένες Πολιτείες επωφελούνται από ένα δυναμικό οικοσύστημα πανεπιστημίων, νεοφυών επιχειρήσεων τεχνολογίας και καθιερωμένων εταιρειών, που πρωτοπορούν σε πολλά μέτωπα, συμπεριλαμβανομένης της τεχνητής νοημοσύνης.

Στην πραγματικότητα, οι συνεισφορές ανοιχτού κώδικα από εταιρείες των ΗΠΑ έχουν διαμορφώσει σημαντικά την ανάπτυξη της τεχνητής νοημοσύνης παγκοσμίως. Στις Ηνωμένες Πολιτείες, ένας περιορισμένος αριθμός μεγάλων παικτών — όπως οι OpenAI, Meta, Google και Anthropic — κυριαρχούν στον τομέα.

Αυτός ο αχαλίνωτος δυναμισμός προσελκύει μια πλούσια και ποικιλόμορφη δεξαμενή ταλέντων από όλον τον κόσμο. Μαζί με το ακαδημαϊκό κύρος της Αμερικής, μια υψηλά αμειβόμενη αγορά τεχνολογικής εργασίας της δίνει ένα σοβαρό προβάδισμα έναντι της Κίνας στην έρευνα και την ανάπτυξη εφαρμογών τεχνητής νοημοσύνης.

Επιπλέον, εταιρείες των ΗΠΑ όπως η Nvidia κυριαρχούν στην παραγωγή υλικού τεχνητής νοημοσύνης, όπως οι GPU, που είναι ζωτικής σημασίας για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης. Αυτό δίνει στις Ηνωμένες Πολιτείες ένα ακόμη πλεονέκτημα, στις υπολογιστικές δυνατότητες και την τεχνολογική κυριαρχία, που στερείται επί του παρόντος η Κίνα.

Όσον αφορά την ηθική, τη διαφάνεια και την ευθύνη της τεχνητής νοημοσύνης, οι εταιρείες των ΗΠΑ συνήθως πρωτοστατούν στη συζήτηση. Αυτό το επίπεδο ηθικής εμπιστοσύνης οδηγεί σε περισσότερο βιώσιμες και παγκοσμίως αποδεκτές λύσεις τεχνητής νοημοσύνης από αμερικανικές εταιρείες.

Τα μειονεκτήματα της προσέγγισης  ‘Άγριας Δύσης’

Σε αντίθεση με την ιδιαίτερα εστιασμένη προσέγγιση της Κίνας, η πολιτική των ΗΠΑ για την τεχνητή νοημοσύνη είναι πολύ λιγότερο συντονισμένη, με ποικίλες προσεγγίσεις όσον αφορά τη ρύθμιση, τη χρηματοδότηση και την κατεύθυνση, τόσο σε πολιτειακό όσο και σε ομοσπονδιακό επίπεδο. Ενώ η ανοιχτή προσέγγιση προωθεί την καινοτομία, διασπείρει επίσης την εστίαση.

Όσον αφορά το απόρρητο των δεδομένων, οι Ηνωμένες Πολιτείες αντιμετωπίζουν τις δικές τους προκλήσεις στον τομέα της ιδιωτικής ζωής. Η έλλειψη εγγυήσεων απορρήτου μπορεί να οδηγήσει σε διστακτικότητα όσον αφορά την κοινή χρήση δεδομένων για την εκπαίδευση τεχνητής νοημοσύνης. Αυτό έρχεται σε αντίθεση με την εστίαση της Κίνας στη συλλογή δεδομένων και τις λιγότερο περιοριστικές πολιτικές σχετικά με το απόρρητο δεδομένων.

Υπάρχει επίσης μια αντιστάθμιση στη βιομηχανία ΤΝ των ΗΠΑ όσον αφορά τη χρηματοδότηση και την εστίαση. Η αντίθεση μεταξύ της βραχυπρόθεσμης εμπορευματοποίησης και της μακροπρόθεσμης έρευνας είναι πραγματική, ειδικά στον χώρο του επιχειρηματικού κεφαλαίου. Μια περισσότερο συνεπής υποστήριξη εκ μέρους της κυβέρνησης σε μακροπρόθεσμες καινοτομίες θα μπορούσε να βοηθήσει τις Ηνωμένες Πολιτείες.

Ποιος θα επικρατήσει στον αγώνα ΤΝ;

Η Κίνα πιέζει για τεχνολογική αυτάρκεια, ιδιαίτερα όσον αφορά τους ημιαγωγούς. Εάν οι Κινέζοι έχουν επιτυχία, θα μπορούσαν γρήγορα να ξεπεράσουν τις Ηνωμένες Πολιτείες στην ανάπτυξη τεχνητής νοημοσύνης και να γίνουν υπερδύναμη τεχνητής νοημοσύνης.

Οι τρέχουσες οικονομικές και γεωπολιτικές εντάσεις μεταξύ Κίνας και Ηνωμένων Πολιτειών, καθώς και με την Ευρώπη, θα μπορούσαν είτε να καθυστερήσουν τους στόχους αυτάρκειας του Πεκίνου είτε  να τονώσουν την ανάπτυξη κινεζικών τσιπ και να επιταχύνουν την αυτάρκεια. Σε κάθε περίπτωση, η ικανότητα της Κίνας να κλιμακώνει τις εφαρμογές τεχνητής νοημοσύνης προσφέρει άμεσα οικονομικά και στρατηγικά πλεονεκτήματα, ιδιαίτερα στην επιτήρηση και την κατασκευή.

Ορισμένοι ειδικοί πιστεύουν ότι ούτε οι Ηνωμένες Πολιτείες ούτε η Κίνα θα κυριαρχήσουν πλήρως στο μέλλον της τεχνητής νοημοσύνης. Αντίθετα, η ηγεσία θα είναι πιθανότατα συγκεκριμένη σε κάθε τομέα, με τις Ηνωμένες Πολιτείες να ηγούνται δυνητικά στην καινοτομία και την ηθική εφαρμογή της τεχνητής νοημοσύνης, ενώ η Κίνα μπορεί να είναι πρώτη στην πρακτική, μεγάλης κλίμακας εφαρμογή της τεχνητής νοημοσύνης. Αλλά στον αγώνα για την κυριαρχία της τεχνητής νοημοσύνης, κανένα έθνος δεν δέχεται ούτε έχει το περιθώριο να μείνει στη δεύτερη θέση.

Οι απόψεις που εκφράζονται σε αυτό το άρθρο είναι απόψεις του συγγραφέα και δεν αντικατοπτρίζουν απαραίτητα τις απόψεις της Epoch Times.

Η Νότια Κορέα μπλοκάρει το DeepSeek λόγω ανησυχιών κατασκοπείας

Η νοτιοκορεατική ρυθμιστική αρχή για την προστασία δεδομένων, η Επιτροπή Προστασίας Προσωπικών Δεδομένων (PIPC), διερευνά την κινεζική εταιρεία τεχνητής νοημοσύνης DeepSeek για πιθανή μεταφορά δεδομένων χρηστών στη ByteDance, την κινεζική μητρική εταιρεία του TikTok.

Σύμφωνα με πληροφορίες του Yonhap News Agency, η PIPC έχει επιβεβαιώσει επικοινωνία μεταξύ του DeepSeek και της ByteDance, χωρίς ωστόσο να έχει ακόμη διασαφηνίσει το είδος των δεδομένων που ενδεχομένως έχουν μεταφερθεί. Σύμφωνα με τη νοτιοκορεατική νομοθεσία, οι εταιρείες που δραστηριοποιούνται στη χώρα υποχρεούνται να λαμβάνουν τη συγκατάθεση των χρηστών πριν παραχωρήσουν προσωπικά δεδομένα σε τρίτους.

Λόγω αυτών των ανησυχιών, η εφαρμογή DeepSeek αφαιρέθηκε από τα νοτιοκορεατικά καταστήματα εφαρμογών στις 15 Φεβρουαρίου. Σύμφωνα με τοπικά μέσα ενημέρωσης, το DeepSeek παραδέχθηκε ότι δεν συμμορφώθηκε πλήρως με τη νομοθεσία περί απορρήτου και έχει διορίσει τοπικό εκπρόσωπο για να αντιμετωπίσει τα ζητήματα που έθεσε η PIPC.

Ο διευθυντής της ερευνητικής μονάδας της PIPC, Ναμ Σεόκ, συμβούλεψε τους χρήστες στη Νότια Κορέα να διαγράψουν την εφαρμογή από τις συσκευές τους ή να αποφύγουν την εισαγωγή προσωπικών δεδομένων έως ότου επιλυθούν τα ζητήματα ασφαλείας.

Ανησυχίες για παραβίαση απορρήτου και διεθνείς περιορισμοί

Το DeepSeek έχει προκαλέσει ανησυχίες σχετικά με την προστασία προσωπικών δεδομένων, ειδικά μετά την κυκλοφορία του δωρεάν, ανοιχτού κώδικα μοντέλου τεχνητής νοημοσύνης της τον Ιανουάριο. Σύμφωνα με την πολιτική απορρήτου της εταιρείας, η εφαρμογή διαχειρίζεται η Hangzhou DeepSeek Artificial Intelligence και τα δεδομένα των χρηστών αποθηκεύονται σε διακομιστές στην Κίνα. Επιπλέον, αναφέρεται ότι τα δεδομένα μπορούν να διατεθούν σε τρίτους εάν αυτό κριθεί απαραίτητο για συμμόρφωση με τη νομοθεσία ή κυβερνητικά αιτήματα.

Η Εθνική Υπηρεσία Πληροφοριών της Νότιας Κορέας ανέφερε στις 10 Φεβρουαρίου ότι η εφαρμογή DeepSeek συλλέγει υπερβολικά προσωπικά δεδομένα και ότι, σε αντίθεση με άλλες υπηρεσίες τεχνητής νοημοσύνης, διατηρεί αρχεία συνομιλιών και μπορεί να αναγνωρίσει χρήστες μέσω μοτίβων πληκτρολόγησης. Επιπλέον, επισήμανε ότι η εφαρμογή επικοινωνεί με διακομιστές κινεζικών εταιρειών, όπως το volceapplog.com.

Αντιδράσεις και διεθνής αντίκτυπος

Η Νότια Κορέα δεν είναι η μόνη χώρα που έχει εκφράσει ανησυχίες. Η Αυστραλία και η Ταϊβάν έχουν επίσης απαγορεύσει τη χρήση της εφαρμογής DeepSeek σε κυβερνητικές συσκευές, ενώ η Ιταλία έχει μπλοκάρει την πρόσβαση στην υπηρεσία. Στις Ηνωμένες Πολιτείες, νομοθέτες εισήγαγαν στις 7 Φεβρουαρίου νομοθεσία που αποσκοπεί στην απαγόρευση της χρήσης της εφαρμογής σε κυβερνητικές συσκευές, ενώ η πολιτεία του Τέξας έχει ήδη απαγορεύσει τόσο το DeepSeek όσο και το TikTok.

Η κινεζική κυβέρνηση αντέδρασε μέσω δηλώσεων του εκπροσώπου του Υπουργείου Εξωτερικών, Γκουό Τζιακούν, ο οποίος τόνισε ότι το Πεκίνο απαιτεί από τις εταιρείες του να συμμορφώνονται με τους τοπικούς νόμους των χωρών στις οποίες δραστηριοποιούνται. Παράλληλα, κάλεσε τη Νότια Κορέα να αποφύγει την «πολιτικοποίηση» των ζητημάτων εμπορίου και τεχνολογίας.

Αβεβαιότητα και Επόμενα Βήματα

Η υπόθεση DeepSeek εγείρει σοβαρές ανησυχίες σχετικά με τη διαχείριση προσωπικών δεδομένων και τον πιθανό έλεγχο της κινεζικής κυβέρνησης επί τεχνολογικών εταιρειών. Με βάση τον νόμο περί αντικατασκοπείας της Κίνας, οι εταιρείες υποχρεούνται να παραδώσουν δεδομένα χρηστών στις αρχές αν τους ζητηθεί, γεγονός που προκαλεί περαιτέρω αμφιβολίες για την ασφάλεια των δεδομένων σε διεθνές επίπεδο.

Η διερεύνηση από την PIPC συνεχίζεται, ενώ παραμένει ασαφές εάν το DeepSeek θα μπορέσει να επιστρέψει στη νοτιοκορεατική αγορά. Εν τω μεταξύ, οι χρήστες καλούνται να είναι ιδιαίτερα προσεκτικοί όσον αφορά τη χρήση εφαρμογών που διαχειρίζονται προσωπικά δεδομένα, ειδικά όταν αυτές συνδέονται με κινεζικές εταιρείες.