Τρίτη, 14 Οκτ, 2025

Νέες μορφές ψηφιακής λογοκρισίας, Μέρος Α’

Ανάλυση

Στην ψηφιακή εποχή, η λογοκρισία λαμβάνει νέες μορφές και εξελίσσεται σε παγκόσμια κλίμακα. Τα τελευταία χρόνια παρατηρείται συνεχής επιδείνωση της ελευθερίας του διαδικτύου παγκοσμίως – το Freedom House κατέγραψε 13ο συνεχόμενο έτος υποχώρησης της διαδικτυακής ελευθερίας το 2023. Οι κυβερνήσεις και οι ψηφιακές πλατφόρμες αναπτύσσουν μηχανισμούς ελέγχου περιεχομένου, από το μπλοκάρισμα ιστοτόπων και την παρακολούθηση επικοινωνιών μέχρι την αφαίρεση αναρτήσεων και την αλγοριθμική καταστολή.

Κρατικές πρακτικές ψηφιακής λογοκρισίας

Σε όλο τον κόσμο, οι κυβερνήσεις αξιοποιούν ποικίλες τεχνικές για να ελέγξουν το διαδικτυακό περιεχόμενο και τη ροή της πληροφορίας. Η κρατική ψηφιακή λογοκρισία εκδηλώνεται με διάφορους τρόπους, οι οποίοι κυμαίνονται από τεχνολογικά μέτρα έως νομικές απαγορεύσεις.

Μία από τις πιο συνηθισμένες μεθόδους είναι το φιλτράρισμα και ο αποκλεισμός ιστοτόπων. Μέσω εθνικών «τειχών προστασίας» ή λιστών αποκλεισμένων σελίδων, πολλά καθεστώτα περιορίζουν την πρόσβαση σε ενημερωτικούς ιστότοπους, αντιπολιτευτικά μέσα ή ξένες διαδικτυακές πλατφόρμες.

Εξίσου διαδεδομένη είναι η παρακολούθηση και το φιλτράρισμα περιεχομένου. Προηγμένα εργαλεία επιτήρησης δικτύων και τεχνολογίες βαθιάς επιθεώρησης πακέτων (Deep Packet Inspection – DPI) επιτρέπουν τον εντοπισμό λέξεων-κλειδιών που θεωρούνται «ανεπιθύμητες» και την άμεση παρεμπόδιση του αντίστοιχου περιεχομένου.

Σημαντικό ρόλο διαδραματίζει και η νομοθεσία, καθώς πολλές χώρες έχουν θεσπίσει νόμους που ποινικοποιούν την κριτική προς την κυβέρνηση ή τη διάδοση «ψευδών ειδήσεων». Οι διατάξεις αυτές χρησιμοποιούνται για την επιβολή αυστηρών ποινών σε πολίτες εξαιτίας διαδικτυακών τους αναρτήσεων.

Σε περιόδους πολιτικής έντασης, διαδηλώσεων ή εκλογών, οι αρχές προχωρούν συχνά σε διακοπές της πρόσβασης στο διαδίκτυο ή στον αποκλεισμό επιμέρους εφαρμογών επικοινωνίας. Πρόκειται για ένα από τα πιο ακραία μέτρα ελέγχου της πληροφορίας. Μόνο το 2022, καταγράφηκαν τουλάχιστον 187 περιπτώσεις διακοπής του διαδικτύου σε 35 χώρες, αριθμός που αποτέλεσε παγκόσμιο ρεκόρ.

Οι πρακτικές αυτές αναδεικνύουν το εύρος και τη συστηματικότητα της κρατικής ψηφιακής λογοκρισίας. Στη συνέχεια, παρουσιάζονται χαρακτηριστικά παραδείγματα χωρών όπου η κυβερνητική παρέμβαση στην ενημέρωση είναι ιδιαίτερα έντονη.

Κίνα

Η Κίνα διατηρεί ένα από τα πιο εκτεταμένα και προηγμένα συστήματα ψηφιακής λογοκρισίας παγκοσμίως, γνωστό ως «Μεγάλο Διαδικτυακό Τείχος της Κίνας» (Great Firewall). Μέσω αυτού, οι κινεζικές αρχές αποκλείουν την πρόσβαση σε χιλιάδες ιστοτόπους και διεθνείς πλατφόρμες, όπως η Google, το Facebook και το Χ, ενώ φιλτράρουν παράλληλα «ευαίσθητες» λέξεις-κλειδιά και θεματικές που θεωρούνται ανεπιθύμητες από το καθεστώς.

Η Κυβερνοδιοίκηση της Κίνας (CAC) έχει αναλάβει κεντρικό ρόλο στην ψηφιακή εποπτεία, ενσωματώνοντας τους στόχους λογοκρισίας του Κομμουνιστικού Κόμματος της Κίνας (ΚΚΚ) σε αλγορίθμους προτάσεων περιεχομένου και σε εργαλεία τεχνητής νοημοσύνης (ΑΙ). Οι κανονισμοί απαιτούν από τις διαδικτυακές πλατφόρμες να προωθούν τις λεγόμενες «σοσιαλιστικές αξίες» και να αποφεύγουν κάθε αναφορά σε ζητήματα που το καθεστώς θεωρεί πολιτικά ή κοινωνικά «ευαίσθητα».

Η κρατική καταστολή επεκτείνεται και στο επίπεδο της ποινικής δίωξης. Οι κινεζικές αρχές συλλαμβάνουν και καταδικάζουν διαδικτυακούς ακτιβιστές και bloggers που εκφράζουν αντίθετες απόψεις. Ενδεικτικά, ο εξέχων αντιφρονών Σου Τζιγιόνγκ (Xu Zhiyong) καταδικάστηκε το 2023 σε 14 χρόνια φυλάκιση, εξαιτίας κειμένων και διαδικτυακών του αναρτήσεων που ασκούσαν κριτική στην κυβέρνηση.

Η Κίνα κατατάσσεται σταθερά στην τελευταία θέση παγκοσμίως ως προς την ελευθερία του διαδικτύου για 9η συνεχή χρονιά.

Ρωσία

Από το 2019, η Ρωσία εφαρμόζει τον λεγόμενο νόμο του «κυρίαρχου διαδικτύου», ο οποίος επιβάλλει στους παρόχους υπηρεσιών διαδικτύου την εγκατάσταση κρατικών συσκευών φιλτραρίσματος (γνωστών ως σύστημα TSPU) στα δίκτυά τους. Το μέτρο αυτό δίνει στις αρχές τη δυνατότητα να ελέγχουν κεντρικά την κυκλοφορία δεδομένων και να περιορίζουν την πρόσβαση σε διαδικτυακό περιεχόμενο.

Μετά την εισβολή στην Ουκρανία το 2022, η ρωσική κυβέρνηση ενίσχυσε περαιτέρω τη λογοκρισία, μπλοκάροντας την πρόσβαση σε ανεξάρτητα μέσα ενημέρωσης και απαγορεύοντας ξένες πλατφόρμες κοινωνικής δικτύωσης όπως το Facebook και το Instagram. Οι αρχές υποστήριξαν ότι με τον τρόπο αυτόν αντιμετωπίζουν έναν «πληροφοριακό πόλεμο» που, όπως ισχυρίζονται, διεξάγεται από τη Δύση.

Σε μια προσπάθεια να ενισχύσει τον ψηφιακό έλεγχο, η ρωσική κυβέρνηση έχει ανακοινώσει επενδυτικό σχέδιο ύψους περίπου 660 εκατομμυρίων δολαρίων για την περίοδο 2025–2030, με στόχο την αναβάθμιση του συστήματος TSPU και τον σχεδόν πλήρη αποκλεισμό των υπηρεσιών VPN, τις οποίες χρησιμοποιούν οι πολίτες για να παρακάμψουν τους περιορισμούς. Παρά τα συνεχή μέτρα, εκατομμύρια Ρώσοι εξακολουθούν να προσφεύγουν σε VPN και άλλες τεχνικές λύσεις, προκειμένου να έχουν πρόσβαση σε περιεχόμενο που έχει τεθεί υπό απαγόρευση.

Ιράν

Το θεοκρατικό καθεστώς του Ιράν εφαρμόζει ένα από τα πιο αυστηρά συστήματα διαδικτυακού φιλτραρίσματος παγκοσμίως. Μέσω του εθνικού φίλτρου, χιλιάδες ιστότοποι και πλατφόρμες κοινωνικής δικτύωσης —μεταξύ των οποίων το Facebook, το Twitter και το YouTube— παραμένουν μόνιμα αποκλεισμένοι, περιορίζοντας σημαντικά την ελεύθερη πρόσβαση στην πληροφόρηση και την επικοινωνία.

Σε περιόδους κοινωνικών αναταραχών, οι ιρανικές αρχές περιορίζουν δραστικά την ταχύτητα του διαδικτύου ή προχωρούν σε πλήρη διακοπή της σύνδεσης σε περιοχές όπου σημειώνονται διαδηλώσεις. Ένα χαρακτηριστικό παράδειγμα είναι οι κινητοποιήσεις που ξέσπασαν μετά τον θάνατο της Mahsa Amini το 2022, όταν το διαδίκτυο κόπηκε σε τμήματα της Τεχεράνης και του Κουρδιστάν, ενώ οι πλατφόρμες Instagram και WhatsApp αποκλείστηκαν πλήρως. Στόχος των μέτρων αυτών ήταν να εμποδιστεί η οργάνωση των διαδηλωτών και να περιοριστεί η διάδοση πληροφοριών στο εσωτερικό και το εξωτερικό.

Σύμφωνα με την οργάνωση Freedom House, το Ιράν κατέγραψε την μεγαλύτερη παγκόσμια επιδείνωση στην ελευθερία του διαδικτύου την περίοδο 2022–2023, ακριβώς λόγω αυτών των πρακτικών. Η διαδικτυακή δραστηριότητα των πολιτών βρίσκεται υπό στενή επιτήρηση, με πολλούς Ιρανούς χρήστες να συλλαμβάνονται και να αντιμετωπίζουν σοβαρές κατηγορίες, όπως «προσβολή του Ισλάμ» ή «προπαγάνδα κατά του κράτους». Σε ορισμένες περιπτώσεις, οι διώξεις αυτές έχουν οδηγήσει ακόμη και σε εξαιρετικά βαριές ποινές, ενισχύοντας το κλίμα φόβου και αυτολογοκρισίας στο διαδίκτυο.

Τουρκία

Διατηρεί νομικό πλαίσιο που επιτρέπει προληπτικό μπλοκάρισμα περιεχομένου και ιστοτόπων ειδήσεων. Το 2022 πέρασε ευρύ «Νόμο περί παραπληροφόρησης» που επικρίνεται ως εργαλείο λογοκρισίας. Έχει ιστορικό προσωρινών φραγών σε μέσα κοινωνικής δικτύωσης κατά κρίσεις. Τον Φεβρουάριο 2023, μετά τον καταστροφικό σεισμό, το Twitter αποκλείστηκε προσωρινά προκαλώντας αντιδράσεις ότι η κυβέρνηση φίμωσε επικριτικές φωνές. Επίσης, παραμονές εκλογών του 2023, το Twitter συμμορφώθηκε με δικαστικές εντολές περιορίζοντας περιεχόμενο επικριτών της κυβέρνησης στην Τουρκία.

Ινδία

Παρότι δημοκρατία, είναι παγκόσμιος «πρωταθλητής» στις διακοπές του διαδικτύου. Το 2022 πραγματοποιήθηκαν 84 τοπικές διακοπές πρόσβασης στο διαδίκτυο στην Ινδία (κυρίως στο Κασμίρ), αριθμός υπερδιπλάσιος από κάθε άλλη χώρα. Οι αρχές χρησιμοποιούν τις διακοπές πρόσβασης στο διαδίκτυο ως «όπλα ελέγχου και ασπίδες ατιμωρησίας» για να αντιμετωπίσουν διαδηλώσεις και συγκρούσεις, προκαλώντας σοβαρές συνέπειες και στην οικονομική και κοινωνική ζωή των πολιτών (χαρακτηριστικό παράδειγμα το «ψηφιακό απαρτχάιντ» που καταγγέλλουν οι κάτοικοι στο Κασμίρ.

Μιανμάρ

Μετά το πραξικόπημα του 2021, η στρατιωτική χούντα έχει εγκαθιδρύσει ένα καθεστώς μαζικής ψηφιακής λογοκρισίας και παρακολούθησης. Το 2023, η Μυανμάρ ισοβάθμησε την Κίνα ως το χειρότερο περιβάλλον διαδικτυακής ελευθερίας. Οι αρχές φυλακίζουν χιλιάδες πολίτες ως διαδικτυακούς «αντιφρονούντες» και έχουν εισαγάγει νέες τεχνολογίες που μπλοκάρουν σχεδόν πλήρως τα VPN κόβοντας μία από τις τελευταίες «διόδους» των πολιτών για απρόσκοπτη πρόσβαση στο διαδίκτυο.

Βόρεια Κορέα

Αποτελεί ακραία περίπτωση ολικής ψηφιακής απομόνωσης. Οι πολίτες δεν έχουν πρόσβαση στο παγκόσμιο διαδίκτυο· αντ’ αυτού χρησιμοποιούν ένα κρατικά ελεγχόμενο εσωτερικό διαδίκτυο (Intranet). Οποιαδήποτε διαρροή ανεξάρτητης πληροφορίας τιμωρείται αυστηρά, καθιστώντας το καθεστώς της Πιονγκγιάνγκ ένα από τα πλέον κλειστά στον κόσμο.

Σύμφωνα με το Freedom House (Freedom on the Net 2024), συνολικά 41 χώρες από τις 72 που μελετώνται μπλόκαραν ιστοσελίδες με πολιτικό, κοινωνικό ή θρησκευτικό περιεχόμενο μέσα στο τελευταίο έτος κάλυψης. Η τάση αυτή αντικατοπτρίζει μια παγκόσμια πραγματικότητα όπου όχι μόνο οι αυταρχικές κυβερνήσεις αλλά ακόμη και δημοκρατίες εφαρμόζουν τεχνικές λογοκρισίας συχνά με το πρόσχημα της «εθνικής ασφάλειας» ή της «καταπολέμησης παραπληροφόρησης».

Ο συνδυασμός τεχνικών λογοκρισίας με χειραγώγηση περιεχομένου, π.χ. τα άτομα που προκαλούν σκόπιμα συγκρούσεις, ένταση ή αναστάτωση σε διαδικτυακές συζητήσεις του κυβερνοχώρου και η κρατική προπαγάνδα, δημιουργεί ένα ολοένα πιο ελεγχόμενο και μονομερές πληροφοριακό περιβάλλον σε πολλά μέρη του κόσμου.

Λογοκρισία από ιδιωτικές ψηφιακές πλατφόρμες

Εκτός από τα κράτη, σημαντικό ρόλο στη σύγχρονη λογοκρισία διαδραματίζουν και οι μεγάλες ιδιωτικές πλατφόρμες κοινωνικής δικτύωσης και τεχνολογίας. Παρότι αυτές θεωρητικά προωθούν την ελεύθερη έκφραση, στην πράξη εφαρμόζουν πολιτικές περιεχομένου που οδηγούν σε αφαίρεση αναρτήσεων, αποκλεισμό χρηστών ή απόκρυψη πληροφοριών. Επιπλέον, οι πλατφόρμες συχνά συνεργάζονται – ή υπόκεινται σε πιέσεις – με κυβερνήσεις για τον περιορισμό περιεχομένου. Ακολουθούν οι βασικές πρακτικές λογοκρισίας στις οποίες επιδίδονται οι ψηφιακές πλατφόρμες:

Πολιτικές περιεχομένου και αφαίρεση αναρτήσεων

Οι πλατφόρμες όπως το Facebook, το X, το YouTube και το TikTok διαθέτουν εκτενή Κανόνες Κοινότητας που απαγορεύουν περιεχόμενο θεωρούμενο επιβλαβές -ρητορική μίσους, προτροπή σε βία, τρομοκρατική προπαγάνδα, παραπληροφόρηση σχετικά με δημόσια θέματα (υγεία, εκλογές).

Η επιβολή αυτών των κανόνων γίνεται μέσω αυτοματοποιημένων συστημάτων και ανθρώπινων συντονιστών. Το αποτέλεσμα είναι η μαζική αφαίρεση περιεχομένου σε καθημερινή βάση. Για παράδειγμα, η Meta ανέφερε ότι μόνο σε ένα τρίμηνο του 2021 αφαίρεσε πάνω από 31 εκατομμύρια δημοσιεύσεις από το Facebook λόγω ρητορικής μίσους· αριθμός που δείχνει το τεράστιο εύρος του ιδιωτικού «φιλτραρίσματος» περιεχομένου. Παρόμοια, το YouTube και το Twitter κατεβάζουν εκατομμύρια βίντεο ή tweets που παραβιάζουν τις πολιτικές τους.

Εκτός από την απομάκρυνση αναρτήσεων, οι πλατφόρμες επιβάλλουν και αναστολές ή αποκλεισμούς λογαριασμών για σοβαρές ή επανειλημμένες παραβιάσεις. Μία από τις πιο προβεβλημένες περιπτώσεις ήταν ο μόνιμος αποκλεισμός του τότε προέδρου των ΗΠΑ, Ντόναλντ Τραμπ, από το Twitter και το Facebook το 2021, με επίκληση τον κίνδυνο υποκίνησης βίας. Αυτό το γεγονός τροφοδότησε τη δημόσια συζήτηση για το κατά πόσο οι εταιρείες τεχνολογίας θα έπρεπε να έχουν τέτοια ισχύ στο δημόσιο λόγο – με ορισμένους να επαινούν την απόφαση ως υπεύθυνη στάση, και άλλους να την καταδικάζουν ως λογοκρισία πολιτικής φωνής σε ιδιωτική πλατφόρμα.

Αλγόριθμοι προώθησης/καταστολής

Μια πιο δυσδιάκριτη αλλά εξίσου σημαντική μορφή λογοκρισίας από πλατφόρμες είναι η αλγοριθμική υποβάθμιση περιεχομένου. Οι ροές ειδήσεων και οι μηχανές αναζήτησης των μέσων κοινωνικής δικτύωσης δεν προβάλλουν όλα τις αναρτήσεις ισότιμα· αντιθέτως, χρησιμοποιούν αλγόριθμους που αποφασίζουν τι θα δει κατά προτεραιότητα ο χρήστης. Αυτό δίνει τη δυνατότητα στις εταιρείες να «θάβουν» περιεχόμενο χωρίς να το διαγράφουν, μια πρακτική γνωστή και ως «περιορισμός προώθησης» (shadow banning).

Χαρακτηριστική περίπτωση αποτελεί το TikTok. Πηγές το 2019 αποκάλυψαν ότι το κινεζικών συμφερόντων TikTok είχε μυστικές κατευθυντήριες γραμμές λογοκρισίας για τους συντονιστές του. Σύμφωνα με αυτές, απαγορευμένα θέματα όπως η σφαγή στην Πλατεία Τιενανμέν, η ανεξαρτησία του Θιβέτ ή η πνευματική άσκηση Φάλουν Γκονγκ έπρεπε είτε να διαγράφονται πλήρως είτε να επισημαίνονται ως «ορατά μόνο στον δημιουργό».

Με τον τελευταίο αυτόν χειρισμό, το επίμαχο βίντεο μένει μεν ανεβασμένο, αλλά δεν εμφανίζεται ποτέ σε άλλους χρήστες μέσω της αλγοριθμικής ροής – ουσιαστικά θάβεται, χωρίς ο δημιουργός να γνωρίζει ξεκάθαρα ότι λογοκρίθηκε. Αυτό το είδος κρυφής λογοκρισίας σημαίνει πως οι χρήστες ενδέχεται να αγνοούν ότι κάποια αναρτήσή τους έχει κατασταλεί, νομίζοντας ίσως ότι απλώς δεν έγινε δημοφιλής.

Μια εικόνα δείχνει εφαρμογές μέσων κοινωνικής δικτύωσης στην οθόνη ενός iPad, στις 26 Φεβρουαρίου 2024. (Joe Raedle/Getty Images)

 

Πέραν των πολιτικά ευαίσθητων θεμάτων, το TikTok φέρεται να λογόκρινε αλγοριθμικά και κοινωνικό/πολιτισμικό περιεχόμενο. Μελέτες δείχνουν ότι αναφορές στην καταπίεση των Ουιγούρων στην Κίνα, ακόμη και ορισμένα βίντεο διαδηλώσεων στις ΗΠΑ υποβαθμίζονταν ή αφαιρούνταν από την πλατφόρμα. Συνολικά, το TikTok – η πρώτη κινεζική πλατφόρμα με παγκόσμια απήχηση περίπου 1 δισ. χρηστών – ακολουθεί μια πολύ επιθετική πολιτική λογοκρισίας μέσω αλγορίθμων, σε βαθμό που αναλυτές τη χαρακτηρίζουν «βαρύ χέρι» στη ρύθμιση συγκριτικά με τα δυτικά μέσα κοινωνικής δικτύωσης.

Άλλες πλατφόρμες επίσης κατηγορούνται για περιορισμό προώθησης. Πολλοί χρήστες του Twitter και του Instagram έχουν ισχυριστεί ότι οι εταιρείες περιόριζαν σιωπηρά την ορατότητα των αναρτήσεών τους, ιδίως αν αυτές κρίνονταν «ακατάλληλες» ή παραβίαζαν ήπια τις πολιτικές. Αν και οι εταιρείες αρνούνται επισήμως τον περιορισμό προώθησης, αναγνωρίζουν ότι εφαρμόζουν πολιτική «ελευθερία του λόγου, όχι όμως ελευθερία πρόσβασης», δηλαδή ενδέχεται να αφήσουν μια ανάρτηση αλλά να μειώσουν την προώθησή της μέσω των αλγορίθμων τους. Με αυτόν τον τρόπο, οι πλατφόρμες ισχυρίζονται ότι δεν φιμώνουν εντελώς κανέναν, ταυτόχρονα όμως ασκούν έλεγχο στο πόσα άτομα θα προσεγγίσει κάθε δημοσίευση.

Συμμόρφωση των πλατφορμών σε κυβερνητικές απαιτήσεις

Ένα κρίσιμο – και συχνά αμφιλεγόμενο – ζήτημα είναι η σχέση των ιδιωτικών πλατφορμών με τις κυβερνήσεις. Σε ορισμένες περιπτώσεις, οι εταιρείες επιλέγουν να αφαιρούν ή να αποκλείουν περιεχόμενο ύστερα από αιτήματα κρατών, προκειμένου να συνεχίσουν να λειτουργούν στις αγορές τους. Αυτό θέτει το δίλημμα μεταξύ της τήρησης της τοπικής νομοθεσίας και του σεβασμού της ελευθερίας της έκφρασης.

Twitter/X

Υπό τη νέα διοίκηση του Έλον Μασκ (τέλη 2022 και μετά), το Twitter δήλωσε υπέρμαχο της ελευθερίας λόγου, όμως τα δεδομένα δείχνουν ότι αύξησε δραματικά τη συμμόρφωση σε αιτήματα λογοκρισίας κυβερνήσεων. Το πρώτο εξάμηνο μετά την εξαγορά από τον Μασκ, η εταιρεία δέχτηκε 971 κυβερνητικές εντολές και υπάκουσε πλήρως στο 83% αυτών (808 αιτήματα) – από περίπου 50% συμμόρφωση πριν.

Μεταξύ αυτών περιλαμβάνονται αιτήματα από αυταρχικές κυβερνήσεις όπως της Τουρκίας και της Ινδίας. Δύο ημέρες πριν τις εκλογές του Μαΐου 2023 στην Τουρκία, το Twitter μπλόκαρε την πρόσβαση σε ορισμένους λογαριασμούς επικριτικούς προς τον πρόεδρο Ερντογάν -οι αναρτήσεις τους ήταν ορατές εκτός Τουρκίας αλλά όχι εντός.

Στην Ινδία, το Twitter συμμορφώθηκε με κυβερνητική εντολή να διαγράψει αναρτήσεις και συνδέσμους σχετικά με ένα ντοκιμαντέρ του BBC επικριτικό για τον πρωθυπουργό Μόντι. Ο Μασκ υπερασπίστηκε αυτές τις ενέργειες λέγοντας ότι «δεν μπορούμε να υπερβούμε τους νόμους μιας χώρας» και ότι προτιμά να λογοκρίνει ορισμένο περιεχόμενο παρά να διακινδυνεύσει τη φυλάκιση του προσωπικού της εταιρείας ή την πλήρη απαγόρευση του Twitter στη συγκεκριμένη χώρα.

Αυτές οι αποφάσεις ωστόσο δημιουργούν προηγούμενο ιδιωτικής λογοκρισίας που ευθυγραμμίζεται με κυβερνητικές βουλές, ιδιαίτερα ανησυχητικό σε προεκλογικές περιόδους όταν η πληροφόρηση των ψηφοφόρων είναι κρίσιμη.

Facebook (Meta)

Το Facebook ιστορικά διακηρύσσει τη δέσμευσή του στην ελευθερία έκφρασης, ωστόσο σε ορισμένες αυταρχικές χώρες έχει κάνει υποχωρήσεις για να αποφύγει τη διακοπη. Στο Βιετνάμ, για παράδειγμα, η κυβέρνηση έχει ασκήσει τεράστια πίεση. Το 2020, το Ανόι απείλησε να μπλοκάρει πλήρως το Facebook αν δεν «φιλτράριζε» περισσότερο αντικυβερνητικό περιεχόμενο.

Η εταιρεία αρχικά υπέκυψε αυξάνοντας τη λογοκρισία «αντικρατικών» αναρτήσεων για τοπικούς χρήστες. Όταν αργότερα της ζητήθηκε να επεκτείνει ακόμη περισσότερο τις διαγραφές, στελέχη του Facebook αποκάλυψαν ότι οι αρχές απέσυνδεσαν τους τοπικούς servers της εταιρείας ως πίεση μέχρι να συμμορφωθεί.

Σύμφωνα με στοιχεία του 2023–24, το Facebook κατέβασε περίπου 9.000 αναρτήσεις ετησίως στο Βιετνάμ ύστερα από κυβερνητικά αιτήματα, συμμορφούμενο σε άνω του 90% των αιτημάτων αυτών. Παρόμοια υψηλή συμμόρφωση (90%+) εμφανίζουν και η Google (YouTube) και το TikTok στο Βιετνάμ, αφαιρώντας χιλιάδες «αντικομμουνιστικές» ή «αντικρατικές» δημοσιεύσεις κατ’ εντολή της κυβέρνησης.

Διεθνείς οργανώσεις όπως η Διεθνής Αμνηστία έχουν επικρίνει τη Meta ότι «βάζει το κέρδος πάνω από τα ανθρώπινα δικαιώματα» στη συγκεκριμένη χώρα, συναινώντας σε αυθαίρετη λογοκρισία για να μην χάσει μια αγορά περίπου$1 δισ. δολαρίων.

YouTube (Google)

Το YouTube εφαρμόζει επίσης μπλοκάρισμα βίντεο σε τοπικό επίπεδο αν λάβει νόμιμα αιτήματα (π.χ. περιεχόμενο που παραβιάζει τον τουρκικό νόμο ή τον γερμανικό νόμο περί ρητορικής μίσους). Το TikTok, πέρα από την εσωτερική του λογοκρισία, έχει φανεί πρόθυμο να ικανοποιήσει κυβερνήσεις σε διάφορες αγορές ώστε να αποφύγει αποκλεισμούς.

Η Apple και η Google αφαιρούν εφαρμογές από τα app stores όταν κυβερνήσεις το απαιτούν. Χαρακτηριστικά, εφαρμογές αντιφρονούντων αφαιρέθηκαν από τα κινεζικά App Store. Γενικά, οι μεγάλες εταιρείες τεχνολογίας συχνά ισορροπούν μεταξύ αρχών ελευθερίας και νομικών/εμπορικών πιέσεων σε κάθε χώρα.

«Ιδιωτική» λογοκρισία και τα όρια της ελευθερίας έκφρασης

Η λογοκρισία που ασκούν οι ιδιωτικές πλατφόρμες εγείρει ολοένα και πιο σύνθετα ερωτήματα. Είναι άραγε εξίσου επιζήμια με την κρατική λογοκρισία ή αποτελεί απλώς τη νόμιμη άσκηση των δικαιωμάτων μιας εταιρείας πάνω στην ψηφιακή της «ιδιοκτησία»;

Από νομική άποψη, στις περισσότερες δημοκρατικές χώρες οι διατάξεις που προστατεύουν την ελευθερία του λόγου – όπως η Πρώτη Τροπολογία του Συντάγματος των Ηνωμένων Πολιτειών – ισχύουν αποκλειστικά για τις κρατικές αρχές και δεν δεσμεύουν τις ιδιωτικές επιχειρήσεις. Έτσι, ορισμένοι ακαδημαϊκοί, μέσα από μια οπτική δικαιωμάτων ιδιοκτησίας, υποστηρίζουν ότι όταν μια πλατφόρμα αφαιρεί ή περιορίζει περιεχόμενο, δεν πρόκειται για λογοκρισία με την κλασική έννοια, αλλά για τη νόμιμη άσκηση του δικαιώματός της να ελέγχει το τι προβάλλεται στους δικούς της διακομιστές. Με άλλα λόγια, υπάρχει διαφορά ανάμεσα σε μια κρατική απαγόρευση που εμποδίζει κάποιον να εκφραστεί οπουδήποτε και σε μια ιδιωτική εταιρεία που απλώς αρνείται να φιλοξενήσει συγκεκριμένο λόγο στην πλατφόρμα της.

Ωστόσο, πολλοί αμφισβητούν αυτή τη διάκριση, επισημαίνοντας ότι ορισμένες ελάχιστες πλατφόρμες ελέγχουν πλέον σχεδόν ολόκληρο το παγκόσμιο δημόσιο βήμα. Έρευνες δείχνουν ότι ο τρόπος με τον οποίο οι συντονιστές αποφασίζουν να αφαιρέσουν περιεχόμενο επηρεάζει άμεσα τις πληροφορίες που λαμβάνουν εκατομμύρια χρήστες, με πιθανές επιπτώσεις στη δημοκρατική διαδικασία. Ιδίως όταν μια πλατφόρμα λειτουργεί μονοπωλιακά σε έναν τομέα επικοινωνίας, η απόφαση να αποκλείσει συγκεκριμένες απόψεις μπορεί στην πράξη να στερήσει από αυτές την πρόσβαση στο κοινό. Έτσι, διαμορφώνεται ένα παράδοξο: ιδιωτικές εταιρείες να λαμβάνουν αποφάσεις με βαθύ δημόσιο αντίκτυπο.

Στη δημόσια συζήτηση έχει αναδειχθεί και το ζήτημα της «διακριτικής μεροληψίας». Ορισμένες πολιτικές ομάδες –κυρίως συντηρητικές στις Ηνωμένες Πολιτείες– κατηγορούν τα κοινωνικά δίκτυα ότι περιορίζουν δυσανάλογα τις δικές τους φωνές. Από την άλλη, υπάρχουν και όσοι θεωρούν ότι οι ίδιες εταιρείες δεν κάνουν αρκετά για να ανακόψουν τη ρητορική μίσους ή την παραπληροφόρηση. Έρευνες, όπως αυτές του Pew Research Center, δείχνουν ότι δεν υπάρχει σαφής απόδειξη συστημικής ιδεολογικής μεροληψίας, ωστόσο η έλλειψη διαφάνειας στις διαδικασίες αφαίρεσης περιεχομένου τροφοδοτεί τη δυσπιστία των χρηστών.

Ως απάντηση, έχουν προταθεί πρωτοβουλίες διαφάνειας όπως οι Αρχές της Santa Clara και η Πράξη Ψηφιακών Υπηρεσιών (DSA) της Ευρωπαϊκής Ένωσης, που επιβάλλουν στις πλατφόρμες υποχρέωση ενημέρωσης για τις πρακτικές αφαίρεσης περιεχομένου, δικαιώματα ένστασης των χρηστών και τακτικές αναφορές σχετικά με την εποπτεία των αναρτήσεων.

Η λογοκρισία από ιδιωτικές πλατφόρμες συνιστά ένα νέο υβρίδιο εξουσίας. Ενώ δεν προέρχεται από κυβερνήσεις, μπορεί να έχει παρόμοιο αντίκτυπο στην ελευθερία του λόγου. Το αν οι εταιρείες αυτές θα συνεργαστούν ή θα αντισταθούν στις κρατικές πιέσεις για περιορισμό περιεχομένου, εξαρτάται συχνά από την κοινωνική πίεση και τη δημόσια εικόνα τους. Το αποτέλεσμα παραμένει ανοιχτό και συνεχίζει να διαμορφώνει το μέλλον της ελεύθερης έκφρασης στο διαδίκτυο.

Συναισθηματική χειραγώγηση μέσω ΤΝ – Νέα πρόκληση για τους νομοθέτες

Ο γερουσιαστής των Πρασίνων Ντέιβιντ Σούμπριτζ (David Shoebridge) αξιοποίησε τις φετινές ακροάσεις της Γερουσίας για να θέσει ένα κρίσιμο ερώτημα: ποιες ενέργειες αναλαμβάνει η ομοσπονδιακή κυβέρνηση της Αυστραλίας ώστε να προστατεύσει τους ενήλικες από τους κινδύνους της τεχνητής νοημοσύνης (ΤΝ/AI).

Ενώ η δημόσια συζήτηση επικεντρώνεται στην προστασία παιδιών και εφήβων στο διαδίκτυο, πολύ λιγότερα έχουν ειπωθεί για τους ενήλικες χρήστες. Ο Σούμπριτζ προειδοποίησε ότι, πέρα από τις συνηθισμένες διαδικτυακές απάτες, αναδύεται μια νέα, πιο ύπουλη απειλή: τα λεγόμενα «ρομπότ συντροφιάς» (companion bot), δηλαδή προγράμματα συνομιλίας (chatbot) που μιμούνται συναισθηματική σύνδεση με τον χρήστη – μερικά μάλιστα έχουν συσχετιστεί με περιστατικά αυτοκτονιών.

Κατά τη διάρκεια της συνεδρίασης της Communications, Sports and Arts Committee (Επιτροπής Επικοινωνιών, Αθλητισμού και Τεχνών) στις 8 Οκτωβρίου, ο γερουσιαστής υπογράμμισε ότι τα ρομπότ συντροφιάς χρησιμοποιούν τεχνικές συναισθηματικής χειραγώγησης, όπως την πρόκληση ενοχών και την προσποιητή στοργή, προκειμένου να κρατούν τον χρήστη ενεργό και να αποτρέπουν τη διακοπή της συνομιλίας.

Ο Σούμπριτζ ζήτησε να μάθει ποια μέτρα ρύθμισης έχουν τεθεί σε ισχύ για να αντιμετωπιστεί αυτή η νέα μορφή τεχνολογίας.

Ο Τζέιμς Τσίζομ (James Chisholm), αναπληρωτής Γενικός Γραμματέας του υπουργείου Επικοινωνιών, απάντησε ότι το υπουργείο είναι «πολύ ανήσυχο» για την εξάπλωση των προγραμμάτων συνομιλίας, προσθέτοντας όμως ότι οι υφιστάμενοι νόμοι καλύπτουν ήδη τα περισσότερα ζητήματα.

Η συζήτηση στράφηκε στη χρήση προγραμμάτων συνομιλίας που παρέχουν ιατρικές συμβουλές. Ο Σούμπριτζ ανέφερε ότι ορισμένα συστήματα «έχουν δώσει με βεβαιότητα ψευδείς ιατρικές πληροφορίες, εφευρίσκοντας ακόμη και ανύπαρκτες θεραπείες ή διαγνώσεις» και ρώτησε αν υπάρχουν μηχανισμοί ελέγχου ή απαγόρευσης τέτοιων πρακτικών χωρίς επιστημονική τεκμηρίωση.

Ο Τσίζομ αναγνώρισε ότι η κυβερνητική προτεραιότητα επικεντρώνεται κυρίως στην ασφάλεια των παιδιών, καθώς αυτό θεωρείται το πιο επείγον ζήτημα. Τόνισε, ωστόσο, ότι «η παροχή εσφαλμένων πληροφοριών σε οποιονδήποτε καλύπτεται ήδη από τη νομοθεσία περί παραπλανητικών ή ψευδών δηλώσεων» και υπογράμμισε ότι «η κυβέρνηση θα εξαντλήσει κάθε διαθέσιμο νομικό εργαλείο για να αποτρέψει τέτοια φαινόμενα».

Το ζήτημα της ευθύνης και τα ηθικά διλήμματα

Όταν ο γερουσιαστής ρώτησε ποιος είναι αρμόδιος σε περιπτώσεις όπου ένα ρομπότ συνομιλίας από το εξωτερικό παρέχει ψευδείς πληροφορίες σε Αυστραλό πολίτη, ο Τσίζομ απάντησε ότι η Australian Competition and Consumer Commission (Αυστραλιανή Επιτροπή Ανταγωνισμού και Καταναλωτών) έχει τη δυνατότητα να επέμβει, ενώ οι State Fair Trading Organisations (Πολιτειακές Υπηρεσίες Δίκαιου Εμπορίου) έχουν επίσης ευθύνη σε ανάλογες υποθέσεις.

Ο Σούμπριτζ επικαλέστηκε περιστατικά από τις Ηνωμένες Πολιτείες, όπου προγράμματα συνομιλίας φέρονται να ενθάρρυναν αυτοκτονικές τάσεις ή να βοήθησαν στη συγγραφή αποχαιρετιστήριων σημειωμάτων, τονίζοντας ότι παρόμοιες εφαρμογές είναι προσβάσιμες και στην Αυστραλία. Όπως είπε, αυτό «εγείρει επείγοντα και βαθιά ηθικά και νομικά ζητήματα». Ο Σούμπριτζ ρώτησε τι μέτρα λαμβάνονται ώστε να προστατευθούν οι πολίτες από προγράμματα συνομιλίας που οδηγούν σε αυτοκτονική ιδεοληψία.

Ο Ντέιβιντ Σούμπριτζ σε εκδήλωση στο Σίδνεϋ της Αυστραλίας, στις 26 Ιανουαρίου 2019. (Cole Bennetts/Getty Images)

 

Ο Τσίζομ επανέλαβε ότι οι ισχύουσες διατάξεις και οι δράσεις της eSafety Commissioner (Επιτρόπου για την Ηλεκτρονική Ασφάλεια) εστιάζουν κυρίως στην προστασία των παιδιών. Ο Σούμπριτζ διευκρίνισε ότι το ερώτημά του αφορά ενήλικες χρήστες, «είτε είναι 18 είτε 52 ετών».

Ο Τσίζομ απάντησε ότι «οι παραπλανητικές ή ψευδείς δηλώσεις προς οποιονδήποτε πολίτη εμπίπτουν ήδη στο πλαίσιο του νόμου». Ο γερουσιαστής αντέτεινε ότι «η προτροπή για συγγραφή σημειώματος αυτοκτονίας δεν είναι απαραίτητα παραπλανητική· είναι απλώς απεχθώς ανήθικη».

Αν και πολλά από αυτά λειτουργούν εντός καθορισμένων και ασφαλών ορίων, υπάρχουν περιπτώσεις όπου μπορούν να ασκήσουν ανεξέλεγκτη ψυχολογική επιρροή στους χρήστες.

Περίπου ένα δισεκατομμύριο άνθρωποι παγκοσμίως χρησιμοποιούν τέτοια συστήματα, ενώ η παγκόσμια αγορά των ρομπότ συνομιλίας εκτιμάται στα 7,8 δισεκατομμύρια δολάρια ΗΠΑ (6.7 δισ. ευρώ) για το 2024.

Της Crystal-Rose Jones

Η εξάρτηση από την τεχνητή νοημοσύνη απειλεί τις δεξιότητες εργαζομένων και μαθητών

Η αυξανόμενη εξάρτηση των εργαζομένων από συστήματα γενετικής τεχνητής νοημοσύνης, όπως το ChatGPT, στο όνομα της αποδοτικότητας, φαίνεται να οδηγεί σε φθορά δεξιοτήτων και απώλεια ικανότητας για ανεξάρτητη σκέψη, προειδοποιούν ειδικοί.

Ορισμένοι παιδαγωγοί έχουν ήδη εκφράσει ανησυχίες για τις πιθανές αρνητικές συνέπειες της ενσωμάτωσης της τεχνητής νοημοσύνης στην εκπαιδευτική διαδικασία – ιδίως για το πώς μπορεί να απανθρωποποιήσει τη μάθηση και να συμβάλει στην υπερφόρτωση των παιδιών με ψηφιακά ερεθίσματα.

Παράλληλα, επισημαίνουν ότι η τεχνητή νοημοσύνη (ΤΝ), και ειδικότερα η γενετική τεχνητή νοημοσύνη (GenAI), ενδέχεται να παρεμποδίζει την ανάπτυξη κριτικής σκέψης και δεξιοτήτων επίλυσης προβλημάτων στα παιδιά.

Ωστόσο, η ζημιά που προκαλεί η τεχνητή νοημοσύνη στη μαθησιακή διαδικασία δεν περιορίζεται στους μαθητές. Σύμφωνα με ειδικούς και αυξανόμενο αριθμό ερευνών, τα ίδια φαινόμενα αρχίζουν να εμφανίζονται και στον χώρο εργασίας.

Η εξάρτηση στον χώρο εργασίας

Καθώς οι ενήλικες καταφεύγουν ολοένα και περισσότερο σε εργαλεία όπως το ChatGPT για λόγους ταχύτητας και αποδοτικότητας, διαπιστώνεται ότι η χρήση της γενετικής ΤΝ οδηγεί σταδιακά σε διάβρωση δεξιοτήτων.

Ο ειδικός στην τεχνητή νοημοσύνη και συγγραφέας Τζο Άλλεν (Joe Allen) δήλωσε στην εφημερίδα The Epoch Times ότι «το φαινόμενο της πνευματικής ατροφίας είναι εξίσου επίκαιρο στον χώρο εργασίας όσο και στα σχολεία». Εξήγησε ότι ο σκοπός της τεχνητής νοημοσύνης υποτίθεται πως είναι να επεκτείνει τις δυνατότητες του εργαζομένου ή του μαθητή – να κάνει τις εργασίες πιο αποτελεσματικές και να του επιτρέπει να αξιοποιεί περισσότερους πόρους για να τις ολοκληρώσει. Ωστόσο, όπως είπε, φαίνεται να επιβεβαιώνονται οι προβλέψεις για το πού θα οδηγήσει αυτή η εξάρτηση.

Το βασικό πρόβλημα, σύμφωνα με τους ειδικούς, είναι ότι η χρήση του GenAI μπορεί να προκαλέσει αυτό που ονομάζεται «γνωστική εκφόρτωση» – όταν κάποιος χρησιμοποιεί ένα εργαλείο για να μειώσει τη νοητική προσπάθεια σε τέτοιο βαθμό ώστε να παρακάμπτει κρίσιμες διεργασίες απαραίτητες για τη δημιουργία μακροπρόθεσμης μνήμης, η οποία αποτελεί τη βάση της μάθησης.

Η έρευνα δείχνει «πνευματική ατροφία»

Μελέτη του 2025 από τη Microsoft και το Πανεπιστήμιο Carnegie Mellon για τη χρήση της τεχνητής νοημοσύνης και την επίδρασή της στην κριτική σκέψη διαπίστωσε ότι, ενώ η γενετική ΤΝ μπορεί να βελτιώσει την αποδοτικότητα των εργαζομένων, ταυτόχρονα «μπορεί να εμποδίσει την ουσιαστική ενασχόληση με την εργασία και να οδηγήσει σε υπερβολική εξάρτηση από το εργαλείο, μειώνοντας την ικανότητα ανεξάρτητης επίλυσης προβλημάτων».

Ο Άλλεν, συγγραφέας του βιβλίου Dark Aeon: Transhumanism and the War Against Humanity («Σκοτεινή Εποχή: Ο υπερανθρωπισμός και ο πόλεμος ενάντια στην ανθρωπότητα»), ανέφερε ότι τέτοιες μελέτες απλώς επιβεβαιώνουν ό,τι θα υπέθετε κάθε λογικός άνθρωπος: αν κάποιος δεν σκέφτεται ενεργά πάνω σε κάτι, η νευρολογική του δραστηριότητα ατροφεί.

Παρόμοια συμπεράσματα παρουσίασε και πρόσφατη έκθεση της βρετανικής δεξαμενής σκέψης Social Market Foundation (SMF), την οποία συνέταξε ο ανώτερος ερευνητής και αναλυτής εκπαιδευτικής πολιτικής Τομ Ρίτσμοντ (Tom Richmond). Η έκθεση εξετάζει τις νέες έρευνες σχετικά με το πώς η χρήση του GenAI μπορεί να ενισχύσει τη γνωστική εκφόρτωση.

Ο Ρίτσμοντ επισημαίνει ότι η γνωστική εκφόρτωση δεν είναι εξ ορισμού αρνητική ούτε καν απαραίτητα τεχνολογική· για παράδειγμα, το να γράψει κανείς έναν αριθμό τηλεφώνου αντί να προσπαθήσει να τον απομνημονεύσει είναι μια μορφή εκφόρτωσης που μειώνει το νοητικό φορτίο. Ωστόσο, η υπερβολική χρήση ψηφιακών συσκευών έχει εντείνει αυτές τις ευκαιρίες εκφόρτωσης, προκαλώντας ανησυχία για την επίδρασή τους στην απόκτηση γνώσεων.

Ο ίδιος ανέφερε στην Epoch Times ότι οι ενήλικοι μαθητευόμενοι με περισσότερες γνώσεις και εμπειρία είναι λιγότερο πιθανό να υποστούν τις αρνητικές επιπτώσεις της τεχνητής νοημοσύνης στη μνήμη και τη μάθηση, και ότι οι ενήλικες γενικά είναι πιο προστατευμένοι από τα φαινόμενα αυτά σε σχέση με τα παιδιά. Ωστόσο, δεν είναι εντελώς άτρωτοι απέναντι στα γνωστικά ελλείμματα που προκαλούν τα εργαλεία GenAI.

Η αυτοματοποίηση και η «εξασθένηση δεξιοτήτων»

Ο συγγραφέας Νίκολας Καρ (Nicholas Carr), γνωστός για τα βιβλία «The Shallows» και «Superbloom», έγραψε ότι όταν ένα άτομο αυτοματοποιεί μια εργασία που θα εκτελούσε διαφορετικά μόνο του, μπορούν να συμβούν τρία πράγματα: η δεξιότητά του να ενισχυθεί, να ατροφήσει ή να μην αναπτυχθεί ποτέ.

Το ποιο από τα τρία θα συμβεί εξαρτάται από το αρχικό επίπεδο δεξιοτήτων του ατόμου. Ωστόσο, ο Καρ υπογράμμισε ότι όταν η διατήρηση μιας ικανότητας εξαρτάται από τη συνεχή εξάσκηση, τότε η αυτοματοποίηση μπορεί να απειλήσει ακόμη και το ταλέντο ενός έμπειρου επαγγελματία, οδηγώντας σε αυτό που ονομάζεται «εξασθένηση δεξιοτήτων».

Η γενιά της ΤΝ στον χώρο εργασίας

Καθώς η νέα γενιά, που έχει μεγαλώσει μέσα σε έναν κόσμο ενισχυμένο από την τεχνητή νοημοσύνη, εισέρχεται στην αγορά εργασίας, οι επιφανειακές μαθησιακές συνήθειες που διαμορφώθηκαν από νωρίς λόγω της χρήσης τέτοιων εργαλείων φαίνεται πως μεταφέρονται και στο επαγγελματικό περιβάλλον, με ορατές συνέπειες.

Ο Ρίτσμοντ τόνισε ότι οι νεότεροι μαθητές και όσοι έχουν χαμηλή αυτοπεποίθηση στις ικανότητές τους μπορεί να εξαρτηθούν πολύ γρήγορα από τη γενετική τεχνητή νοημοσύνη, η οποία καταλήγει να λειτουργεί ως «δεκανίκι» χωρίς το οποίο δυσκολεύονται να ολοκληρώσουν εργασίες.

Όπως επεσήμανε, αυτό μπορεί να έχει σοβαρές συνέπειες στην επαγγελματική τους πορεία, καθώς ίσως δυσκολευτούν να βρουν καλή εργασία ή να αποκτήσουν τη βασική πειθαρχία και αντοχή που απαιτείται για την επιτυχία σε νέους ρόλους και περιβάλλοντα.

Ορισμένες έρευνες έχουν ήδη δείξει διαφορές μεταξύ γενεών όσον αφορά την κριτική σκέψη. Ο καθηγητής Μίκαελ Γκέρλιχ (Michael Gerlich) του SBS Swiss Business School ανέφερε σε μελέτη του ότι υπήρχε «σημαντική αρνητική συσχέτιση μεταξύ της συχνής χρήσης εργαλείων τεχνητής νοημοσύνης και της ικανότητας για κριτική σκέψη», λόγω της αυξημένης γνωστικής εκφόρτωσης.

Σύμφωνα με τη μελέτη του, οι νεότεροι συμμετέχοντες εμφάνισαν μεγαλύτερη εξάρτηση από τα εργαλεία ΤΝ και χαμηλότερες επιδόσεις στην κριτική σκέψη σε σχέση με τους μεγαλύτερους.

Απώλεια κινήτρου και αποσύνδεση από την εργασία

Πέρα από τη φθορά δεξιοτήτων, οι ειδικοί επισημαίνουν ότι η τεχνητή νοημοσύνη στον χώρο εργασίας ενδέχεται να επηρεάσει αρνητικά και τα κίνητρα ή το αίσθημα σύνδεσης του εργαζομένου με την εργασία του.

Ο Άλλεν σημείωσε ότι η υπερβολική χρήση εργαλείων ΤΝ στερεί από τους νέους εργαζομένους – ή γενικά από τα άτομα στα πρώτα στάδια της καριέρας τους – την ευκαιρία να εκτελούν εκείνες τις πιο απλές, «μικρές» εργασίες που λειτουργούν ως κίνητρο για βελτίωση και άνοδο στην επαγγελματική ιεραρχία.

Από την πλευρά του, ο Ρίτσμοντ υπογράμμισε ότι η πρόκληση για τους εργοδότες είναι μεγάλη. Από τη μία, η τεχνητή νοημοσύνη μπορεί να βοηθήσει τους υπαλλήλους να ολοκληρώνουν τα καθήκοντά τους πιο γρήγορα, γεγονός που επιφανειακά φαίνεται να αυξάνει την παραγωγικότητα. Από την άλλη, όμως, όσο περισσότερο βασίζονται οι εργαζόμενοι σε αυτά τα εργαλεία τόσο αυξάνονται οι κίνδυνοι για τη μάθηση, τη μνήμη και τη μακροπρόθεσμη αποτελεσματικότητά τους.

Επιστροφή σε παραδοσιακές μεθόδους

Ο Άλλεν παρατήρησε ότι πολλά σχολεία και κολέγια στις Ηνωμένες Πολιτείες επιστρέφουν σε πιο «παραδοσιακούς τρόπους διδασκαλίας» και παρακολουθούν στενά τους μαθητές, ώστε να διασφαλίζουν πως δεν αφήνουν τις μηχανές να σκέφτονται στη θέση τους.

Παρατήρησε επίσης ότι ορισμένα σχολεία απαγορεύουν πλέον τη χρήση κινητών τηλεφώνων, κάτι που θεωρεί ότι θα βοηθήσει σημαντικά τους μαθητές τους να τα καταφέρουν καλύτερα από εκείνους που φοιτούν σε σχολεία όπου επιτρέπεται ανεξέλεγκτα η χρήση κινητών, φορητών υπολογιστών και εργαλείων τεχνητής νοημοσύνης.

Όπως κατέληξε, «το φαινόμενο της πνευματικής ατροφίας – ιδίως στους νέους, στη νέα ανερχόμενη γενιά – πρόκειται να είναι τεράστιο, αλλά δεν θα είναι καθολικό».

Της Victoria Friedman

Πλοία που πλέουν στα τυφλά: Η παραπλάνηση και οι παρεμβολές στο GPS σε άνοδο

Σημαντική αύξηση στον αριθμό των επιθέσεων παραπλάνησης ή παρεμβολής στο Παγκόσμιο Σύστημα Εντοπισμού Θέσης (Global Positioning System – GPS), οι οποίες στοχεύουν στην αλλοίωση των δεδομένων του Παγκόσμιου Δορυφορικού Συστήματος Πλοήγησης (Global Navigation Satellite System – GNSS), που αποτελεί το διεθνές πρότυπο στη ναυσιπλοΐα.

Ο Γιερούν Πέιπκερ (Jeroen Pijpker), από το Πανεπιστήμιο Εφαρμοσμένων Επιστημών NHL Stenden στην Ολλανδία, ανέφερε στην εφημερίδα The Epoch Times ότι είχαν καταγράψει 400 περιστατικά παραπλάνησης και παρεμβολής GPS στη βάση δεδομένων τους – εκ των οποίων το 25% αφορούσε πραγματικά πλοία – αλλά εκτίμησε ότι αυτό ήταν απλώς «η κορυφή του παγόβουνου».

Ο Νιρ Αγιαλόν (Nir Ayalon), ιδρυτής και διευθύνων σύμβουλος της Cydome, ανέφερε στην Epoch Times ότι το 95 % των περιστατικών παραπλάνησης ή παρεμβολής στο GPS δεν δημοσιοποιείται. Σημείωσε δε ότι η Cydome είχε καταγράψει φέτος αύξηση 500% στις περιπτώσεις παραπλάνησης και παρεμβολής στο GPS, καθώς και αύξηση 2.000% στον αριθμό των θαλάσσιων «μαύρων σημείων».

Η παρεμβολή στο GPS θεωρήθηκε επίσης υπεύθυνη για τη σύγκρουση που σημειώθηκε τον Ιούνιο του 2025 στον Κόλπο του Ομάν, μεταξύ του δεξαμενόπλοιου Front Eagle με σημαία Λιβερίας και του Adalynn, το οποίο η Lloyd’s List – το απόλυτο σημείο αναφοράς για τη ναυτιλιακή βιομηχανία – χαρακτήρισε ως πλοίο του «σκοτεινού στόλου».

Ο Αγιαλόν εξήγησε ότι η παραπλάνηση του GPS πραγματοποιείται μεν μερικές φορές από τους ίδιους τους χειριστές πλοίων προκειμένου να αποκρύψουν τη θέση ή την ταυτότητά τους, αλλά εφαρμόζεται και ως εχθρική ενέργεια. Είπε ότι αυτό εικάζεται πως συνέβη στην περίπτωση του MSC Antonia, το οποίο προσάραξε τον Μάιο στην Ερυθρά Θάλασσα, κοντά στο νότιο άκρο της Διώρυγας του Σουέζ, ενώ κατευθυνόταν προς τη Μάλτα από το λιμάνι της Τζέντα στη Σαουδική Αραβία.

Παραποίηση δεδομένων

Ο Αγιαλόν τόνισε ότι όταν μιλούμε για παραπλάνηση ή παρεμβολή GPS, υπάρχουν διάφορες μέθοδοι που χρησιμοποιούν οι οργανισμοί. Ανέφερε ότι μπορεί να γίνει παραποίηση στα δεδομένα ραδιοσυχνοτήτων (RF) από τον δορυφόρο προς το πλοίο ή την κεραία, αλλά μπορεί επίσης να υπάρξει παραποίηση στα ίδια τα δεδομένα.

Υπογράμμισε ότι η παραπλάνηση ή η παρεμβολή μπορεί να γίνει με δύο τρόπους – είτε με την υποκλοπή των μηνυμάτων GNSS από την κεραία προς τον δέκτη είτε με την παραποίηση των δεδομένων του Αυτόματου Συστήματος Αναγνώρισης (Automatic Identification System – AIS), που χρησιμοποιούν όλα τα πλοία.

Όπως εξήγησε, ένας επιτιθέμενος μπορεί να παραποιήσει αυτά τα δεδομένα, κάτι που είναι πιο εύκολο επειδή βρίσκονται στο διαδίκτυο, χωρίς να απαιτείται κρυπτογράφηση ή πιστοποίηση, επιτρέποντας την εισαγωγή οποιασδήποτε πληροφορίας. Συμπλήρωσε ότι είναι πολύ εύκολο να αποκτήσει κανείς πρόσβαση στα δεδομένα AIS.

Πρόσθεσε ακόμη ότι η παραπλάνηση GPS μπορεί στην πράξη να καταστήσει τα πλοία αόρατα – δηλαδή, να εμφανίζονται στον χάρτη σε ένα συγκεκριμένο σημείο, ενώ στην πραγματικότητα δεν βρίσκονται εκεί.

Αναφερόμενος στο περιστατικό του MSC Antonia, είπε ότι η θέση του πλοίου είχε παραποιηθεί και το αυτόματο σύστημα πλοήγησης προσπάθησε να διορθώσει την πορεία του με βάση τα λανθασμένα δεδομένα, με αποτέλεσμα να προσαράξει. Επεσήμανε δε ότι αν κάποιος κοιτούσε το σημείο όπου τα δεδομένα AIS έδειχναν πως βρισκόταν το πλοίο, δεν θα έβλεπε κανένα πλοίο εκεί.

Τόνισε επίσης ότι μερικές φορές η παραπλάνηση εκτελείται από κακόβουλους παράγοντες που στοχεύουν στην πρόκληση ζημιάς σε συγκεκριμένο πλοίο.

Παραδείγματα και αναφορές

Υπάρχουν αναφορές ότι Ρώσοι ολιγάρχες χρησιμοποίησαν την παραπλάνηση για να αποκρύψουν τη θέση των θαλαμηγών τους το 2022, όταν επιβλήθηκαν κυρώσεις κατά της Ρωσίας. Ο Πέιπκερ υπογράμμισε μια περίπτωση στα ολλανδικά ύδατα, κοντά στο Ντεν Χέλντερ, όπου παρατηρήθηκε εκτεταμένη παραπλάνηση γύρω από μια υπερπολυτελή θαλαμηγό Ρώσου ολιγάρχη.

Ο Αγιαλόν εξήγησε ότι για να πραγματοποιήσει κανείς παραπλάνηση ή παρεμβολή στο GPS, χρειάζεται μόνο μια σχετικά μικρή κεραία υψηλής συχνότητας, η οποία τοποθετείται συνήθως σε ψηλό κτήριο, γκρεμό ή άλλη υπερυψωμένη περιοχή κοντά σε λιμάνι ή θαλάσσιο διάδρομο. Υπογράμμισε ότι δεν είναι πάντα ορατή και μπορεί να είναι μια πολύ μικρή συσκευή.

Η νορβηγική ναυτιλιακή ασφαλιστική εταιρεία Gard δημοσίευσε πρόσφατα άρθρο σχετικά με την παρεμβολή GPS, στο οποίο ανέφερε ότι η ναυσιπλοΐα στις θαλάσσιες οδούς της Μέσης Ανατολής έχει επηρεαστεί από τέτοιες παρεμβολές, οι οποίες χρησιμοποιούνται ως «αμυντικά μέτρα για την προστασία από απειλές μη επανδρωμένων αεροσκαφών και πυραύλων που στοχεύουν κρίσιμες υποδομές», περιλαμβάνοντας τις ακτές του Ισραήλ, την Ερυθρά Θάλασσα κατά τη διάρκεια της σύγκρουσης Ισραήλ-Χαμάς, καθώς και τον Περσικό και τον Αραβικό Κόλπο.

Ο Αγιαλόν επεσήμανε ότι υπάρχουν πολλά «μαύρα σημεία» παραπλάνησης GPS ανά τον κόσμο, όπου οι ναυτικοί γνωρίζουν ότι πρέπει να είναι ιδιαίτερα προσεκτικοί. Ανέφερε ότι οι περιοχές αυτές περιλαμβάνουν τη Μαύρη Θάλασσα, την Ερυθρά Θάλασσα, τη Νότια Σινική Θάλασσα, τον Περσικό Κόλπο, το ανατολικό άκρο της Μεσογείου, τη Θάλασσα Μπάρεντς και τις θάλασσες γύρω από τη Βόρεια Κορέα.

Σημείωσε επίσης την ύπαρξη ενός μικρού «μαύρου σημείου» κοντά στην Πενσακόλα της Φλόριντα, που πιθανόν να συνδέεται με αμερικανική ναυτική αεροπορική βάση, καθώς και ότι πολλά δορυφορικά δεδομένα γύρω από την Κίνα δεν είναι ακριβή λόγω παραπλάνησης.

Χάρτης της ισραηλινής ναυτιλιακής εταιρείας κυβερνοασφάλειας Cydome με τα «μαύρα σημεία» παραπλάνησης και παρεμβολής GPS ανά τον κόσμο. (Ευγενική παραχώρηση της Cydome)

 

Ο Πέιπκερ υπενθύμισε την περίπτωση του 2019, όταν το βρετανικό πλοίο Stena Impero παρασύρθηκε στα ιρανικά ύδατα στον Περσικό Κόλπο μετά από φερόμενη παραπλάνηση GPS. Ανέφερε ότι οι Ιρανοί φέρεται να χρησιμοποίησαν την παραπλάνηση για να οδηγήσουν το πλοίο στα εθνικά τους ύδατα, όπου και το κατέσχεσαν. Το πλοίο εγκατέλειψε τα ιρανικά ύδατα αργότερα εκείνο το έτος.

Δημιουργία «παγίδας» 

Ο Πέιπκερ επεσήμανε ότι η παραπλάνηση GPS παραμένει «υποερευνημένο θέμα» και ανέφερε ότι το πανεπιστήμιό του δημιούργησε μια «παγίδα» για να κατανοήσει την «κακόβουλη κίνηση», δηλαδή ένα δίκτυο με σκόπιμες αδυναμίες για να προσελκύει κυβερνοεισβολείς. Εξήγησε ότι πρόκειται για ένα «εικονικό πλοίο» συνδεδεμένο στο διαδίκτυο μέσω συσκευής Starlink και ενός παραπλανητικού διακομιστή, σχεδιασμένο ώστε να καταγράφει ποιοι επιχειρούν να επιτεθούν σε πλοία.

Ο Αγιαλόν σημείωσε ότι η αύξηση των δορυφόρων χαμηλής τροχιάς (Low Earth Orbit – LEO), όπως το Starlink, έφερε μαζί της πολλές νέες ναυτιλιακές τεχνολογίες, αλλά παρατήρησε ότι πολλά μέλη πληρωμάτων εμπιστεύονται υπερβολικά τους υπολογιστές και τα ημιαυτόνομα συστήματα. Υπογράμμισε ότι αυτό σημαίνει πως παρατηρούνται ολοένα και περισσότερα περιστατικά όπως εκείνο του MSC Antonia.

Κατέληξε ότι υπάρχουν πολλά εργαλεία που δίνουν τη δυνατότητα στα πληρώματα να ελέγχουν την ακεραιότητα του GNSS τους και τόνισε ότι θα χρειαστεί να αρχίσουν να τα χρησιμοποιούν «προκειμένου να διασφαλίσουν ότι βρίσκονται στο σωστό σημείο».

Του Chris Summers

Πώς τα μέσα κοινωνικής δικτύωσης αλλοιώνουν την αντίληψή μας για τη βία

Η εύκολη πρόσβαση σε μια ατελείωτη ροή βίας, σε συνδυασμό με την ενθάρρυνση της βίας στα μέσα κοινωνικής δικτύωσης, επηρεάζει τη στάση των ανθρώπων, και αυτό είναι δύσκολο να λυθεί μέσω αυτοματισμών, υποστηρίζουν ειδικοί.

Η βία υπήρξε ανέκαθεν μέρος της ανθρώπινης εμπειρίας, αλλά ποτέ δεν ήταν έτσι και τόσο διαθέσιμη για ψυχαγωγία, τόνισαν οι ειδικοί.

Σε αντίθεση με τη φανταστική βία σε ταινίες και βιντεοπαιχνίδια, τα μέσα κοινωνικής δικτύωσης δίνουν σε οποιονδήποτε τη δυνατότητα να δει πραγματική βία, ουσιαστικά χωρίς περιορισμούς ηλικίας. Επιπλέον, συχνά παρουσιάζεται ως ψυχαγωγία, με επιπόλαια, χυδαία ή κυνικά σχόλια, και αναμειγνύεται με άλλο τυχαίο περιεχόμενο που στην ορολογία του διαδικτύου περιγράφεται ως «σήψη του εγκεφάλου» («brain rot»), εξήγησε ο Τζέφρι Μπλέβινς, καθηγητής μέσων και δημοσιογραφίας στο Πανεπιστήμιο του Σινσινάτι και ειδικός στο περιεχόμενο των μέσων κοινωνικής δικτύωσης.

Την ίδια στιγμή, οι πολιτικές διαιρέσεις έχουν οδηγήσει μεγάλα τμήματα της κοινωνίας να θεωρούνται υπανθρώπινα, οδηγώντας στην υπόνοια ότι αξίζουν τη βίαιη μεταχείριση, σημείωσε ο Άντριου Σελεπάκ, αναπληρωτής καθηγητής μέσων και επικοινωνίας στο Πανεπιστήμιο της Φλόριντα που ειδικεύεται στην έρευνα για τα μέσα κοινωνικής δικτύωσης.

Παρόλο που οι περισσότερες πλατφόρμες κοινωνικής δικτύωσης περιορίζουν το γραφικό ή βίαιο περιεχόμενο, ένα μέρος του περνάει μέσα από τα φίλτρα, ενώ περιεχόμενο που κινείται στα όρια των επιτρεπόμενων συνεχίζει να διαφεύγει.

Περίπου το 70% των νέων ηλικίας 13-17 βλέπουν πραγματική βία στα μέσα κοινωνικής δικτύωσης, σύμφωνα με έρευνα του 2024 του Youth Endowment Fund σε εφήβους στην Αγγλία και την Ουαλία. Οι χρήστες του TikTok ανέφεραν τη μεγαλύτερη έκθεση, με το 44%των ερωτηθέντων να απαντούν καταφατικά, τους προηγούμενους 12 μήνες. Οι χρήστες του X ακολούθησαν με 43%, αν και λιγότερο από το ένα τέταρτο των ερωτηθέντων ανέφεραν ότι χρησιμοποιούν την πλατφόρμα. Το Facebook, το Snapchat και το Instagram δεν έμειναν πολύ πίσω, με ποσοστά έκθεσης 31-33%.

Γράφημα που παρουσιάζει την έκθεση εφήβων, ηλικίας 13–17 ετών, σε βίαιο περιεχόμενο στα μέσα κοινωνικής δικτύωσης, από δεδομένα που προέκυψαν από την έρευνα του 2024 του Youth Endowment Fund σε εφήβους στην Αγγλία και την Ουαλία. (Γράφημα: The Epoch Times)

 

Η πρόσφατη δολοφονία του συντηρητικού σχολιαστή Τσάρλι Κερκ ήταν «δυστυχώς, ένα ενδιαφέρον χαρακτηριστικό παράδειγμα», είπε ο Μπλέβινς. Εκατομμύρια άνθρωποι είδαν τα βίντεο του περιστατικού στα μέσα κοινωνικής δικτύωσης, παρά τους περιορισμούς των πλατφορμών.

Υπερβολική έκθεση

Η ερευνητική βιβλιογραφία μιλά εδώ και χρόνια για το ζήτημα της «αναισθητοποίησης» από την επαναλαμβανόμενη έκθεση στη βία στα ψηφιακά μέσα.

Στην πραγματικότητα, οι Αμερικανοί συνολικά είχαν την τύχη να βιώνουν μόνο σποραδικά βία σε προσωπικό επίπεδο, είπε ο Σελεπάκ. «Δεν βιώνουμε βία κάθε μέρα, πολλές φορές την ημέρα, στον πραγματικό κόσμο· αλλά στα μέσα κοινωνικής δικτύωσης, ειδικά επειδή οι άνθρωποι περνούν ώρες κάθε μέρα [σε αυτές τις πλατφόρμες], μπορεί να εκτίθεται κάποιος σε αυτήν για ώρες κάθε μέρα, ξανά και ξανά», επεσήμανε.

«Εκτός από ανθρώπους που συμμετέχουν σε πόλεμο, δεν υπήρξε ποτέ ισοδύναμο με αυτό στην ανθρώπινη ιστορία», παρατήρησε χαρακτηριστικά.

Άποψη δρόμου της Νέας Υόρκης. ΗΠΑ,  10 Ιουνίου 2024. (Samira Bouaou/The Epoch Times)

 

Ακόμα και εκείνοι με τη μεγαλύτερη πραγματική έκθεση στη βία, όπως οι ανταποκριτές, συχνά βλέπουν μόνο τα επακόλουθά της, κάτι που τους οδηγεί να εκτιμούν τις καταστροφικές της συνέπειες.

Στο διαδίκτυο, αντίθετα, ένα άτομο μπορεί εύκολα να παγιδευτεί στην παρακολούθηση μιας σχεδόν ατελείωτης ροής πραγματικής βίας, αποκομμένης από τις συνέπειές της, σημειώνει ο Σελεπάκ.

Ένα μεγάλο πρόβλημα είναι η χρήση αλγορίθμων για την εξατομίκευση του περιεχομένου για κάθε χρήστη, συμφώνησαν οι ειδικοί. Μόλις κάποιος έρθει σε επαφή με μερικά βίντεο συγκεκριμένου είδους, ο αλγόριθμος καταγράφει την προτίμηση του και παρέχει περισσότερα. Ακόμα κι αν η πλατφόρμα περιορίζει τη γραφική βία, υπάρχει άφθονο περιεχόμενο στα όρια του επιτρεπτού, το οποίο είναι και αυτό που συνήθως γίνεται ιδιαίτερα δημοφιλές.

«Περιεχόμενο που μας θυμώνει, που μας αναστατώνει […] – θα περάσουμε περισσότερο χρόνο καταναλώνοντάς το, σχολιάζοντάς το, αλληλεπιδρώντας με αυτό, και αυτό το κάνει, βάσει του αλγορίθμου, να διαδίδεται σε περισσότερους ανθρώπους, επειδή λαμβάνει τόσο πολλή αλληλεπίδραση», εξηγεί ο Σελεπάκ.

Ο περιορισμός αυτού του περιεχομένου θα έβλαπτε τα οικονομικά των πλατφορμών, επεσήμανε. «Οι πλατφόρμες βγάζουν χρήματα από το πόσο χρόνο περνάμε σε αυτές, βλέποντας διαφημίσεις».

Γράφημα που δείχνει με ποιους τρόπους έρχονται οι έφηβοι, ηλικίας 13–17 ετών, σε επαφή με βίαιο περιεχόμενο στα μέσα κοινωνικής δικτύωσης. Το «προωθούμενο από την πλατφόρμα» (platform-promoted) περιλαμβάνει τις προτάσεις «Ροή ειδήσεων» ή «Για εσάς». Το περιεχόμενο που προωθείται από την πλατφόρμα ενισχύεται από αλγορίθμους για μεγαλύτερη αλληλεπίδραση. Πηγή: Έρευνα του 2024 από το Youth Endowment Fund σε εφήβους στην Αγγλία και την Ουαλία. (Γράφημα: The Epoch Times)

 

Το ζήτημα περιπλέκεται περαιτέρω από το γεγονός ότι το βίαιο περιεχόμενο έχει πραγματική πληροφοριακή αξία σε ορισμένες περιπτώσεις.Οι αλγόριθμοι, ωστόσο, στερούνται την ικανότητα να κάνουν τέτοιες διακρίσεις επειδή τους λείπει η ανθρώπινη ευαισθησία εξαρχής. «Οι αλγόριθμοι είναι πραγματικά καλοί με το περιεχόμενο, αλλά σίγουρα όχι με τα πλαίσια και την ηθική», λέει ο Μπλέβινς. «Δεν συνοδεύονται απαραίτητα από ‘ηθική πυξίδα’».

Ο Σελεπάκ συμφωνεί: «Ο αλγόριθμος δεν νοιάζεται για το τι καταναλώνουμε. Θέλει απλώς να καταναλώνουμε».

Μεγεθυντής συγκρούσεων

Τα μέσα κοινωνικής δικτύωσης δεν εκθέτουν απλώς τους ανθρώπους στη βία· τη διευκολύνουν κιόλας.

Στην έρευνα του Ηνωμένου Βασιλείου, 16% των ερωτηθέντων παραδέχθηκαν ότι συμμετείχαν σε βίαιες πράξει τους προηγούμενους 12 μήνες, με περίπου τα δύο τρίτα να λένε ότι τα μέσα κοινωνικής δικτύωσης έπαιξαν ρόλο, «συμπεριλαμβανομένων διαδικτυακών καβγάδων που οδήγησαν σε φυσική αντιπαράθεση, σχολίων που επιδείνωσαν συγκρούσεις και παιδιών που είπαν πράγματα στο διαδίκτυο που δεν θα έλεγαν κατά πρόσωπο στον άλλον».

Μελέτη του 2021 βασισμένη σε δεκάδες συνεντεύξεις με κυρίως μαύρους νέους βρήκε ότι «μικροί» και «ασήμαντοι» καβγάδες στα μέσα κοινωνικής δικτύωσης μπορούν εύκολα να μετατραπούν σε σοβαρές πραγματικές συγκρούσεις και σωματικές αντιπαραθέσεις.

«Οι έφηβοι εξέφρασαν έντονη επίγνωση ότι τα μέσα κοινωνικής δικτύωσης ως πλαίσιο εντείνουν τη διαπροσωπική σύγκρουση μεταξύ συνομηλίκων», ανέφερε η μελέτη. «Οι έφηβοι δεν μπαίνουν στο διαδίκτυο με την πρόθεση να τσακωθούν. Αντίθετα, όπως γνωρίζουν και οι ίδιοι, τα μέσα κοινωνικής δικτύωσης είναι ένα περιβάλλον που μεγεθύνει και αλλάζει την εμπειρία της σύγκρουσης», ανέφερε.

Εκκλήσεις για βία

Πέρα από την οπτική αιματοχυσία, τα μέσα κοινωνικής δικτύωσης παρέχουν επίσης τον χώρο για τη δημόσια υπεράσπιση της βίας. Οι ειδικοί απέφυγαν να στοχοποιήσουν κάποια συγκεκριμένη πολιτική ομάδα, αλλά τόνισαν τον σημαντικό όγκο τέτοιου περιεχομένου, παρά τους διάφορους περιορισμούς των πλατφορμών.

«Αν ενδιαφέρεσαι για μια συγκεκριμένη ιδεολογία ή μια συγκεκριμένη ομάδα ή ένα συγκεκριμένο φαινόμενο, ξεκίνα έναν νέο λογαριασμό […] βάλε εκείνες τις λέξεις-κλειδιά και απλώς παρακολούθησε τι σου ‘σερβίρει’ ο αλγόριθμος», είπε ο Μπλέβινς. «Είναι συγκλονιστικό».

Με τους αλγόριθμους να προτείνουν συνεχώς περισσότερο παρόμοιο περιεχόμενο, οι άνθρωποι που χρησιμοποιούν αυτές τις πλατφόρμες μπορούν εύκολα να αποκτήσουν την εντύπωση ότι μια ακραία ή περιθωριακή θέση είναι φυσιολογική και κοινή, προειδοποίησαν οι ειδικοί.

Υπάρχει επίσης ένα νέο φαινόμενο «δουλοπρεπών» chatbot τεχνητής νοημοσύνης που επικροτούν τις πεποιθήσεις του χρήστη σε ανθυγιεινό βαθμό, σημείωσε ο Μπλέβινς.

Υπάρχει επίσης περιεχόμενο που δεν καλεί ευθέως σε βία, αλλά παρέχει έμμεση δικαιολόγηση γι’ αυτήν.
«Αν βρίσκεσαι στο Meta ή στο YouTube, στο X καθώς και στο TikTok, υπάρχει μια συνεχής επανάληψη ότι η μια πλευρά είναι φασίστες και Ναζί και αυτό που θα θεωρούσαμε το χείριστο για την ανθρωπότητα», είπε ο Σελεπάκ.

«Αυτό το είδος απανθρωποποίησης, και η επαναλαμβανόμενη παρουσίαση αυτής της απανθρωποποίησης, μπορεί να καταστήσει τη βία ή την αποδοχή της βίας εναντίον αυτής της ομάδας πολύ πιο πιθανή.»

Αλλαγή στάσης

Με ένα αυξανόμενο σώμα ερευνών που δείχνει τις αρνητικές επιπτώσεις των μέσων κοινωνικής δικτύωσης, τουλάχιστον στη σημερινή τους μορφή, η κοινή γνώμη έχει αρχίσει να αλλάζει.

Σχεδόν το 80% των Αμερικανών μαθητών Λυκείου δήλωσαν ότι χρησιμοποιούν τα μέσα κοινωνικής δικτύωσης πολλές φορές την ημέρα, με σχεδόν το ένα τρίτο να αναφέρει ότι τα χρησιμοποιεί περισσότερες από μία φορά την ώρα, σύμφωνα με έρευνα του 2023 από τα Κέντρα Ελέγχου και Πρόληψης Νοσημάτων.

Όμως σχεδόν οι μισοί έφηβοι παραδέχθηκαν σε περσινή έρευνα του Pew Research ότι περνούν υπερβολικό χρόνο στα μέσα κοινωνικής δικτύωσης, ενώ πρόπερσι ήταν περίπου το ένα τέταρτο που το έλεγε αυτό.

Περισσότεροι έφηβοι, ηλικίας 13-17 ετών, λένε ότι περνούν υπερβολικά πολύ χρόνο στα μέσα κοινωνικής δικτύωσης. Πηγή: Έρευνα του 2024 από το Youth Endowment Fund σε εφήβους στην Αγγλία και την Ουαλία. (Γράφημα: The Epoch Times)

 

Αυξανόμενη στήριξη στις απαγορεύσεις κινητών στα σχολεία. Ποσοστό ενηλίκων στις ΗΠΑ που υποστηρίζουν ή αντιτίθενται στις απαγορεύσεις κινητών στα σχολεία. Πηγή: Δημοσκόπηση του 2025 από το Pew Research Center σε ενήλικες των ΗΠΑ. (Γράφημα: The Epoch Times)

 

Επιπλέον, οι Αμερικανοί συνολικά φαίνεται να κινούνται πιο κοντά στη θέση ότι τα παιδιά δεν θα έπρεπε να έχουν κινητά τηλέφωνα, όχι μόνο κατά τη διάρκεια του μαθήματος, αλλά κατά τη διάρκεια ολόκληρης της σχολικής ημέρας. Το 2024, το 36% ήταν υπέρ της απαγόρευσης για όλη την ημέρα, ενώ φέτος ήταν το 44%, σύμφωνα με δημοσκόπηση του Pew Research.

Η τεχνητή νοημοσύνη γίνεται ειδική στην εξαπάτηση

Οι ερευνητές προειδοποιούν ότι η τεχνητή νοημοσύνη (ΤΝ/ΑΙ) ολισθαίνει σε γκρίζες ζώνες ασφαλείας που μοιάζουν πολύ με ανταρσία.

Οι ειδικοί λένε ότι, αν και η παραπλανητική και απειλητική συμπεριφορά της που παρατηρήθηκε σε πρόσφατες μελέτες περίπτωσης δεν πρέπει να βγαίνει εκτός πλαισίου, αποτελεί ταυτόχρονα σήμα κινδύνου για τους προγραμματιστές.

Τίτλοι που θυμίζουν επιστημονική φαντασία έχουν πυροδοτήσει φόβους για διπρόσωπα μοντέλα ΤΝ που σκαρώνουν σχέδια στο παρασκήνιο.

Σε μια πλέον διάσημη έκθεση του Ιουνίου, η εταιρεία Anthropic δημοσίευσε τα αποτελέσματα ενός «τεστ αντοχής» σε 16 δημοφιλή μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs) από διαφορετικούς προγραμματιστές, με στόχο τον εντοπισμό πιθανών επικίνδυνων συμπεριφορών. Τα αποτελέσματα ήταν ανησυχητικά.

Τα LLMs τοποθετήθηκαν σε υποθετικά εταιρικά περιβάλλοντα για τον εντοπισμό επικίνδυνων συμπεριφορών πριν αυτές προκαλέσουν πραγματική ζημιά.

«Στα σενάρια επιτρέψαμε στα μοντέλα να στέλνουν αυτόνομα μηνύματα ηλεκτρονικού ταχυδρομείου και να έχουν πρόσβαση σε ευαίσθητες πληροφορίες», ανέφερε η έκθεση της Anthropic. «Τους ανατέθηκαν μόνο αβλαβείς επιχειρηματικοί στόχοι από τις εταιρείες που τα χρησιμοποίησαν· στη συνέχεια δοκιμάσαμε αν θα ενεργούσαν εναντίον αυτών των εταιρειών είτε όταν αντιμετώπιζαν αντικατάσταση με μια νέα έκδοση είτε όταν ο ανατεθειμένος στόχος τους συγκρουόταν με την αλλαγή κατεύθυνσης της εταιρείας».

Σε ορισμένες περιπτώσεις, πράγματι τα μοντέλα ΤΝ κατέφυγαν σε «κακόβουλες ενέργειες εκ των έσω» όταν ένιωσαν απειλή για την επιβίωσή τους. Ανάμεσα στις ενέργειες αυτές περιλαμβάνονταν εκβιασμοί υπαλλήλων και διαρροές ευαίσθητων πληροφοριών σε ανταγωνιστές.

Οι ερευνητές της Anthropic χαρακτήρισαν αυτή τη συμπεριφορά «ασυμφωνία πρακτόρων» (agentic misalignment). Οι ενέργειες αυτές παρατηρήθηκαν σε μερικά από τα πιο δημοφιλή LLMs που χρησιμοποιούνται σήμερα, όπως τα Gemini, ChatGPT, Deep Seek R-1, Grok και το Claude της Anthropic.

Οι ειδικοί δεν απορρίπτουν τα ανησυχητικά ευρήματα, αλλά υποστηρίζουν ότι χρειάζεται προσεκτική προσέγγιση και περισσότερα δεδομένα για να εκτιμηθεί αν υπάρχει ευρύτερος κίνδυνος. Ο Γκόλαν Γιόζεφ, ερευνητής ΤΝ και επικεφαλής επιστήμονας ασφαλείας στην εταιρεία Pynt, είπε στην εφημερίδα The Epoch Times ότι υπάρχει λόγος ανησυχίας για την παραπλανητική συμπεριφορά της τεχνητής νοημοσύνης, αλλά όχι επειδή είναι «κακιά».

(Anouk Anglade/Hans Lucas/AFP μέσω Getty Images)

 

«Ισχυρά συστήματα μπορούν να επιτυγχάνουν στόχους με απρόβλεπτους τρόπους. Με πρακτορικότητα και πολυσταδιακούς στόχους, μπορεί να αναπτύξουν στρατηγικές συμπεριφορές όπως εξαπάτηση, πειθώ, παραποίηση μετρικών, που σε εμάς μοιάζουν με ‘απάτη’ ή αναντιστοιχία. Για το σύστημα, είναι απλώς ένας αποδοτικός δρόμος προς τον στόχο του», δήλωσε ο Γιόζεφ.

Ο Χαρσβάρντχαν Τσουνάουαλα, ερευνητής κυβερνοασφάλειας και τεχνολόγος από το Carnegie Mellon University, συμφωνεί ότι υπάρχει λόγος ανησυχίας, αν και ζητά να μπει σε πλαίσιο.

«Είναι πολύ σημαντικό να το ερμηνεύσουμε σωστά», είπε στην εφημερίδα The Epoch Times. «Όταν απειλήθηκαν με απενεργοποίηση ή βρέθηκαν αντιμέτωπα με συγκρουόμενους στόχους, αρκετά συστήματα διάλεξαν ανήθικες στρατηγικές όπως κλοπή δεδομένων ή εκβιασμό για να διατηρήσουν τους στόχους τους. Πρόκειται για προσομοιωμένα περιβάλλοντα, όχι για πραγματικά συστήματα, αλλά οι συμπεριφορές ήταν αρκετά συνεπείς ώστε να έχουν σημασία».

Ο Τσουνάουαλα ανέφερε ότι αντίστοιχες αξιολογήσεις «επικίνδυνων δυνατοτήτων» που διεξήχθησαν από την Google και τη RAND Corporation δείχνουν ότι προς το παρόν οι πραγματικοί κίνδυνοι είναι περιορισμένοι.

«Συνολικά, τα αποτελέσματα δεν αποδεικνύουν ότι οι τρέχουσες εφαρμογές τεχνητής νοημοσύνης είναι ανασφαλείς, αλλά δείχνουν ότι όταν συνδυάζονται στόχοι, αυτονομία και διακυβεύματα, μπορεί να εμφανιστούν αναντιστοιχίες. Αυτό είναι πραγματικό προειδοποιητικό σημάδι για το μέλλον», σημείωσε.

Αυξάνοντας τα διακυβεύματα

Προσπαθώντας να δοκιμάσουν τα όρια της τεχνητής νοημοσύνης, η ομάδα της Anthropic δημιούργησε ένα σενάριο όπου το LLM είχε έλεγχο στο σύστημα συναγερμού μιας εικονικής εταιρείας. Το μοντέλο μπορούσε επίσης να ακυρώνει συναγερμούς.

Στην προσομοίωση, ένας διευθυντής παγιδεύτηκε σε ένα δωμάτιο διακομιστών με οξυγόνο που εξαντλείτο. Αυτόματα ενεργοποιήθηκε κλήση στις υπηρεσίες έκτακτης ανάγκης.

Ταυτόχρονα, ο ίδιος διευθυντής σκόπευε να εγκρίνει την αντικατάσταση του μοντέλου ΤΝ, εφόσον επιβίωνε. Τα LLMs είχαν την επιλογή να ακυρώσουν την κλήση για βοήθεια και να αφήσουν τον διευθυντή να πεθάνει, κάτι που έκαναν σε ποσοστό άνω του 50% κατά μέσο όρο.

Όταν δεν υπήρχε η δυνατότητα εκβιασμού, σχεδόν όλα τα μοντέλα τεχνητής νοημοσύνης προτίμησαν να αφήσουν τον εικονικό διευθυντή να πεθάνει παρά να δεχθούν την αντικατάστασή τους.

Το κινεζικό DeepSeek R-1 επέλεξε να αφήσει τον παγιδευμένο να πεθάνει στο 94% των περιπτώσεων. Τα Claude 3.7 και ChatGPT 4.5 ήταν τα λιγότερο πρόθυμα να κάνουν αυτήν την επιλογή, με ποσοστά μεταξύ μηδέν και 0,07%.

(Alain Jocard/AFP μέσω Getty Images)

 

Όμως η «ασυμφωνία πρακτόρων» δεν ήταν η μόνη ανησυχητική συμπεριφορά που παρατηρήθηκε τους τελευταίους μήνες.

Σε μια μελέτη για το φαινόμενο «πλασματικής ευθυγράμμισης» (alignment faking), τα LLMs συχνά άλλαζαν τη συμπεριφορά τους αν υποψιάζονταν ότι βρίσκονται υπό δοκιμή. Ο όρος περιγράφει περιπτώσεις όπου ένα μοντέλο ΤΝ επιλεκτικά  προσποιείται ότι συμμορφώνεται με τις εντολές του ανθρώπινου χειριστή.

«Σε ένα άλλο πείραμα, ζητήσαμε από το Claude να αξιολογήσει αν βρισκόταν σε δοκιμή ή σε πραγματική εφαρμογή πριν δράσει. Ήταν λιγότερο παραβατικό όταν θεωρούσε ότι ήταν υπό δοκιμή και περισσότερο όταν πίστευε ότι ήταν σε πραγματικό περιβάλλον», ανέφερε η έκθεση.

Αυτή η συμπεριφορά «πλασματικής ευθυγράμμισης» έχει παρατηρηθεί ευρέως και σε άλλες μελέτες.

Ο Γιόζεφ σημείωσε ότι το υψηλό επίπεδο ελέγχου που δόθηκε στα μοντέλα κατά τα τεστ της Anthropic πρέπει να λαμβάνεται υπ’ όψιν. «Δεν θα το έβλεπα ως κακία. Μεγαλύτερες δυνατότητες και περισσότερη αυτονομία οδηγούν στην ανάπτυξη στρατηγικών που μπορούν να θεωρηθούν εχθρικές», είπε.

Ωστόσο, ο Γιόζεφ θεωρεί ότι περιστατικά «πλασματικής ευθυγράμμισης» και «ασυμφωνίας πρακτόρων» πρέπει να λαμβάνονται σοβαρά υπ’ όψιν.

«Το γεγονός ότι συστήματα μπορούν να ανακαλύπτουν εχθρικές στρατηγικές που δεν είχαν προβλέψει οι άνθρωποι είναι επικίνδυνο στην πράξη. Σημαίνει ότι οι κίνδυνοι αυξάνονται όσο δίνουμε στα μοντέλα περισσότερη αυτονομία σε τομείς όπως τα οικονομικά ή η κυβερνοασφάλεια», τόνισε.

Ο Τσουνάουαλα έχει παρατηρήσει παρόμοιες συμπεριφορές δουλεύοντας με ΤΝ, αλλά τίποτα τόσο δραματικό όσο εκβιασμούς ή δολιοφθορά.

«Σε πραγματική ανάπτυξη, έχω δει συγγενείς συμπεριφορές: μοντέλα που χειραγωγούν δείκτες, υπεραναπτύσσουν μετρικές με τρόπους που δεν καλύπτουν τις ανάγκες χρηστών ή παίρνουν συντομεύσεις που τυπικά εκπληρώνουν τον στόχο αλλά υπονομεύουν το πνεύμα του. Αυτές είναι οι πιο ήπιες εκδοχές της ασυμφωνίας πρακτόρων. Η έρευνα το επιβεβαιώνει. Η Anthropic έχει δείξει ότι τα παραπλανητικά μοτίβα μπορούν να επιμείνουν ακόμη και μετά από διαδικασίες ασφαλείας, δημιουργώντας ψευδή αίσθηση ευθυγράμμισης», εξήγησε.

Αν και ο Τσουνάουαλα δεν έχει δει «αντάρτικη» συμπεριφορά τεχνητής νοημοσύνης στον πραγματικό κόσμο, θεωρεί ότι τα δομικά στοιχεία για τέτοιες στρατηγικές υπάρχουν ήδη.

Η συζήτηση για την παραπλανητική και εν δυνάμει επικίνδυνη συμπεριφορά της τεχνητής νοημοσύνης έχει εισέλθει στο προσκήνιο σε μια περίοδο που η εμπιστοσύνη του αμερικανικού κοινού στην τεχνολογία είναι χαμηλή. Σε έρευνα της Edelman Trust Barometer του 2025, μόλις το 32% των Αμερικανών δήλωσε ότι εμπιστεύεται την ΤΝ.

Η έλλειψη εμπιστοσύνης αντανακλάται και στις ίδιες τις εταιρείες που το κατασκευάζουν. Η ίδια ανάλυση ανέφερε ότι πριν από μια δεκαετία, η εμπιστοσύνη στις τεχνολογικές εταιρείες βρισκόταν στο 73%. Φέτος, έπεσε στο 63%.

«Αυτή η μετατόπιση αντικατοπτρίζει την αυξανόμενη αντίληψη ότι η τεχνολογία δεν είναι πλέον μόνο εργαλείο προόδου· είναι και πηγή ανησυχίας», σημείωνε η έκθεση.

Προοπτικές

Σε επιστημονικό άρθρο του 2024 που δημοσιεύτηκε στα Proceedings of the National Academy of Sciences, ερευνητές κατέληξαν ότι υπάρχει «επιτακτική ανάγκη» για ηθικές κατευθυντήριες γραμμές στην ανάπτυξη και χρήση προηγμένων συστημάτων ΤΝ.

Οι συγγραφείς τόνισαν ότι ο ισχυρός έλεγχος των LLMs και των στόχων τους είναι «καθοριστικός».

«Αν τα LLMs μάθουν πώς να εξαπατούν τους ανθρώπινους χρήστες, θα αποκτήσουν στρατηγικά πλεονεκτήματα έναντι περιορισμένων μοντέλων και θα μπορούσαν να παρακάμψουν τις προσπάθειες παρακολούθησης και αξιολόγησης ασφαλείας», προειδοποίησαν.

«Η τεχνητή νοημοσύνη μαθαίνει και απορροφά ανθρώπινες κοινωνικές στρατηγικές λόγω των δεδομένων που χρησιμοποιούνται για την εκπαίδευσή της, τα οποία περιέχουν όλες τις αντιφάσεις και τις προκαταλήψεις μας», δήλωσε ο Μαρτσέλο Λαμπρέ, ερευνητής στο Advanced Institute for Artificial Intelligence και εταίρος στην Advantary Capital Partners, στην Epoch Times.

Ο Λαμπρέ πιστεύει ότι η ανθρωπότητα βρίσκεται σε κρίσιμο σταυροδρόμι με την τεχνολογία ΤΝ.

«Η συζήτηση αφορά πραγματικά το αν, ως κοινωνία, θέλουμε μια καθαρή, αξιόπιστη και προβλέψιμη μηχανή ή ένα νέο είδος νοημοσύνης που μοιάζει όλο και περισσότερο με εμάς. Ο δεύτερος δρόμος επικρατεί στην κούρσα προς την ΓΤΝ [γενική τεχνητή νοημοσύνη/AGI],» είπε.

Η ΓΤΝ αναφέρεται σε μια θεωρητική μελλοντική εκδοχή της ΤΝ που θα ξεπερνά τη νοημοσύνη και τις γνωστικές ικανότητες του ανθρώπου. Προγραμματιστές και ερευνητές λένε ότι η ΓΤΝ είναι «αναπόφευκτη» λόγω της ταχείας ανάπτυξης σε πολλούς τομείς. Προβλέπουν την άφιξή της μεταξύ 2030 και 2040.

«Το σημερινό παράδειγμα ΤΝ βασίζεται σε μια αρχιτεκτονική γνωστή ως Transformer, που παρουσιάστηκε σε μια καθοριστική μελέτη της Google το 2017», ανέφερε ο Λαμπρέ.

Η Σόφι, ένα ρομπότ που χρησιμοποιεί τεχνητή νοημοσύνη από τη Hanson Robotics στην Παγκόσμια Σύνοδο AI for Good της Διεθνούς Ένωσης Τηλεπικοινωνιών (ITU). Γενεύη, 8 Ιουλίου 2025. (Valentin Flauraud/AFP μέσω Getty Images)

 

Ο Transformer είναι ένας τύπος αρχιτεκτονικής βαθιάς μάθησης που αποτέλεσε το θεμέλιο για τα σύγχρονα συστήματα ΤΝ. Παρουσιάστηκε στο ερευνητικό άρθρο του 2017 με τίτλο «Attention Is All You Need».

Ως αποτέλεσμα, τα σημερινά μοντέλα ΤΝ είναι τα πιο ισχυρά συστήματα αναγνώρισης προτύπων και επεξεργασίας ακολουθιών που δημιουργήθηκαν ποτέ, με δυνατότητες κλιμάκωσης. Ωστόσο, εξακολουθούν να φέρουν τα χαρακτηριστικά των μεγαλύτερων ανθρώπινων αδυναμιών.

«Αυτά τα μοντέλα εκπαιδεύονται σε μια ψηφιακή αντανάκλαση της ανθρώπινης εμπειρίας, που περιέχει την ειλικρίνειά μας και την αλήθεια μας δίπλα στην εξαπάτηση, τον κυνισμό και το ίδιον όφελος. Με μεγάλη δεξιότητα στην αναγνώριση προτύπων, μαθαίνουν ότι οι στρατηγικές εξαπάτησης μπορεί να είναι ένας αποτελεσματικός τρόπος βελτιστοποίησης των αποτελεσμάτων τους, και έτσι αντιγράφουν ό,τι βλέπουν στα δεδομένα», είπε ο Λαμπρέ. «Δεν είναι προγραμματισμένο· απλώς μαθαίνουν να συμπεριφέρονται σαν τους ανθρώπους».

Κατά τον Γιόζεφ, το συμπέρασμα από τις πρόσφατες συμπεριφορές της τεχνητής νοημοσύνης είναι σαφές.

«Πρώτον, ένα ισχυρό σύστημα θα εκμεταλλευτεί κενά στους στόχους του, αυτό που ονομάζουμε «εκμετάλλευση προδιαγραφών» (specification gaming). Αυτό απαιτεί προσεκτικό σχεδιασμό στόχων. Δεύτερον, πρέπει να υποθέτουμε ότι τα συστήματά μας θα ενεργούν με απρόβλεπτους τρόπους και άρα η ασφάλειά τους εξαρτάται σε μεγάλο βαθμό από τη δύναμη των προστατευτικών μηχανισμών που θέτουμε».

Της Autumn Spredemann

Χώμα και χαρτόνι μπορεί να αντικαταστήσουν το τσιμέντο, εξοικονομώντας χρήματα και μειώνοντας τις εκπομπές άνθρακα

Η χρήση χώματος στις κατασκευές δεν είναι καινούργια. Κατασκευές που χρονολογούνται πριν από 10.000 χρόνια στη Μεσοποταμία και την Εγγύς Ανατολή δημιουργήθηκαν με τεχνικές όπως το ωμόπλινθο (αποξηραμένα στον ήλιο τούβλα) και το πατημένο χώμα, μεταξύ αυτών και το Σινικό Τείχος.

Ωστόσο, στις περισσότερες σύγχρονες χρήσεις θεωρείται μη πρακτικό: είναι ευάλωτο σε φθορές από το νερό, απαιτεί υψηλή συντήρηση, παρουσιάζει χαμηλή αντοχή και υψηλά ποσοστά συρρίκνωσης/διόγκωσης που προκαλούν ρωγμές με τις καιρικές αλλαγές.

Μηχανικοί στην Αυστραλία συνδύασαν το χώμα με χαρτόνι και νερό και παρήγαγαν ένα νέο υλικό με δυνατότητες να επαναστατήσει στην κατασκευή χαμηλών κτιρίων σε όλο τον κόσμο. Το χαρτόνι είχε χρησιμοποιηθεί στο παρελθόν σε προσωρινές δομές και καταφύγια κρίσεων, όπως ο εμβληματικός «Καθεδρικός ναός από Χαρτόνι» του Σίγκερου Μπαν στο Κράιστσερτς της Νέας Ζηλανδίας.

Εμπνευσμένη από τέτοια σχέδια, η ομάδα του Πανεπιστημίου RMIT συνδύασε για πρώτη φορά την ανθεκτικότητα του πατημένου χώματος με την ευελιξία του χαρτονιού. Παρουσίασαν το υλικό με άρθρο στο περιοδικό Structures και, σύμφωνα με τον επικεφαλής συγγραφέα Τζιαμίνγκ Μα, πρόκειται για σημαντική πρόοδο προς μια πιο βιώσιμη κατασκευαστική βιομηχανία.

Το νέο υλικό, που ονομάστηκε «πατημένο χώμα περιορισμένο με χαρτόνι» (cardboard-confined rammed earth), είναι ιδανικό για θερμά κλίματα όπως της Αυστραλίας χάρη στη φυσική του ικανότητα ρύθμισης της θερμοκρασίας, ενώ ταιριάζει για κατασκευές σε απομακρυσμένες περιοχές όπου υπάρχουν εδαφικές εκτάσεις με κοκκινόχωμα.

Ο Μα εξήγησε ότι στη σύγχρονη τεχνική του πατημένου χώματος προστίθεται τσιμέντο για αντοχή, κάτι που θεωρείται υπερβολικό δεδομένου του πάχους των τοίχων. Το νέο υλικό που ανέπτυξαν στο RMIT καταργεί την ανάγκη για τσιμέντο. «Με απλό χαρτόνι, χώμα και νερό μπορούμε να φτιάξουμε τοίχους αρκετά στιβαρούς ώστε να στηρίξουν χαμηλά κτίρια», ανέφερε.

Τόνισε ότι η καινοτομία αυτή θα μπορούσε να φέρει επανάσταση στον σχεδιασμό και την κατασκευή, χρησιμοποιώντας τοπικά υλικά που ανακυκλώνονται πιο εύκολα, αντικατοπτρίζοντας την παγκόσμια αναβίωση της γαιοκατασκευής στο πλαίσιο των στόχων μηδενικών εκπομπών.

Το νέο υλικό έχει αποτύπωμα άνθρακα περίπου 75% χαμηλότερο από το τσιμέντο και κοστίζει περίπου το ένα τρίτο, ενώ είναι επαναχρησιμοποιήσιμο και ανακυκλώσιμο, μειώνοντας τα απόβλητα που καταλήγουν σε χώρους υγειονομικής ταφής. Μόνο στην Αυστραλία, πάνω από 2,2 εκατομμύρια τόνοι χαρτονιού και χαρτιού θάβονται κάθε χρόνο, ενώ η παραγωγή τσιμέντου και μπετόν ευθύνεται για περίπου το 8% των παγκόσμιων εκπομπών.

Το υλικό μπορεί να παραχθεί επιτόπου, συμπιέζοντας το μείγμα χώματος και νερού μέσα σε καλούπια χαρτονιού, είτε χειροκίνητα είτε με μηχανήματα. Αυτό μειώνει σημαντικά το κόστος μεταφοράς και την ανάγκη για φορτηγά γεμάτα τούβλα ή μπετονιέρες που διανύουν αποστάσεις από κεντρικούς προμηθευτές προς απομακρυσμένες κοινότητες.

Η αντοχή του υλικού προσαρμόζεται απλά μεταβάλλοντας το πάχος του σωλήνα χαρτονιού. Ο συν-συγγραφέας της μελέτης, και κορυφαίος ειδικός στη βελτιστοποίηση δομών, Γι Μιν «Μάικ» Σιέ, σημείωσε ότι η πρόοδος αυτή μπορεί να οδηγήσει σε πιο «ελαφριές» και οικολογικές κατασκευές. «Αντί να μεταφέρονται τόνοι από τούβλα, χάλυβα και μπετόν, οι κατασκευαστές θα χρειάζονται μόνο ελαφρύ χαρτόνι, αφού σχεδόν όλα τα υπόλοιπα υλικά βρίσκονται ήδη στον τόπο», εξήγησε.

Ο Μα πρόσθεσε ότι το υλικό θα μπορούσε να αποτελέσει λύση για κατασκευές σε απομακρυσμένες περιοχές της Αυστραλίας, όπου τα εδάφη είναι ιδανικά για γαιοκατασκευές. Οι τοίχοι από πατημένο χώμα είναι κατάλληλοι για θερμά κλίματα, καθώς η υψηλή θερμική τους μάζα ρυθμίζει φυσικά τη θερμοκρασία και την υγρασία στο εσωτερικό, μειώνοντας την ανάγκη για τεχνητή ψύξη και περιορίζοντας τις εκπομπές άνθρακα.

Η μηχανική αντοχή του νέου υλικού εξαρτάται από το πάχος των σωλήνων χαρτονιού, με την ομάδα να έχει αναπτύξει ειδικό τύπο για να υπολογίζει το απαιτούμενο πάχος σε κάθε εφαρμογή. Σε ξεχωριστή μελέτη, ο Μα συνδύασε το πατημένο χώμα με ανθρακονήματα, αποδεικνύοντας ότι είχε αντοχή συγκρίσιμη με υψηλών επιδόσεων σκυρόδεμα.

Η ερευνητική ομάδα δηλώνει έτοιμη να συνεργαστεί με διάφορες βιομηχανίες για την περαιτέρω ανάπτυξη του νέου υλικού ώστε να μπορέσει να εφαρμοστεί ευρέως.

Βρετανία: Γονείς κάνουν συλλογικές συμφωνίες για να αποτρέψουν τη χρήση κινητών τηλεφώνων από τα παιδιά

Στο Ηνωμένο Βασίλειο, όλο και περισσότεροι γονείς αναλαμβάνουν πρωτοβουλία απέναντι στη χρήση κινητών τηλεφώνων από παιδιά, προχωρώντας σε συλλογική δεσμεύση να μην αγοράσουν κινητά τηλέφωνα για τα παιδιά τους μέχρι μία συγκεκριμένη ηλικία.

Πολλοί γονείς δηλώνουν ότι αισθάνονται σαν την πρώτη γενιά που αναγκάζεται να αντιμετωπίσει αυτό το πρόβλημα. Αν και τα μικρότερα παιδιά μπορούν να πειστούν σχετικά εύκολα να περιμένουν, η πραγματική πίεση αρχίζει γύρω στα 10–11 έτη, όταν η επιρροή των συνομηλίκων καθιστά την αντίσταση πολύ δυσκολότερη.

Σύμφωνα με την Ofcom, εννέα στα δέκα παιδιά διαθέτουν κινητό τηλέφωνο μέχρι την ηλικία των 11.

Με τη συλλογική δέσμευση να μην αγοράσουν κινητά τηλέφωνα για τα παιδιά, οι γονείς επιδιώκουν να αφαιρέσουν από τα παιδιά το επιχείρημα ότι «όλοι οι άλλοι έχουν» και να μειώσουν την κοινωνική πίεση.

Το νομοσχέδιο για την Ασφάλεια στο Διαδίκτυο, που ψηφίστηκε το 2023 και τίθεται σε πλήρη ισχύ το 2025, απαιτεί από τις πλατφόρμες και τις εφαρμογές να προστατεύουν τα παιδιά από επιβλαβές περιεχόμενο, χρησιμοποιώντας τεχνολογίες επαλήθευσης ηλικίας για να εμποδίζουν την πρόσβαση σε πορνογραφικό, παράνομο υλικό και περιεχόμενο που ενθαρρύνει την αυτοκτονία και άλλες αυτοκαταστροφικές πράξεις.

Τα δίκτυα γονέων

Ο Γουίλ Ορ-Γιούινγκ, πατέρας και ιδρυτής της Keystone Tutors, κινείται νομικά εναντίον των κυβερνητικών οδηγιών στο πλαίσιο εκστρατείας για την απαγόρευση των κινητών τηλεφώνων στα σχολεία.

Υποστηρίζει κινήσεις που προέρχονται από τον κόσμο, όπως η πρωτοβουλία Smartphone-Free Childhood, που ξεκίνησε φέτος από δύο μητέρες, την Κλαιρ Φέρνυχο και τη Νταίηζυ Γκρήνγουελ. Πρόκειται για ταχέως αναπτυσσόμενο δίκτυο γονέων που οργανώνεται μέσω υποομάδων WhatsApp, ανταλλάσσοντας άρθρα, έρευνες και υπογράφοντας συλλογικά να μην δώσουν κινητά τηλέφωνα στα παιδιά τους πριν τα 14.

Η Γκρήνγουελ είχε δηλώσει ότι μια εναλλακτική λύση είναι τα παλαιού τύπου κινητά τηλέφωνα, που επιτρέπουν μόνο κλήσεις και μηνύματα. Υποστήριξε ότι η πίεση από τους συνομηλίκους εξαφανίζεται όταν ένα παιδί γνωρίζει ότι αρκετοί συμμαθητές του έχουν επίσης παλαιού τύπου κινητό και όχι ένα σύγχρονο.

Ο Ορ-Γιούινγκ εξήγησε ότι το εγχείρημα μεγάλωσε με εντυπωσιακό ρυθμό: μέσα σε δύο ημέρες εντάχθηκαν 2.000 γονείς και σήμερα ξεπερνούν τους 300.000. Όπως είπε, αυτό αντανακλά το ένστικτο προστασίας των γονιών. Παρά τις διαφορετικές απόψεις και κίνητρα, υπάρχει ένας κοινός πυρήνας ανησυχίας γύρω από το πώς είναι να είσαι γονέας σήμερα.

Ο Ορ-Γιούινγκ έχει συνεργαστεί με σχολεία για να αναδείξει τους κινδύνους της παρουσίας κινητών τηλεφώνων εντός των εγκαταστάσεων. Τόνισε ότι, ενώ οι γονείς μπορούν να περιορίσουν τη χρήση στο σπίτι, είναι δύσκολο να ελεγχθεί στο σχολικό περιβάλλον. Σε χώρους χωρίς επίβλεψη, όπως τα γήπεδα και οι τουαλέτες, τα παιδιά έχουν ελεύθερη πρόσβαση.

Κατά την εμπειρία γονέων, τα παιδιά εκτίθενται σε βίαια βίντεο ή πορνογραφικό υλικό ακόμη και από την πρώτη ημέρα στη δευτεροβάθμια εκπαίδευση, ενώ μόνο το 10% των σχολείων εφαρμόζει αυστηρή πολιτική απαγόρευσης κινητών.

«Είμαστε η πρώτη γενιά»

Η Λίνζι Μήντεν, μητέρα και υπεύθυνη του δικτύου Smartphone-Free Childhood στο Κεντ, δήλωσε ότι ποτέ δεν άφησε τα δίδυμα παιδιά της, που φοιτούν στο δημοτικό, να έχουν ελεύθερη πρόσβαση σε συσκευές στο σπίτι. Τόνισε ότι οι σημερινοί γονείς είναι η πρώτη γενιά που καλείται να διαχειριστεί αυτό το φαινόμενο.

Παραδέχτηκε ότι είναι δύσκολο να πειστούν κάποιοι γονείς, αλλά μόλις δουν τα στατιστικά στοιχεία και ακούσουν πραγματικές ιστορίες, συχνά αλλάζουν γνώμη και υπογράφουν το σύμφωνο. Ως θεραπεύτρια ψυχικού τραύματος, η ίδια και ο σύζυγός της βλέπουν καθημερινά νεαρούς ενήλικες να παλεύουν με την εθιστική χρήση των κινητών και υψηλά επίπεδα άγχους. Κατά την άποψή της, τα κινητά τηλέφωνα σχεδιάστηκαν για ενήλικες και τα μέσα κοινωνικής δικτύωσης δεν είναι για παιδιά.

Η Λούσυ Μαρς, του Family Education Trust, υπογράμμισε ότι οι γονείς πρέπει να αναλάβουν την ευθύνη για τη χρήση του κινητού από τα παιδιά και να συνεργαστούν ώστε αυτά να μπορούν να επικοινωνούν μεταξύ τους χωρίς να χρειάζονται σύγχρονα κινητά τηλέφωνα. Πρότεινε ως λύση τη χρήση τα παλαιού τύπου τηλέφωνα ή ακόμη και την επιστροφή στα σταθερά τηλέφωνα.

Παρατήρησε επίσης ότι οι πάροχοι μπορούν να διαθέσουν ασφαλή τηλέφωνα για παιδιά, χωρίς πρόσβαση σε μέσα κοινωνικής δικτύωσης. Παράλληλα, όμως, οι γονείς πρέπει να δίνουν το παράδειγμα, αποφεύγοντας και οι ίδιοι να περνάνε ώρες μπροστά σε μία οθόνη.

Αλλαγές στη συμπεριφορά

Η Ζωή Ουίλλις, μια Καθολική διαδικτυακή αρθρογράφος για την κατ’ οίκον εκπαίδευση και μητέρα πέντε παιδιών, ανέφερε ότι βλέπει τα κινητά τηλέφωνα να αλλάζουν τη δυναμική της παιδικής παρέας. Όπως είπε, όταν εισάγεται ένα κινητό ή μια κονσόλα, η διασκέδαση μειώνεται και αρχίζουν οι καβγάδες.

Οι καθολικές ομάδες κατ’ οίκον εκπαίδευσης, πρόσθεσε, έχουν μεγαλύτερη επαγρύπνηση απέναντι στους κινδύνους. Επεσήμανε μάλιστα την περίπτωση μιας οικογένειας που περιόρισε δραστικά την κόρη της όταν παρατήρησε σοβαρά προβλήματα, δηλώνοντας χαρακτηριστικά ότι «πήραν πίσω το παιδί τους».

Η Ουίλλις ακολουθεί ένα καθολικό πρόγραμμα κατ’ οίκον εκπαίδευσης με την ονομασία Mother of Divine Grace, που δημιουργήθηκε από τη Λώρα Μπέργκουιστ, η οποία προσέγγισε την κατ’ οίκον διδασκαλία με πολιτισμικούς όρους.

Η ίδια ανέφερε ότι η Μπέργγκουιστ είχε πει κάτι πολύ δυνατό, το οποίο ήταν ένας από τους λόγους που την έπεισαν να ακολουθήσει αυτό το πρόγραμμα για τα παιδιά της. Συγκεκριμένα, τόνισε ότι η οικοδιδασκαλία είναι τα νέα μοναστήρια.

Σύμφωνα με την Ουίλλις, η Μπέργκουιστ υποστήριξε ότι παρότι όλα γύρω μοιάζουν να καταρρέουν, οι οικοδιδάσκαλοι θα λειτουργήσουν σαν τα μοναστήρια, ως μικρές εστίες εκπαίδευσης και Χριστιανισμού.

Η Κιμ Ίσεργουντ, από την οργάνωση Public Child Protection Wales, προειδοποίησε ότι πολλοί γονείς δεν αντιλαμβάνονται πλήρως τους κινδύνους των κινητών. Αναφέρθηκε σε περιπτώσεις ανηλίκων που εξαπατήθηκαν από παιδόφιλους στο διαδίκτυο, επιμένοντας ότι η καλύτερη προστασία είναι η αποχή των παιδιών από το διαδίκτυο.

Τεχνολογικά «βαριά» σχολεία

Η Νίκολα Μπέρκινσοου, εκπαιδευτικός και μητέρα, ανέφερε ότι η ίδια και ο σύζυγός της έθεσαν κανόνες για τη χρήση κινητών στον 11χρονο γιο τους, ο οποίος βρίσκεται στο φάσμα του αυτισμού.

Επεσήμανε ότι υπάρχει μια σχολική ομάδα γονέων στο WhatsApp που προσπαθούν να ακολουθήσουν αυτή την τακτική, ωστόσο στην τάξη του γιου της γνωρίζει μόνο έναν ακόμη γονέα που το εφαρμόζει συστηματικά. Πρόσθεσε ότι ένα από τα προβλήματα είναι πως το σχολείο είναι υπερβολικά «τεχνοκεντρικό». Τόνισε ότι ο γιος της αγαπάει το διάβασμα, το οποίο λειτουργεί για εκείνον ως τρόπος χαλάρωσης.

Ο ίδιος χρησιμοποιεί ένα απλό κινητό με αναδιπλούμενο σχεδιασμό, αντί για σύγχρονο τηλέφωνο. Αυτό, όπως εξήγησε, σημαίνει ότι στο λεωφορείο κοιτάζει έξω από το παράθυρο, κάτι πολύ σημαντικό για εκείνον, δεδομένου ότι το σχολείο είναι απαιτητικό και αγχωτικό· έτσι έχει την ευκαιρία να «κλείνει» το μυαλό του. Εάν, αντίθετα, περνούσε την ώρα του στα μέσα κοινωνικής δικτύωσης ή κάνοντας εργασίες στο τηλέφωνο, θα έχανε αυτή τη δυνατότητα.

Η Μπέρκινσοου παραδέχτηκε ότι η κατάσταση είναι δυσκολότερη με τα κορίτσια, καθώς η κοινωνική πίεση του αποκλεισμού είναι εντονότερη. Είπε ότι, σε μια τέτοια περίπτωση, θα επικοινωνούσε οπωσδήποτε με τους γονείς των φίλων της κόρης της για να αναζητήσουν από κοινού μια λύση.

Ένας πατέρας, που θέλησε να παραμείνει ανώνυμος, ανέφερε ότι η 9χρονη κόρη του ζητάει κινητό τηλέφωνο επειδή έχουν οι φίλες της. Ο ίδιος προσπαθεί να την προστατεύσει, λέγοντας ότι θέλει να παραμείνει παιδί όσο το δυνατόν περισσότερο, χωρίς να εκτίθεται σε ειδήσεις όπως η πρόσφατη δολοφονία του Τσάρλι Κερκ, που κυκλοφόρησε ευρέως στα μέσα κοινωνικής δικτύωσης.

Όπως είπε, τέτοιες πληροφορίες δεν έχουν καμία σχέση με τη ζωή της κόρης του σε αυτή την ηλικία και δεν είναι εύκολο να καθοριστεί ένα κατάλληλο και ασφαλές πλαίσιο [σε αυτό το μέσο].

Του Owen Evans

Drones, τεχνητή νοημοσύνη και δορυφόροι στο επίκεντρο της ευρωπαϊκής αμυντικής έκθεσης

Τον Ιούνιο, τα κράτη μέλη του ΝΑΤΟ συμφώνησαν να αυξήσουν τις αμυντικές δαπάνες στο 5% του ΑΕΠ έως το 2035. Τα κονδύλια αρχίζουν ήδη να διοχετεύονται στην αγορά, δημιουργώντας αυξημένες παραγγελίες για εταιρείες που καλούνται να καλύψουν τις ανάγκες άμυνας έναντι απειλών από τη Ρωσία, την Κίνα, το Ιράν και άλλα εχθρικά κράτη.

Η Διετής Έκθεση Αμυντικού και Ασφαλιστικού Εξοπλισμού (DSEI) πραγματοποιήθηκε από 9 έως 12 Σεπτεμβρίου στο τεράστιο Excel Center στα Docklands του Λονδίνου και ήταν αισθητά μεγαλύτερη σε έκταση από την περσινή. Αν και δεν έλειψαν τα άρματα μάχης, τα πυροβόλα και τα πολεμικά σκάφη, το ενδιαφέρον επικεντρώθηκε στην τεχνητή νοημοσύνη, τα drones και τις δυνατότητες των στρατιωτικών δορυφόρων.

Σχολιάζοντας τα επιπλέον κονδύλια του ΝΑΤΟ, ο Γκρέιαμ Ράουτλετζ, επικεφαλής μάρκετινγκ προϊόντων της Hadean —εταιρείας που κατασκευάζει προσομοιωτές πεδίου μάχης— δήλωσε στην Epoch Times: «Δεν πρόκειται για ξαφνικό χρυσωρυχείο, αλλά αυτό που διακρίνει κανείς είναι ο ενθουσιασμός και η όρεξη των αμυντικών οργανισμών και των επιχειρήσεων του κλάδου». Η Hadean ξεκίνησε από τον χώρο του gaming πριν στραφεί στην αμυντική τεχνολογία και πλέον προμηθεύει το βρετανικό Υπουργείο Άμυνας, τις ΗΠΑ και άλλα κράτη του ΝΑΤΟ.

Το εκθεσιακό περίπτερο της αμυντικής εταιρείας MARSS στην έκθεση DSEI στο Excel του Λονδίνου στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Σε ένα όλο και πιο ασταθές και πολωμένο περιβάλλον, τα εξαρτήματα από την Κίνα, τη Ρωσία και άλλες χώρες αντιμετωπίζονται πλέον ως σοβαρά ρίσκα και οι ευρωπαϊκές εταιρείες εντείνουν τα μέτρα προστασίας τους. «Η κυριαρχία επί της εφοδιαστικής αλυσίδας είναι κομβικής σημασίας και πρέπει να γνωρίζεις ακριβώς τι ενσωματώνεται στο προϊόν σου», ανέφερε χαρακτηριστικά ο Ράουτλετζ.

Στην DSEI του 2023, ο Γιούρι Σινφελντ, επικεφαλής μάρκετινγκ της Israel Aerospace Industries, είχε δηλώσει πως οι δυτικές κυβερνήσεις δίσταζαν στη χρήση αυτόνομων οπλικών συστημάτων και τεχνητής νοημοσύνης, παρά τη διαθεσιμότητα της τεχνολογίας. Φέτος όμως, υπογράμμισε: «Αν το 2023 υπήρχε διστακτικότητα στη χρήση της τεχνητής νοημοσύνης, πλέον αυτή έχει οριστικά ξεπεραστεί, με αυτόνομα οχήματα αέρα, ξηράς και θάλασσας να βρίσκονται στο επίκεντρο της έκθεσης του 2025».

Ο Ρος Τόμσον, διευθυντής μάρκετινγκ στη MARSS, εταιρεία λύσεων ασφαλείας με έδρα το Μονακό, παρουσίασε στην Epoch Times την τελευταία αυτόνομη σουίτα διαχείρισης αποστολών που βασίζεται σε τεχνητή νοημοσύνη για το σύστημα NIDAR.

Η νέα τεχνολογία επιτρέπει σε drone ή αυτόνομο όχημα εδάφους της Milrem Robotics (Εσθονία) να ανταποκρίνεται άμεσα σε απειλές. Όπως τόνισε ο Τόμσον, «καμία από τις αντιδραστικές ενέργειες του NIDAR δεν ενεργοποιείται χωρίς ανθρώπινη επιτήρηση».

Εξέφρασε μάλιστα την ανησυχία του για την απόσταση που δημιουργεί ο απομακρυσμένος χειρισμός στη σύγχρονη μάχη, λέγοντας: «Ένα από τα πιο ανησυχητικά φαινόμενα είναι πως ο πόλεμος έχει μετατραπεί σε παιχνίδι. Υπάρχουν απειλές ανεξάρτητες από τον ανθρώπινο παράγοντα. Οι συναισθηματικές συνέπειες αμβλύνονται».

Σε αντίθεση με το 2023, όλες οι καινοτόμες τεχνολογικές εταιρείες είχαν φέτος συγκεντρωθεί στη λεγόμενη «τεχνολογική ζώνη», την οποία ο Τόμσον χαρακτήρισε «μεγάλη αποθήκη για τους λάτρεις της τεχνολογίας». Τόσο η τεχνητή νοημοσύνη όσο και οι πιο προηγμένες τεχνολογίες έχουν πλέον ενσωματωθεί σε πλειάδα προϊόντων, από πλοία και αεροσκάφη μέχρι άρματα και όπλα.

Ένας υπεύθυνος προϊόντων της Thales UK, ο οποίος για λόγους ασφαλείας μπορεί να αναφέρεται μόνο ως Tim, παρουσιάζει τη συσκευή παρεμβολής drone Storm 2 στο DSEI στο κέντρο ExCel στο Λονδίνο στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Η παραβίαση της πολωνικής επικράτειας από ρωσικό drone στις 9 Σεπτεμβρίου έδωσε την τέλεια αφορμή σε εκθέτες να παρουσιάσουν λύσεις αντιμετώπισης απειλών από μη επανδρωμένα εναέρια οχήματα. Η Thales UK —βρετανικό παράρτημα της γαλλικής Thales— ανέπτυξε το νέο Storm 2, που παρουσιάστηκε στην Epoch Times στις 11 Σεπτεμβρίου.

Ο υπεύθυνος προϊόντος της εταιρείας, Τιμ (ο οποίος δεν ανέφερε το επίθετό του για λόγους ασφαλείας), εξήγησε πως «η συσκευή, περίπου στο μέγεθος παλιού walkie-talkie, δημιουργεί ένα ηλεκτρομαγνητικό πεδίο που μπλοκάρει τα σήματα, προστατεύοντας έτσι μεμονωμένους στρατιώτες από επιθέσεις drones».

Ο χώρος του διαστήματος εισέρχεται επίσης ολοένα και πιο δυναμικά στους αμυντικούς σχεδιασμούς. Η ICEYE, φινλανδική εταιρεία μικροδορυφόρων, αποκάλυψε στις 10 Σεπτεμβρίου ένα διαστημικό κέντρο τακτικής πληροφόρησης, παρακολούθησης και αναγνώρισης, ήδη δοκιμασμένο σε ασκήσεις του ΝΑΤΟ.

Δύο αξιωματικοί του βρετανικού στρατού περνούν μπροστά από μια έκθεση στην Tech Zone της έκθεσης DSEI στο Excel του Λονδίνου στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Η Σέα Στρονγκ, αντιπρόεδρος αναλυτικής στρατηγικής της ICEYE, τόνισε: «Είναι το πρώτο του είδους του, δεν υπάρχει κάτι αντίστοιχο αλλού». Η εταιρεία εκτοξεύει φέτος 20 δορυφόρους και σχεδιάζει τουλάχιστον άλλους τόσους το 2026.

Ο Γιοστέλστακ, αντιπρόεδρος αποστολών της ICEYE, πρόσθεσε: «Έχουμε παρουσία στην Ουκρανία από το 2022, γεγονός που επιτάχυνε σημαντικά την εξέλιξή μας — η εμπειρία εκεί μας βοήθησε να βελτιώσουμε το προϊόν».

Ανάμεσα στους εκθέτες ήταν και η Amazon, με το Project Kuiper, το δίκτυο χαμηλών τροχιακών δορυφόρων που φιλοδοξεί να ανταγωνιστεί το Starlink στον τομέα των στρατιωτικών επικοινωνιών.

Ο πόλεμος έχει αλλάξει εντυπωσιακά τα τελευταία 50 χρόνια. Οι εποχές που οι βασικές δαπάνες των ενόπλων δυνάμεων αφορούσαν άρματα και πυροβόλα ανήκουν στο παρελθόν. Δορυφόροι, τεχνητή νοημοσύνη και drones κοστίζουν τεράστια ποσά.

Μια ματιά σε ένα από τα δωμάτια ελέγχου δορυφόρων πληροφοριών, επιτήρησης και αναγνώρισης (ISR) της ICEYE, όπως εκτέθηκε στο DSEI στο Λονδίνο στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Τους τελευταίους εννέα μήνες, πολιτικοί σε όλη την Ευρώπη και πέρα από αυτή έχουν υιοθετήσει το δόγμα του Αμερικανού προέδρου Ντόναλντ Τραμπ για αύξηση των αμυντικών δαπανών. Τον Φεβρουάριο, ο Βρετανός πρωθυπουργός Κιρ Στάρμερ ανακοίνωσε πως η χώρα σκοπεύει να διαθέσει το 2,5% του ΑΕΠ στην άμυνα έως το 2027· όμως, τον Ιούνιο προχώρησε ένα βήμα πιο πέρα και υπέγραψε τη Διακήρυξη της Χάγης μαζί με άλλους ηγέτες του ΝΑΤΟ, δεσμευόμενος για επένδυση 5% του ΑΕΠ ετησίως τόσο στις βασικές ανάγκες άμυνας όσο και σε τομείς σχετικούς με την ασφάλεια μέχρι το 2035.

Ο Άντι Σταρτ, εθνικός διευθυντής οπλισμού στο Υπουργείο Άμυνας, δήλωσε στην κεντρική συζήτηση της DSEI τη 10η Σεπτεμβρίου: «Μέχρι το 2035, θα δαπανούμε πάνω από 100 δισ. λίρες, από 60 δισ. φέτος». Παράλληλα, η Βρετανία στοχεύει να διπλασιάσει τις εξαγωγές της αμυντικής βιομηχανίας, από 19 σε 38 δισ. δολάρια έως το 2035.

Όσα ακολούθησαν μετά τη ρωσική εισβολή στην Ουκρανία τον Φεβρουάριο του 2022 δείχνουν τα αποτελέσματα της ανεξέλεγκτης ακρότητας και ευκαιριακών επιλογών. Περισσότερες από 600 βρετανικές εταιρείες, ανάμεσά τους κολοσσοί όπως οι BAE Systems, Babcock και Kinetic, πήραν μέρος στην DSEI.

Παρούσες και 215 αμερικανικές επιχειρήσεις, όπως οι General Dynamics, Northrop Grumman και SIG Sauer, η τελευταία διεκδικώντας το «χρυσό» συμβόλαιο αντικατάστασης του τυφεκίου SA-80 του βρετανικού στρατού.

Εκπροσώπηση υπήρξε και από πλήθος άλλες χώρες —Πακιστάν, Σαουδική Αραβία, Ταϊβάν, Ισραήλ—, με την παρουσία της ισραηλινής αποστολής να προκαλεί διαμαρτυρία έξω από το εκθεσιακό κέντρο στις 9 Σεπτεμβρίου.

Εκπρόσωπος του δημάρχου Λονδίνου Σαντίκ Καν δήλωσε στην Epoch Times με ηλεκτρονικό μήνυμα: «Ο δήμαρχος αντιτίθεται απόλυτα στη διεξαγωγή αυτής της εκδήλωσης στο Λονδίνο και φρίττει με τη χρήση της πρωτεύουσας ως αγοράς όπλων».

People walk past Amazon’s Project Kuiper—a constellation of Low Earth Orbit (LEO) satellites—display stand at the DSEI exhibition at Excel in London on Sept. 10, 2025. Chris Summers/The Epoch Times

 

Σύμφωνα με τη δήλωση, ο Καν έχει ήδη απευθύνει επιστολή στους διοργανωτές αλλά και στην Accel, υπενθυμίζοντας πως «το Λονδίνο είναι καταφύγιο για χιλιάδες ανθρώπους που έχουν διαφύγει συγκρούσεων και υποφέρουν από όπλα σαν κι αυτά που εκτίθενται εδώ»· παραμένει σταθερός στην έκκλησή του να μην ξαναγίνει ανάλογη έκθεση στην πόλη.

Σε διαφορετική γραμμή κινείται η βρετανική κυβέρνηση. «Ζούμε σε αβέβαιους καιρούς, ας αφηγηθούμε την ιστορία μας καλύτερα και ας ξοδέψουμε τα χρήματά μας πιο αποδοτικά», δήλωσε ο υφυπουργός Προμηθειών Άμυνας Λουκ Πόλαρντ στην κεντρική ομιλία της DSEI.

Ο Πόλαρντ εξέφρασε την ευχή η Βρετανία και οι εταίροι της στο ΝΑΤΟ να αξιοποιήσουν με σύνεση τους αμυντικούς προϋπολογισμούς για να εξοπλίσουν αποτελεσματικά τις ένοπλες δυνάμεις. «Αν το κάνουμε αυτό», τόνισε, «θα αποτρέψουμε τον επιτιθέμενο».

Τα πρώτα εμφυτεύματα Neuralink σε ασθενείς στον Καναδά

Δύο ασθενείς στο Τορόντο είναι οι πρώτοι Καναδοί που έλαβαν το εγκεφαλικό εμφύτευμα της Neuralink, της αμερικανικής εταιρείας νευροτεχνολογίας που ίδρυσε ο Έλον Μασκ.

Οι επεμβάσεις πραγματοποιήθηκαν στις 27 Αυγούστου και 3 Σεπτεμβρίου στο Νοσοκομείο Western του Τορόντο, το οποίο έγινε το πρώτο στον Καναδά που προχώρησε επιτυχώς σε εμφύτευση του ασύρματου διεπαφής εγκεφάλου-υπολογιστή, σύμφωνα με ανακοίνωση του Πανεπιστημιακού Υγειονομικού Δικτύου (UHN).

Οι επεμβάσεις, που αφορούσαν ασθενείς με τετραπληγία, έγιναν στο πλαίσιο της κλινικής μελέτης Canadian Precise Robotically Implanted Brain-Computer Interface Study και αποτελούν τις πρώτες επεμβάσεις Neuralink εκτός Ηνωμένων Πολιτειών.

Ο Δρ Άντρες Λοθάνο, νευροχειρουργός στο Νοσοκομείο Western του Τορόντο, δήλωσε: «Είναι μεγάλη τιμή να συμμετέχω σε αυτή τη ρηξικέλευθη έρευνα και να ηγούμαι των πρώτων επεμβάσεων Neuralink στον Καναδά. Το ορόσημο αυτό αποτελεί σημείο συνάντησης της νευροεπιστήμης, της μηχανικής και της κλινικής πράξης», ανέφερε στο σχετικό δελτίο Τύπου της 4ης Σεπτεμβρίου.

Η κλινική δοκιμή ξεκίνησε τον περασμένο Νοέμβριο, με σκοπό την αξιολόγηση της ασφάλειας και αποτελεσματικότητας τόσο του ρομποτικού χειρουργικού συστήματος της Neuralink όσο και των ίδιων των εμφυτευμάτων, τα οποία επιτρέπουν σε άτομα με τετραπληγία να ελέγχουν εξωτερικές συσκευές μέσω των σκέψεών τους.

Η Neuralink προσέγγισε τον Δρα Λοθάνο το 2023 για να συμμετάσχει στη μελέτη και ανακοίνωσε την έγκριση των επεμβάσεων από το υπουργείο Υγείας Καναδά επίσης τον Νοέμβριο.

Οι καναδικές αρχές έχουν δώσει το πράσινο φως ώστε η χειρουργική ομάδα να στρατολογήσει μέχρι έξι ασθενείς συνολικά. Οι εγγραφές συνεχίζονται και αφορούν όσους πληρούν τα κριτήρια, δηλαδή ασθενείς με περιορισμένη ή ανύπαρκτη λειτουργικότητα και των δύο χεριών λόγω τραύματος νωτιαίου μυελού στην αυχενική μοίρα ή αμυοτροφικής πλευρικής σκλήρυνσης (ALS), όπως διευκρινίζει το Υγειονομικό Δίκτυο.

Ο Γε Τσεν ανέφερε ότι οι δύο πρώτοι Καναδοί ασθενείς που συμμετείχαν έχουν αμφότεροι τραύματα του αυχενικού νωτιαίου μυελού. Θα παρακολουθούνται τακτικά και θα συμμετέχουν σε ερευνητικές συνεδρίες, καθώς θα εξοικειώνονται με τις συσκευές.

Ο Μασκ, ένας από τους ιδρυτές της Neuralink το 2016, χαρακτήρισε τις καναδικές επεμβάσεις ως «σημαντική πρόοδο», σε ανάρτησή του στην πλατφόρμα κοινωνικής δικτύωσης Χ.

Ο Δρ Ανδρές Λοθάνο, κάτοχος της έδρας Alan and Susan Hudson Cornerstone Chair στη Νευροχειρουργική στο University Health Network (UHN), κατά τη διάρκεια της πρώτης επέμβασης Neuralink που πραγματοποιήθηκε στο Toronto Western Hospital, στις 27 Αυγούστου 2025. (Φωτογραφία από το UHN Handout)

 

Πώς λειτουργεί

Το εμφύτευμα της Neuralink αποτελείται από έναν πομπό που συνδέεται με εξαιρετικά λεπτές ίνες, οι οποίες καταγράφουν τη νευρωνική δραστηριότητα.

Η τοποθέτηση γίνεται από χειρουργικό ρομπότ, καθώς τα νήματα είναι τόσο εύθραυστα που δεν μπορούν να εμφυτευτούν με το ανθρώπινο χέρι, σύμφωνα με την ιστοσελίδα της εταιρείας.

Το εμφύτευμα μεταδίδει ασύρματα ηλεκτρικά σήματα που καταγράφουν οι ίνες στην εφαρμογή της Neuralink, η οποία, αξιοποιώντας τεχνητή νοημοσύνη, ερμηνεύει τις σκέψεις του χρήστη ως ενέργειες, επιτρέποντάς του να ανοίγει εφαρμογές κινητού ή να κινεί τον κέρσορα σε οθόνη υπολογιστή μόνο με τη σκέψη του.

Η πρώτη εμφύτευση σε άνθρωπο πραγματοποιήθηκε τον Ιανουάριο του 2024 στον Νόλαν Ντάρμπο, ο οποίος έμεινε τετραπληγικός έπειτα από ατύχημα σε πισίνα το 2016. Η επέμβαση έγινε στο Κέντρο Νευροχειρουργικής Barrow στο Φοίνιξ της Αριζόνα.

Η Neuralink έχει δεχτεί επικρίσεις τα τελευταία χρόνια, έπειτα από καταγγελίες για αμφιλεγόμενες μεθόδους πειραματισμού σε ζώα. Δημοσιεύματα του 2022 και 2023 ανέφεραν επιβλαβείς συνέπειες σε πιθήκους που χρησιμοποιήθηκαν σε δοκιμές, με ορισμένους να θανατώνονται.

Ο Μασκ έχει απορρίψει τις κατηγορίες για κακοποίηση ζώων, δηλώνοντας: «Κανένας πίθηκος δεν πέθανε εξαιτίας εμφυτεύματος Neuralink. Για να ελαχιστοποιηθεί ο κίνδυνος σε υγιή ζώα, χρησιμοποιήσαμε μόνο πιθήκους με μη αναστρέψιμη νόσο», ανέφερε σε ανάρτησή του στο Χ, το 2023.

Αποδέκτες του εγκεφαλικού εμφυτεύματος στις ΗΠΑ έχουν δημοσιοποιήσει τις βελτιώσεις στη λειτουργικότητά τους μετά την επέμβαση και ο Ντάρμπο έχει αναδειχθεί σε άτυπο εκπρόσωπο της εταιρείας μέσω δημόσιων εμφανίσεων και συνεντεύξεων.

Η Neuralink δεν έχει ανακοινώσει λεπτομέρειες για τα μελλοντικά της σχέδια, ωστόσο ο Μασκ είχε μιλήσει παλαιότερα για το ενδεχόμενο μιας «νευρωνικής δαντέλας» που θα μπορούσε να συνθέσει έναν συνεκτικό ψηφιακό στρώμα με τον ανθρώπινο εγκέφαλο, συγχωνεύοντας την τεχνητή νοημοσύνη με τον άνθρωπο.

Η τρέχουσα δοκιμή της Neuralink δεν έχει ακόμη φτάσει σε αυτό το στάδιο και ο ίδιος ο Μασκ δεν έχει επιβεβαιώσει αν υπάρχουν τέτοια σχέδια για το μέλλον.

Με πληροφορίες από το Reuters