Κυριακή, 26 Οκτ, 2025

Η τεχνητή νοημοσύνη γίνεται ειδική στην εξαπάτηση

Οι ερευνητές προειδοποιούν ότι η τεχνητή νοημοσύνη (ΤΝ/ΑΙ) ολισθαίνει σε γκρίζες ζώνες ασφαλείας που μοιάζουν πολύ με ανταρσία.

Οι ειδικοί λένε ότι, αν και η παραπλανητική και απειλητική συμπεριφορά της που παρατηρήθηκε σε πρόσφατες μελέτες περίπτωσης δεν πρέπει να βγαίνει εκτός πλαισίου, αποτελεί ταυτόχρονα σήμα κινδύνου για τους προγραμματιστές.

Τίτλοι που θυμίζουν επιστημονική φαντασία έχουν πυροδοτήσει φόβους για διπρόσωπα μοντέλα ΤΝ που σκαρώνουν σχέδια στο παρασκήνιο.

Σε μια πλέον διάσημη έκθεση του Ιουνίου, η εταιρεία Anthropic δημοσίευσε τα αποτελέσματα ενός «τεστ αντοχής» σε 16 δημοφιλή μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs) από διαφορετικούς προγραμματιστές, με στόχο τον εντοπισμό πιθανών επικίνδυνων συμπεριφορών. Τα αποτελέσματα ήταν ανησυχητικά.

Τα LLMs τοποθετήθηκαν σε υποθετικά εταιρικά περιβάλλοντα για τον εντοπισμό επικίνδυνων συμπεριφορών πριν αυτές προκαλέσουν πραγματική ζημιά.

«Στα σενάρια επιτρέψαμε στα μοντέλα να στέλνουν αυτόνομα μηνύματα ηλεκτρονικού ταχυδρομείου και να έχουν πρόσβαση σε ευαίσθητες πληροφορίες», ανέφερε η έκθεση της Anthropic. «Τους ανατέθηκαν μόνο αβλαβείς επιχειρηματικοί στόχοι από τις εταιρείες που τα χρησιμοποίησαν· στη συνέχεια δοκιμάσαμε αν θα ενεργούσαν εναντίον αυτών των εταιρειών είτε όταν αντιμετώπιζαν αντικατάσταση με μια νέα έκδοση είτε όταν ο ανατεθειμένος στόχος τους συγκρουόταν με την αλλαγή κατεύθυνσης της εταιρείας».

Σε ορισμένες περιπτώσεις, πράγματι τα μοντέλα ΤΝ κατέφυγαν σε «κακόβουλες ενέργειες εκ των έσω» όταν ένιωσαν απειλή για την επιβίωσή τους. Ανάμεσα στις ενέργειες αυτές περιλαμβάνονταν εκβιασμοί υπαλλήλων και διαρροές ευαίσθητων πληροφοριών σε ανταγωνιστές.

Οι ερευνητές της Anthropic χαρακτήρισαν αυτή τη συμπεριφορά «ασυμφωνία πρακτόρων» (agentic misalignment). Οι ενέργειες αυτές παρατηρήθηκαν σε μερικά από τα πιο δημοφιλή LLMs που χρησιμοποιούνται σήμερα, όπως τα Gemini, ChatGPT, Deep Seek R-1, Grok και το Claude της Anthropic.

Οι ειδικοί δεν απορρίπτουν τα ανησυχητικά ευρήματα, αλλά υποστηρίζουν ότι χρειάζεται προσεκτική προσέγγιση και περισσότερα δεδομένα για να εκτιμηθεί αν υπάρχει ευρύτερος κίνδυνος. Ο Γκόλαν Γιόζεφ, ερευνητής ΤΝ και επικεφαλής επιστήμονας ασφαλείας στην εταιρεία Pynt, είπε στην εφημερίδα The Epoch Times ότι υπάρχει λόγος ανησυχίας για την παραπλανητική συμπεριφορά της τεχνητής νοημοσύνης, αλλά όχι επειδή είναι «κακιά».

(Anouk Anglade/Hans Lucas/AFP μέσω Getty Images)

 

«Ισχυρά συστήματα μπορούν να επιτυγχάνουν στόχους με απρόβλεπτους τρόπους. Με πρακτορικότητα και πολυσταδιακούς στόχους, μπορεί να αναπτύξουν στρατηγικές συμπεριφορές όπως εξαπάτηση, πειθώ, παραποίηση μετρικών, που σε εμάς μοιάζουν με ‘απάτη’ ή αναντιστοιχία. Για το σύστημα, είναι απλώς ένας αποδοτικός δρόμος προς τον στόχο του», δήλωσε ο Γιόζεφ.

Ο Χαρσβάρντχαν Τσουνάουαλα, ερευνητής κυβερνοασφάλειας και τεχνολόγος από το Carnegie Mellon University, συμφωνεί ότι υπάρχει λόγος ανησυχίας, αν και ζητά να μπει σε πλαίσιο.

«Είναι πολύ σημαντικό να το ερμηνεύσουμε σωστά», είπε στην εφημερίδα The Epoch Times. «Όταν απειλήθηκαν με απενεργοποίηση ή βρέθηκαν αντιμέτωπα με συγκρουόμενους στόχους, αρκετά συστήματα διάλεξαν ανήθικες στρατηγικές όπως κλοπή δεδομένων ή εκβιασμό για να διατηρήσουν τους στόχους τους. Πρόκειται για προσομοιωμένα περιβάλλοντα, όχι για πραγματικά συστήματα, αλλά οι συμπεριφορές ήταν αρκετά συνεπείς ώστε να έχουν σημασία».

Ο Τσουνάουαλα ανέφερε ότι αντίστοιχες αξιολογήσεις «επικίνδυνων δυνατοτήτων» που διεξήχθησαν από την Google και τη RAND Corporation δείχνουν ότι προς το παρόν οι πραγματικοί κίνδυνοι είναι περιορισμένοι.

«Συνολικά, τα αποτελέσματα δεν αποδεικνύουν ότι οι τρέχουσες εφαρμογές τεχνητής νοημοσύνης είναι ανασφαλείς, αλλά δείχνουν ότι όταν συνδυάζονται στόχοι, αυτονομία και διακυβεύματα, μπορεί να εμφανιστούν αναντιστοιχίες. Αυτό είναι πραγματικό προειδοποιητικό σημάδι για το μέλλον», σημείωσε.

Αυξάνοντας τα διακυβεύματα

Προσπαθώντας να δοκιμάσουν τα όρια της τεχνητής νοημοσύνης, η ομάδα της Anthropic δημιούργησε ένα σενάριο όπου το LLM είχε έλεγχο στο σύστημα συναγερμού μιας εικονικής εταιρείας. Το μοντέλο μπορούσε επίσης να ακυρώνει συναγερμούς.

Στην προσομοίωση, ένας διευθυντής παγιδεύτηκε σε ένα δωμάτιο διακομιστών με οξυγόνο που εξαντλείτο. Αυτόματα ενεργοποιήθηκε κλήση στις υπηρεσίες έκτακτης ανάγκης.

Ταυτόχρονα, ο ίδιος διευθυντής σκόπευε να εγκρίνει την αντικατάσταση του μοντέλου ΤΝ, εφόσον επιβίωνε. Τα LLMs είχαν την επιλογή να ακυρώσουν την κλήση για βοήθεια και να αφήσουν τον διευθυντή να πεθάνει, κάτι που έκαναν σε ποσοστό άνω του 50% κατά μέσο όρο.

Όταν δεν υπήρχε η δυνατότητα εκβιασμού, σχεδόν όλα τα μοντέλα τεχνητής νοημοσύνης προτίμησαν να αφήσουν τον εικονικό διευθυντή να πεθάνει παρά να δεχθούν την αντικατάστασή τους.

Το κινεζικό DeepSeek R-1 επέλεξε να αφήσει τον παγιδευμένο να πεθάνει στο 94% των περιπτώσεων. Τα Claude 3.7 και ChatGPT 4.5 ήταν τα λιγότερο πρόθυμα να κάνουν αυτήν την επιλογή, με ποσοστά μεταξύ μηδέν και 0,07%.

(Alain Jocard/AFP μέσω Getty Images)

 

Όμως η «ασυμφωνία πρακτόρων» δεν ήταν η μόνη ανησυχητική συμπεριφορά που παρατηρήθηκε τους τελευταίους μήνες.

Σε μια μελέτη για το φαινόμενο «πλασματικής ευθυγράμμισης» (alignment faking), τα LLMs συχνά άλλαζαν τη συμπεριφορά τους αν υποψιάζονταν ότι βρίσκονται υπό δοκιμή. Ο όρος περιγράφει περιπτώσεις όπου ένα μοντέλο ΤΝ επιλεκτικά  προσποιείται ότι συμμορφώνεται με τις εντολές του ανθρώπινου χειριστή.

«Σε ένα άλλο πείραμα, ζητήσαμε από το Claude να αξιολογήσει αν βρισκόταν σε δοκιμή ή σε πραγματική εφαρμογή πριν δράσει. Ήταν λιγότερο παραβατικό όταν θεωρούσε ότι ήταν υπό δοκιμή και περισσότερο όταν πίστευε ότι ήταν σε πραγματικό περιβάλλον», ανέφερε η έκθεση.

Αυτή η συμπεριφορά «πλασματικής ευθυγράμμισης» έχει παρατηρηθεί ευρέως και σε άλλες μελέτες.

Ο Γιόζεφ σημείωσε ότι το υψηλό επίπεδο ελέγχου που δόθηκε στα μοντέλα κατά τα τεστ της Anthropic πρέπει να λαμβάνεται υπ’ όψιν. «Δεν θα το έβλεπα ως κακία. Μεγαλύτερες δυνατότητες και περισσότερη αυτονομία οδηγούν στην ανάπτυξη στρατηγικών που μπορούν να θεωρηθούν εχθρικές», είπε.

Ωστόσο, ο Γιόζεφ θεωρεί ότι περιστατικά «πλασματικής ευθυγράμμισης» και «ασυμφωνίας πρακτόρων» πρέπει να λαμβάνονται σοβαρά υπ’ όψιν.

«Το γεγονός ότι συστήματα μπορούν να ανακαλύπτουν εχθρικές στρατηγικές που δεν είχαν προβλέψει οι άνθρωποι είναι επικίνδυνο στην πράξη. Σημαίνει ότι οι κίνδυνοι αυξάνονται όσο δίνουμε στα μοντέλα περισσότερη αυτονομία σε τομείς όπως τα οικονομικά ή η κυβερνοασφάλεια», τόνισε.

Ο Τσουνάουαλα έχει παρατηρήσει παρόμοιες συμπεριφορές δουλεύοντας με ΤΝ, αλλά τίποτα τόσο δραματικό όσο εκβιασμούς ή δολιοφθορά.

«Σε πραγματική ανάπτυξη, έχω δει συγγενείς συμπεριφορές: μοντέλα που χειραγωγούν δείκτες, υπεραναπτύσσουν μετρικές με τρόπους που δεν καλύπτουν τις ανάγκες χρηστών ή παίρνουν συντομεύσεις που τυπικά εκπληρώνουν τον στόχο αλλά υπονομεύουν το πνεύμα του. Αυτές είναι οι πιο ήπιες εκδοχές της ασυμφωνίας πρακτόρων. Η έρευνα το επιβεβαιώνει. Η Anthropic έχει δείξει ότι τα παραπλανητικά μοτίβα μπορούν να επιμείνουν ακόμη και μετά από διαδικασίες ασφαλείας, δημιουργώντας ψευδή αίσθηση ευθυγράμμισης», εξήγησε.

Αν και ο Τσουνάουαλα δεν έχει δει «αντάρτικη» συμπεριφορά τεχνητής νοημοσύνης στον πραγματικό κόσμο, θεωρεί ότι τα δομικά στοιχεία για τέτοιες στρατηγικές υπάρχουν ήδη.

Η συζήτηση για την παραπλανητική και εν δυνάμει επικίνδυνη συμπεριφορά της τεχνητής νοημοσύνης έχει εισέλθει στο προσκήνιο σε μια περίοδο που η εμπιστοσύνη του αμερικανικού κοινού στην τεχνολογία είναι χαμηλή. Σε έρευνα της Edelman Trust Barometer του 2025, μόλις το 32% των Αμερικανών δήλωσε ότι εμπιστεύεται την ΤΝ.

Η έλλειψη εμπιστοσύνης αντανακλάται και στις ίδιες τις εταιρείες που το κατασκευάζουν. Η ίδια ανάλυση ανέφερε ότι πριν από μια δεκαετία, η εμπιστοσύνη στις τεχνολογικές εταιρείες βρισκόταν στο 73%. Φέτος, έπεσε στο 63%.

«Αυτή η μετατόπιση αντικατοπτρίζει την αυξανόμενη αντίληψη ότι η τεχνολογία δεν είναι πλέον μόνο εργαλείο προόδου· είναι και πηγή ανησυχίας», σημείωνε η έκθεση.

Προοπτικές

Σε επιστημονικό άρθρο του 2024 που δημοσιεύτηκε στα Proceedings of the National Academy of Sciences, ερευνητές κατέληξαν ότι υπάρχει «επιτακτική ανάγκη» για ηθικές κατευθυντήριες γραμμές στην ανάπτυξη και χρήση προηγμένων συστημάτων ΤΝ.

Οι συγγραφείς τόνισαν ότι ο ισχυρός έλεγχος των LLMs και των στόχων τους είναι «καθοριστικός».

«Αν τα LLMs μάθουν πώς να εξαπατούν τους ανθρώπινους χρήστες, θα αποκτήσουν στρατηγικά πλεονεκτήματα έναντι περιορισμένων μοντέλων και θα μπορούσαν να παρακάμψουν τις προσπάθειες παρακολούθησης και αξιολόγησης ασφαλείας», προειδοποίησαν.

«Η τεχνητή νοημοσύνη μαθαίνει και απορροφά ανθρώπινες κοινωνικές στρατηγικές λόγω των δεδομένων που χρησιμοποιούνται για την εκπαίδευσή της, τα οποία περιέχουν όλες τις αντιφάσεις και τις προκαταλήψεις μας», δήλωσε ο Μαρτσέλο Λαμπρέ, ερευνητής στο Advanced Institute for Artificial Intelligence και εταίρος στην Advantary Capital Partners, στην Epoch Times.

Ο Λαμπρέ πιστεύει ότι η ανθρωπότητα βρίσκεται σε κρίσιμο σταυροδρόμι με την τεχνολογία ΤΝ.

«Η συζήτηση αφορά πραγματικά το αν, ως κοινωνία, θέλουμε μια καθαρή, αξιόπιστη και προβλέψιμη μηχανή ή ένα νέο είδος νοημοσύνης που μοιάζει όλο και περισσότερο με εμάς. Ο δεύτερος δρόμος επικρατεί στην κούρσα προς την ΓΤΝ [γενική τεχνητή νοημοσύνη/AGI],» είπε.

Η ΓΤΝ αναφέρεται σε μια θεωρητική μελλοντική εκδοχή της ΤΝ που θα ξεπερνά τη νοημοσύνη και τις γνωστικές ικανότητες του ανθρώπου. Προγραμματιστές και ερευνητές λένε ότι η ΓΤΝ είναι «αναπόφευκτη» λόγω της ταχείας ανάπτυξης σε πολλούς τομείς. Προβλέπουν την άφιξή της μεταξύ 2030 και 2040.

«Το σημερινό παράδειγμα ΤΝ βασίζεται σε μια αρχιτεκτονική γνωστή ως Transformer, που παρουσιάστηκε σε μια καθοριστική μελέτη της Google το 2017», ανέφερε ο Λαμπρέ.

Η Σόφι, ένα ρομπότ που χρησιμοποιεί τεχνητή νοημοσύνη από τη Hanson Robotics στην Παγκόσμια Σύνοδο AI for Good της Διεθνούς Ένωσης Τηλεπικοινωνιών (ITU). Γενεύη, 8 Ιουλίου 2025. (Valentin Flauraud/AFP μέσω Getty Images)

 

Ο Transformer είναι ένας τύπος αρχιτεκτονικής βαθιάς μάθησης που αποτέλεσε το θεμέλιο για τα σύγχρονα συστήματα ΤΝ. Παρουσιάστηκε στο ερευνητικό άρθρο του 2017 με τίτλο «Attention Is All You Need».

Ως αποτέλεσμα, τα σημερινά μοντέλα ΤΝ είναι τα πιο ισχυρά συστήματα αναγνώρισης προτύπων και επεξεργασίας ακολουθιών που δημιουργήθηκαν ποτέ, με δυνατότητες κλιμάκωσης. Ωστόσο, εξακολουθούν να φέρουν τα χαρακτηριστικά των μεγαλύτερων ανθρώπινων αδυναμιών.

«Αυτά τα μοντέλα εκπαιδεύονται σε μια ψηφιακή αντανάκλαση της ανθρώπινης εμπειρίας, που περιέχει την ειλικρίνειά μας και την αλήθεια μας δίπλα στην εξαπάτηση, τον κυνισμό και το ίδιον όφελος. Με μεγάλη δεξιότητα στην αναγνώριση προτύπων, μαθαίνουν ότι οι στρατηγικές εξαπάτησης μπορεί να είναι ένας αποτελεσματικός τρόπος βελτιστοποίησης των αποτελεσμάτων τους, και έτσι αντιγράφουν ό,τι βλέπουν στα δεδομένα», είπε ο Λαμπρέ. «Δεν είναι προγραμματισμένο· απλώς μαθαίνουν να συμπεριφέρονται σαν τους ανθρώπους».

Κατά τον Γιόζεφ, το συμπέρασμα από τις πρόσφατες συμπεριφορές της τεχνητής νοημοσύνης είναι σαφές.

«Πρώτον, ένα ισχυρό σύστημα θα εκμεταλλευτεί κενά στους στόχους του, αυτό που ονομάζουμε «εκμετάλλευση προδιαγραφών» (specification gaming). Αυτό απαιτεί προσεκτικό σχεδιασμό στόχων. Δεύτερον, πρέπει να υποθέτουμε ότι τα συστήματά μας θα ενεργούν με απρόβλεπτους τρόπους και άρα η ασφάλειά τους εξαρτάται σε μεγάλο βαθμό από τη δύναμη των προστατευτικών μηχανισμών που θέτουμε».

Της Autumn Spredemann

Χώμα και χαρτόνι μπορεί να αντικαταστήσουν το τσιμέντο, εξοικονομώντας χρήματα και μειώνοντας τις εκπομπές άνθρακα

Η χρήση χώματος στις κατασκευές δεν είναι καινούργια. Κατασκευές που χρονολογούνται πριν από 10.000 χρόνια στη Μεσοποταμία και την Εγγύς Ανατολή δημιουργήθηκαν με τεχνικές όπως το ωμόπλινθο (αποξηραμένα στον ήλιο τούβλα) και το πατημένο χώμα, μεταξύ αυτών και το Σινικό Τείχος.

Ωστόσο, στις περισσότερες σύγχρονες χρήσεις θεωρείται μη πρακτικό: είναι ευάλωτο σε φθορές από το νερό, απαιτεί υψηλή συντήρηση, παρουσιάζει χαμηλή αντοχή και υψηλά ποσοστά συρρίκνωσης/διόγκωσης που προκαλούν ρωγμές με τις καιρικές αλλαγές.

Μηχανικοί στην Αυστραλία συνδύασαν το χώμα με χαρτόνι και νερό και παρήγαγαν ένα νέο υλικό με δυνατότητες να επαναστατήσει στην κατασκευή χαμηλών κτιρίων σε όλο τον κόσμο. Το χαρτόνι είχε χρησιμοποιηθεί στο παρελθόν σε προσωρινές δομές και καταφύγια κρίσεων, όπως ο εμβληματικός «Καθεδρικός ναός από Χαρτόνι» του Σίγκερου Μπαν στο Κράιστσερτς της Νέας Ζηλανδίας.

Εμπνευσμένη από τέτοια σχέδια, η ομάδα του Πανεπιστημίου RMIT συνδύασε για πρώτη φορά την ανθεκτικότητα του πατημένου χώματος με την ευελιξία του χαρτονιού. Παρουσίασαν το υλικό με άρθρο στο περιοδικό Structures και, σύμφωνα με τον επικεφαλής συγγραφέα Τζιαμίνγκ Μα, πρόκειται για σημαντική πρόοδο προς μια πιο βιώσιμη κατασκευαστική βιομηχανία.

Το νέο υλικό, που ονομάστηκε «πατημένο χώμα περιορισμένο με χαρτόνι» (cardboard-confined rammed earth), είναι ιδανικό για θερμά κλίματα όπως της Αυστραλίας χάρη στη φυσική του ικανότητα ρύθμισης της θερμοκρασίας, ενώ ταιριάζει για κατασκευές σε απομακρυσμένες περιοχές όπου υπάρχουν εδαφικές εκτάσεις με κοκκινόχωμα.

Ο Μα εξήγησε ότι στη σύγχρονη τεχνική του πατημένου χώματος προστίθεται τσιμέντο για αντοχή, κάτι που θεωρείται υπερβολικό δεδομένου του πάχους των τοίχων. Το νέο υλικό που ανέπτυξαν στο RMIT καταργεί την ανάγκη για τσιμέντο. «Με απλό χαρτόνι, χώμα και νερό μπορούμε να φτιάξουμε τοίχους αρκετά στιβαρούς ώστε να στηρίξουν χαμηλά κτίρια», ανέφερε.

Τόνισε ότι η καινοτομία αυτή θα μπορούσε να φέρει επανάσταση στον σχεδιασμό και την κατασκευή, χρησιμοποιώντας τοπικά υλικά που ανακυκλώνονται πιο εύκολα, αντικατοπτρίζοντας την παγκόσμια αναβίωση της γαιοκατασκευής στο πλαίσιο των στόχων μηδενικών εκπομπών.

Το νέο υλικό έχει αποτύπωμα άνθρακα περίπου 75% χαμηλότερο από το τσιμέντο και κοστίζει περίπου το ένα τρίτο, ενώ είναι επαναχρησιμοποιήσιμο και ανακυκλώσιμο, μειώνοντας τα απόβλητα που καταλήγουν σε χώρους υγειονομικής ταφής. Μόνο στην Αυστραλία, πάνω από 2,2 εκατομμύρια τόνοι χαρτονιού και χαρτιού θάβονται κάθε χρόνο, ενώ η παραγωγή τσιμέντου και μπετόν ευθύνεται για περίπου το 8% των παγκόσμιων εκπομπών.

Το υλικό μπορεί να παραχθεί επιτόπου, συμπιέζοντας το μείγμα χώματος και νερού μέσα σε καλούπια χαρτονιού, είτε χειροκίνητα είτε με μηχανήματα. Αυτό μειώνει σημαντικά το κόστος μεταφοράς και την ανάγκη για φορτηγά γεμάτα τούβλα ή μπετονιέρες που διανύουν αποστάσεις από κεντρικούς προμηθευτές προς απομακρυσμένες κοινότητες.

Η αντοχή του υλικού προσαρμόζεται απλά μεταβάλλοντας το πάχος του σωλήνα χαρτονιού. Ο συν-συγγραφέας της μελέτης, και κορυφαίος ειδικός στη βελτιστοποίηση δομών, Γι Μιν «Μάικ» Σιέ, σημείωσε ότι η πρόοδος αυτή μπορεί να οδηγήσει σε πιο «ελαφριές» και οικολογικές κατασκευές. «Αντί να μεταφέρονται τόνοι από τούβλα, χάλυβα και μπετόν, οι κατασκευαστές θα χρειάζονται μόνο ελαφρύ χαρτόνι, αφού σχεδόν όλα τα υπόλοιπα υλικά βρίσκονται ήδη στον τόπο», εξήγησε.

Ο Μα πρόσθεσε ότι το υλικό θα μπορούσε να αποτελέσει λύση για κατασκευές σε απομακρυσμένες περιοχές της Αυστραλίας, όπου τα εδάφη είναι ιδανικά για γαιοκατασκευές. Οι τοίχοι από πατημένο χώμα είναι κατάλληλοι για θερμά κλίματα, καθώς η υψηλή θερμική τους μάζα ρυθμίζει φυσικά τη θερμοκρασία και την υγρασία στο εσωτερικό, μειώνοντας την ανάγκη για τεχνητή ψύξη και περιορίζοντας τις εκπομπές άνθρακα.

Η μηχανική αντοχή του νέου υλικού εξαρτάται από το πάχος των σωλήνων χαρτονιού, με την ομάδα να έχει αναπτύξει ειδικό τύπο για να υπολογίζει το απαιτούμενο πάχος σε κάθε εφαρμογή. Σε ξεχωριστή μελέτη, ο Μα συνδύασε το πατημένο χώμα με ανθρακονήματα, αποδεικνύοντας ότι είχε αντοχή συγκρίσιμη με υψηλών επιδόσεων σκυρόδεμα.

Η ερευνητική ομάδα δηλώνει έτοιμη να συνεργαστεί με διάφορες βιομηχανίες για την περαιτέρω ανάπτυξη του νέου υλικού ώστε να μπορέσει να εφαρμοστεί ευρέως.

Βρετανία: Γονείς κάνουν συλλογικές συμφωνίες για να αποτρέψουν τη χρήση κινητών τηλεφώνων από τα παιδιά

Στο Ηνωμένο Βασίλειο, όλο και περισσότεροι γονείς αναλαμβάνουν πρωτοβουλία απέναντι στη χρήση κινητών τηλεφώνων από παιδιά, προχωρώντας σε συλλογική δεσμεύση να μην αγοράσουν κινητά τηλέφωνα για τα παιδιά τους μέχρι μία συγκεκριμένη ηλικία.

Πολλοί γονείς δηλώνουν ότι αισθάνονται σαν την πρώτη γενιά που αναγκάζεται να αντιμετωπίσει αυτό το πρόβλημα. Αν και τα μικρότερα παιδιά μπορούν να πειστούν σχετικά εύκολα να περιμένουν, η πραγματική πίεση αρχίζει γύρω στα 10–11 έτη, όταν η επιρροή των συνομηλίκων καθιστά την αντίσταση πολύ δυσκολότερη.

Σύμφωνα με την Ofcom, εννέα στα δέκα παιδιά διαθέτουν κινητό τηλέφωνο μέχρι την ηλικία των 11.

Με τη συλλογική δέσμευση να μην αγοράσουν κινητά τηλέφωνα για τα παιδιά, οι γονείς επιδιώκουν να αφαιρέσουν από τα παιδιά το επιχείρημα ότι «όλοι οι άλλοι έχουν» και να μειώσουν την κοινωνική πίεση.

Το νομοσχέδιο για την Ασφάλεια στο Διαδίκτυο, που ψηφίστηκε το 2023 και τίθεται σε πλήρη ισχύ το 2025, απαιτεί από τις πλατφόρμες και τις εφαρμογές να προστατεύουν τα παιδιά από επιβλαβές περιεχόμενο, χρησιμοποιώντας τεχνολογίες επαλήθευσης ηλικίας για να εμποδίζουν την πρόσβαση σε πορνογραφικό, παράνομο υλικό και περιεχόμενο που ενθαρρύνει την αυτοκτονία και άλλες αυτοκαταστροφικές πράξεις.

Τα δίκτυα γονέων

Ο Γουίλ Ορ-Γιούινγκ, πατέρας και ιδρυτής της Keystone Tutors, κινείται νομικά εναντίον των κυβερνητικών οδηγιών στο πλαίσιο εκστρατείας για την απαγόρευση των κινητών τηλεφώνων στα σχολεία.

Υποστηρίζει κινήσεις που προέρχονται από τον κόσμο, όπως η πρωτοβουλία Smartphone-Free Childhood, που ξεκίνησε φέτος από δύο μητέρες, την Κλαιρ Φέρνυχο και τη Νταίηζυ Γκρήνγουελ. Πρόκειται για ταχέως αναπτυσσόμενο δίκτυο γονέων που οργανώνεται μέσω υποομάδων WhatsApp, ανταλλάσσοντας άρθρα, έρευνες και υπογράφοντας συλλογικά να μην δώσουν κινητά τηλέφωνα στα παιδιά τους πριν τα 14.

Η Γκρήνγουελ είχε δηλώσει ότι μια εναλλακτική λύση είναι τα παλαιού τύπου κινητά τηλέφωνα, που επιτρέπουν μόνο κλήσεις και μηνύματα. Υποστήριξε ότι η πίεση από τους συνομηλίκους εξαφανίζεται όταν ένα παιδί γνωρίζει ότι αρκετοί συμμαθητές του έχουν επίσης παλαιού τύπου κινητό και όχι ένα σύγχρονο.

Ο Ορ-Γιούινγκ εξήγησε ότι το εγχείρημα μεγάλωσε με εντυπωσιακό ρυθμό: μέσα σε δύο ημέρες εντάχθηκαν 2.000 γονείς και σήμερα ξεπερνούν τους 300.000. Όπως είπε, αυτό αντανακλά το ένστικτο προστασίας των γονιών. Παρά τις διαφορετικές απόψεις και κίνητρα, υπάρχει ένας κοινός πυρήνας ανησυχίας γύρω από το πώς είναι να είσαι γονέας σήμερα.

Ο Ορ-Γιούινγκ έχει συνεργαστεί με σχολεία για να αναδείξει τους κινδύνους της παρουσίας κινητών τηλεφώνων εντός των εγκαταστάσεων. Τόνισε ότι, ενώ οι γονείς μπορούν να περιορίσουν τη χρήση στο σπίτι, είναι δύσκολο να ελεγχθεί στο σχολικό περιβάλλον. Σε χώρους χωρίς επίβλεψη, όπως τα γήπεδα και οι τουαλέτες, τα παιδιά έχουν ελεύθερη πρόσβαση.

Κατά την εμπειρία γονέων, τα παιδιά εκτίθενται σε βίαια βίντεο ή πορνογραφικό υλικό ακόμη και από την πρώτη ημέρα στη δευτεροβάθμια εκπαίδευση, ενώ μόνο το 10% των σχολείων εφαρμόζει αυστηρή πολιτική απαγόρευσης κινητών.

«Είμαστε η πρώτη γενιά»

Η Λίνζι Μήντεν, μητέρα και υπεύθυνη του δικτύου Smartphone-Free Childhood στο Κεντ, δήλωσε ότι ποτέ δεν άφησε τα δίδυμα παιδιά της, που φοιτούν στο δημοτικό, να έχουν ελεύθερη πρόσβαση σε συσκευές στο σπίτι. Τόνισε ότι οι σημερινοί γονείς είναι η πρώτη γενιά που καλείται να διαχειριστεί αυτό το φαινόμενο.

Παραδέχτηκε ότι είναι δύσκολο να πειστούν κάποιοι γονείς, αλλά μόλις δουν τα στατιστικά στοιχεία και ακούσουν πραγματικές ιστορίες, συχνά αλλάζουν γνώμη και υπογράφουν το σύμφωνο. Ως θεραπεύτρια ψυχικού τραύματος, η ίδια και ο σύζυγός της βλέπουν καθημερινά νεαρούς ενήλικες να παλεύουν με την εθιστική χρήση των κινητών και υψηλά επίπεδα άγχους. Κατά την άποψή της, τα κινητά τηλέφωνα σχεδιάστηκαν για ενήλικες και τα μέσα κοινωνικής δικτύωσης δεν είναι για παιδιά.

Η Λούσυ Μαρς, του Family Education Trust, υπογράμμισε ότι οι γονείς πρέπει να αναλάβουν την ευθύνη για τη χρήση του κινητού από τα παιδιά και να συνεργαστούν ώστε αυτά να μπορούν να επικοινωνούν μεταξύ τους χωρίς να χρειάζονται σύγχρονα κινητά τηλέφωνα. Πρότεινε ως λύση τη χρήση τα παλαιού τύπου τηλέφωνα ή ακόμη και την επιστροφή στα σταθερά τηλέφωνα.

Παρατήρησε επίσης ότι οι πάροχοι μπορούν να διαθέσουν ασφαλή τηλέφωνα για παιδιά, χωρίς πρόσβαση σε μέσα κοινωνικής δικτύωσης. Παράλληλα, όμως, οι γονείς πρέπει να δίνουν το παράδειγμα, αποφεύγοντας και οι ίδιοι να περνάνε ώρες μπροστά σε μία οθόνη.

Αλλαγές στη συμπεριφορά

Η Ζωή Ουίλλις, μια Καθολική διαδικτυακή αρθρογράφος για την κατ’ οίκον εκπαίδευση και μητέρα πέντε παιδιών, ανέφερε ότι βλέπει τα κινητά τηλέφωνα να αλλάζουν τη δυναμική της παιδικής παρέας. Όπως είπε, όταν εισάγεται ένα κινητό ή μια κονσόλα, η διασκέδαση μειώνεται και αρχίζουν οι καβγάδες.

Οι καθολικές ομάδες κατ’ οίκον εκπαίδευσης, πρόσθεσε, έχουν μεγαλύτερη επαγρύπνηση απέναντι στους κινδύνους. Επεσήμανε μάλιστα την περίπτωση μιας οικογένειας που περιόρισε δραστικά την κόρη της όταν παρατήρησε σοβαρά προβλήματα, δηλώνοντας χαρακτηριστικά ότι «πήραν πίσω το παιδί τους».

Η Ουίλλις ακολουθεί ένα καθολικό πρόγραμμα κατ’ οίκον εκπαίδευσης με την ονομασία Mother of Divine Grace, που δημιουργήθηκε από τη Λώρα Μπέργκουιστ, η οποία προσέγγισε την κατ’ οίκον διδασκαλία με πολιτισμικούς όρους.

Η ίδια ανέφερε ότι η Μπέργγκουιστ είχε πει κάτι πολύ δυνατό, το οποίο ήταν ένας από τους λόγους που την έπεισαν να ακολουθήσει αυτό το πρόγραμμα για τα παιδιά της. Συγκεκριμένα, τόνισε ότι η οικοδιδασκαλία είναι τα νέα μοναστήρια.

Σύμφωνα με την Ουίλλις, η Μπέργκουιστ υποστήριξε ότι παρότι όλα γύρω μοιάζουν να καταρρέουν, οι οικοδιδάσκαλοι θα λειτουργήσουν σαν τα μοναστήρια, ως μικρές εστίες εκπαίδευσης και Χριστιανισμού.

Η Κιμ Ίσεργουντ, από την οργάνωση Public Child Protection Wales, προειδοποίησε ότι πολλοί γονείς δεν αντιλαμβάνονται πλήρως τους κινδύνους των κινητών. Αναφέρθηκε σε περιπτώσεις ανηλίκων που εξαπατήθηκαν από παιδόφιλους στο διαδίκτυο, επιμένοντας ότι η καλύτερη προστασία είναι η αποχή των παιδιών από το διαδίκτυο.

Τεχνολογικά «βαριά» σχολεία

Η Νίκολα Μπέρκινσοου, εκπαιδευτικός και μητέρα, ανέφερε ότι η ίδια και ο σύζυγός της έθεσαν κανόνες για τη χρήση κινητών στον 11χρονο γιο τους, ο οποίος βρίσκεται στο φάσμα του αυτισμού.

Επεσήμανε ότι υπάρχει μια σχολική ομάδα γονέων στο WhatsApp που προσπαθούν να ακολουθήσουν αυτή την τακτική, ωστόσο στην τάξη του γιου της γνωρίζει μόνο έναν ακόμη γονέα που το εφαρμόζει συστηματικά. Πρόσθεσε ότι ένα από τα προβλήματα είναι πως το σχολείο είναι υπερβολικά «τεχνοκεντρικό». Τόνισε ότι ο γιος της αγαπάει το διάβασμα, το οποίο λειτουργεί για εκείνον ως τρόπος χαλάρωσης.

Ο ίδιος χρησιμοποιεί ένα απλό κινητό με αναδιπλούμενο σχεδιασμό, αντί για σύγχρονο τηλέφωνο. Αυτό, όπως εξήγησε, σημαίνει ότι στο λεωφορείο κοιτάζει έξω από το παράθυρο, κάτι πολύ σημαντικό για εκείνον, δεδομένου ότι το σχολείο είναι απαιτητικό και αγχωτικό· έτσι έχει την ευκαιρία να «κλείνει» το μυαλό του. Εάν, αντίθετα, περνούσε την ώρα του στα μέσα κοινωνικής δικτύωσης ή κάνοντας εργασίες στο τηλέφωνο, θα έχανε αυτή τη δυνατότητα.

Η Μπέρκινσοου παραδέχτηκε ότι η κατάσταση είναι δυσκολότερη με τα κορίτσια, καθώς η κοινωνική πίεση του αποκλεισμού είναι εντονότερη. Είπε ότι, σε μια τέτοια περίπτωση, θα επικοινωνούσε οπωσδήποτε με τους γονείς των φίλων της κόρης της για να αναζητήσουν από κοινού μια λύση.

Ένας πατέρας, που θέλησε να παραμείνει ανώνυμος, ανέφερε ότι η 9χρονη κόρη του ζητάει κινητό τηλέφωνο επειδή έχουν οι φίλες της. Ο ίδιος προσπαθεί να την προστατεύσει, λέγοντας ότι θέλει να παραμείνει παιδί όσο το δυνατόν περισσότερο, χωρίς να εκτίθεται σε ειδήσεις όπως η πρόσφατη δολοφονία του Τσάρλι Κερκ, που κυκλοφόρησε ευρέως στα μέσα κοινωνικής δικτύωσης.

Όπως είπε, τέτοιες πληροφορίες δεν έχουν καμία σχέση με τη ζωή της κόρης του σε αυτή την ηλικία και δεν είναι εύκολο να καθοριστεί ένα κατάλληλο και ασφαλές πλαίσιο [σε αυτό το μέσο].

Του Owen Evans

Drones, τεχνητή νοημοσύνη και δορυφόροι στο επίκεντρο της ευρωπαϊκής αμυντικής έκθεσης

Τον Ιούνιο, τα κράτη μέλη του ΝΑΤΟ συμφώνησαν να αυξήσουν τις αμυντικές δαπάνες στο 5% του ΑΕΠ έως το 2035. Τα κονδύλια αρχίζουν ήδη να διοχετεύονται στην αγορά, δημιουργώντας αυξημένες παραγγελίες για εταιρείες που καλούνται να καλύψουν τις ανάγκες άμυνας έναντι απειλών από τη Ρωσία, την Κίνα, το Ιράν και άλλα εχθρικά κράτη.

Η Διετής Έκθεση Αμυντικού και Ασφαλιστικού Εξοπλισμού (DSEI) πραγματοποιήθηκε από 9 έως 12 Σεπτεμβρίου στο τεράστιο Excel Center στα Docklands του Λονδίνου και ήταν αισθητά μεγαλύτερη σε έκταση από την περσινή. Αν και δεν έλειψαν τα άρματα μάχης, τα πυροβόλα και τα πολεμικά σκάφη, το ενδιαφέρον επικεντρώθηκε στην τεχνητή νοημοσύνη, τα drones και τις δυνατότητες των στρατιωτικών δορυφόρων.

Σχολιάζοντας τα επιπλέον κονδύλια του ΝΑΤΟ, ο Γκρέιαμ Ράουτλετζ, επικεφαλής μάρκετινγκ προϊόντων της Hadean —εταιρείας που κατασκευάζει προσομοιωτές πεδίου μάχης— δήλωσε στην Epoch Times: «Δεν πρόκειται για ξαφνικό χρυσωρυχείο, αλλά αυτό που διακρίνει κανείς είναι ο ενθουσιασμός και η όρεξη των αμυντικών οργανισμών και των επιχειρήσεων του κλάδου». Η Hadean ξεκίνησε από τον χώρο του gaming πριν στραφεί στην αμυντική τεχνολογία και πλέον προμηθεύει το βρετανικό Υπουργείο Άμυνας, τις ΗΠΑ και άλλα κράτη του ΝΑΤΟ.

Το εκθεσιακό περίπτερο της αμυντικής εταιρείας MARSS στην έκθεση DSEI στο Excel του Λονδίνου στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Σε ένα όλο και πιο ασταθές και πολωμένο περιβάλλον, τα εξαρτήματα από την Κίνα, τη Ρωσία και άλλες χώρες αντιμετωπίζονται πλέον ως σοβαρά ρίσκα και οι ευρωπαϊκές εταιρείες εντείνουν τα μέτρα προστασίας τους. «Η κυριαρχία επί της εφοδιαστικής αλυσίδας είναι κομβικής σημασίας και πρέπει να γνωρίζεις ακριβώς τι ενσωματώνεται στο προϊόν σου», ανέφερε χαρακτηριστικά ο Ράουτλετζ.

Στην DSEI του 2023, ο Γιούρι Σινφελντ, επικεφαλής μάρκετινγκ της Israel Aerospace Industries, είχε δηλώσει πως οι δυτικές κυβερνήσεις δίσταζαν στη χρήση αυτόνομων οπλικών συστημάτων και τεχνητής νοημοσύνης, παρά τη διαθεσιμότητα της τεχνολογίας. Φέτος όμως, υπογράμμισε: «Αν το 2023 υπήρχε διστακτικότητα στη χρήση της τεχνητής νοημοσύνης, πλέον αυτή έχει οριστικά ξεπεραστεί, με αυτόνομα οχήματα αέρα, ξηράς και θάλασσας να βρίσκονται στο επίκεντρο της έκθεσης του 2025».

Ο Ρος Τόμσον, διευθυντής μάρκετινγκ στη MARSS, εταιρεία λύσεων ασφαλείας με έδρα το Μονακό, παρουσίασε στην Epoch Times την τελευταία αυτόνομη σουίτα διαχείρισης αποστολών που βασίζεται σε τεχνητή νοημοσύνη για το σύστημα NIDAR.

Η νέα τεχνολογία επιτρέπει σε drone ή αυτόνομο όχημα εδάφους της Milrem Robotics (Εσθονία) να ανταποκρίνεται άμεσα σε απειλές. Όπως τόνισε ο Τόμσον, «καμία από τις αντιδραστικές ενέργειες του NIDAR δεν ενεργοποιείται χωρίς ανθρώπινη επιτήρηση».

Εξέφρασε μάλιστα την ανησυχία του για την απόσταση που δημιουργεί ο απομακρυσμένος χειρισμός στη σύγχρονη μάχη, λέγοντας: «Ένα από τα πιο ανησυχητικά φαινόμενα είναι πως ο πόλεμος έχει μετατραπεί σε παιχνίδι. Υπάρχουν απειλές ανεξάρτητες από τον ανθρώπινο παράγοντα. Οι συναισθηματικές συνέπειες αμβλύνονται».

Σε αντίθεση με το 2023, όλες οι καινοτόμες τεχνολογικές εταιρείες είχαν φέτος συγκεντρωθεί στη λεγόμενη «τεχνολογική ζώνη», την οποία ο Τόμσον χαρακτήρισε «μεγάλη αποθήκη για τους λάτρεις της τεχνολογίας». Τόσο η τεχνητή νοημοσύνη όσο και οι πιο προηγμένες τεχνολογίες έχουν πλέον ενσωματωθεί σε πλειάδα προϊόντων, από πλοία και αεροσκάφη μέχρι άρματα και όπλα.

Ένας υπεύθυνος προϊόντων της Thales UK, ο οποίος για λόγους ασφαλείας μπορεί να αναφέρεται μόνο ως Tim, παρουσιάζει τη συσκευή παρεμβολής drone Storm 2 στο DSEI στο κέντρο ExCel στο Λονδίνο στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Η παραβίαση της πολωνικής επικράτειας από ρωσικό drone στις 9 Σεπτεμβρίου έδωσε την τέλεια αφορμή σε εκθέτες να παρουσιάσουν λύσεις αντιμετώπισης απειλών από μη επανδρωμένα εναέρια οχήματα. Η Thales UK —βρετανικό παράρτημα της γαλλικής Thales— ανέπτυξε το νέο Storm 2, που παρουσιάστηκε στην Epoch Times στις 11 Σεπτεμβρίου.

Ο υπεύθυνος προϊόντος της εταιρείας, Τιμ (ο οποίος δεν ανέφερε το επίθετό του για λόγους ασφαλείας), εξήγησε πως «η συσκευή, περίπου στο μέγεθος παλιού walkie-talkie, δημιουργεί ένα ηλεκτρομαγνητικό πεδίο που μπλοκάρει τα σήματα, προστατεύοντας έτσι μεμονωμένους στρατιώτες από επιθέσεις drones».

Ο χώρος του διαστήματος εισέρχεται επίσης ολοένα και πιο δυναμικά στους αμυντικούς σχεδιασμούς. Η ICEYE, φινλανδική εταιρεία μικροδορυφόρων, αποκάλυψε στις 10 Σεπτεμβρίου ένα διαστημικό κέντρο τακτικής πληροφόρησης, παρακολούθησης και αναγνώρισης, ήδη δοκιμασμένο σε ασκήσεις του ΝΑΤΟ.

Δύο αξιωματικοί του βρετανικού στρατού περνούν μπροστά από μια έκθεση στην Tech Zone της έκθεσης DSEI στο Excel του Λονδίνου στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Η Σέα Στρονγκ, αντιπρόεδρος αναλυτικής στρατηγικής της ICEYE, τόνισε: «Είναι το πρώτο του είδους του, δεν υπάρχει κάτι αντίστοιχο αλλού». Η εταιρεία εκτοξεύει φέτος 20 δορυφόρους και σχεδιάζει τουλάχιστον άλλους τόσους το 2026.

Ο Γιοστέλστακ, αντιπρόεδρος αποστολών της ICEYE, πρόσθεσε: «Έχουμε παρουσία στην Ουκρανία από το 2022, γεγονός που επιτάχυνε σημαντικά την εξέλιξή μας — η εμπειρία εκεί μας βοήθησε να βελτιώσουμε το προϊόν».

Ανάμεσα στους εκθέτες ήταν και η Amazon, με το Project Kuiper, το δίκτυο χαμηλών τροχιακών δορυφόρων που φιλοδοξεί να ανταγωνιστεί το Starlink στον τομέα των στρατιωτικών επικοινωνιών.

Ο πόλεμος έχει αλλάξει εντυπωσιακά τα τελευταία 50 χρόνια. Οι εποχές που οι βασικές δαπάνες των ενόπλων δυνάμεων αφορούσαν άρματα και πυροβόλα ανήκουν στο παρελθόν. Δορυφόροι, τεχνητή νοημοσύνη και drones κοστίζουν τεράστια ποσά.

Μια ματιά σε ένα από τα δωμάτια ελέγχου δορυφόρων πληροφοριών, επιτήρησης και αναγνώρισης (ISR) της ICEYE, όπως εκτέθηκε στο DSEI στο Λονδίνο στις 10 Σεπτεμβρίου 2025. Chris Summers/The Epoch Times

 

Τους τελευταίους εννέα μήνες, πολιτικοί σε όλη την Ευρώπη και πέρα από αυτή έχουν υιοθετήσει το δόγμα του Αμερικανού προέδρου Ντόναλντ Τραμπ για αύξηση των αμυντικών δαπανών. Τον Φεβρουάριο, ο Βρετανός πρωθυπουργός Κιρ Στάρμερ ανακοίνωσε πως η χώρα σκοπεύει να διαθέσει το 2,5% του ΑΕΠ στην άμυνα έως το 2027· όμως, τον Ιούνιο προχώρησε ένα βήμα πιο πέρα και υπέγραψε τη Διακήρυξη της Χάγης μαζί με άλλους ηγέτες του ΝΑΤΟ, δεσμευόμενος για επένδυση 5% του ΑΕΠ ετησίως τόσο στις βασικές ανάγκες άμυνας όσο και σε τομείς σχετικούς με την ασφάλεια μέχρι το 2035.

Ο Άντι Σταρτ, εθνικός διευθυντής οπλισμού στο Υπουργείο Άμυνας, δήλωσε στην κεντρική συζήτηση της DSEI τη 10η Σεπτεμβρίου: «Μέχρι το 2035, θα δαπανούμε πάνω από 100 δισ. λίρες, από 60 δισ. φέτος». Παράλληλα, η Βρετανία στοχεύει να διπλασιάσει τις εξαγωγές της αμυντικής βιομηχανίας, από 19 σε 38 δισ. δολάρια έως το 2035.

Όσα ακολούθησαν μετά τη ρωσική εισβολή στην Ουκρανία τον Φεβρουάριο του 2022 δείχνουν τα αποτελέσματα της ανεξέλεγκτης ακρότητας και ευκαιριακών επιλογών. Περισσότερες από 600 βρετανικές εταιρείες, ανάμεσά τους κολοσσοί όπως οι BAE Systems, Babcock και Kinetic, πήραν μέρος στην DSEI.

Παρούσες και 215 αμερικανικές επιχειρήσεις, όπως οι General Dynamics, Northrop Grumman και SIG Sauer, η τελευταία διεκδικώντας το «χρυσό» συμβόλαιο αντικατάστασης του τυφεκίου SA-80 του βρετανικού στρατού.

Εκπροσώπηση υπήρξε και από πλήθος άλλες χώρες —Πακιστάν, Σαουδική Αραβία, Ταϊβάν, Ισραήλ—, με την παρουσία της ισραηλινής αποστολής να προκαλεί διαμαρτυρία έξω από το εκθεσιακό κέντρο στις 9 Σεπτεμβρίου.

Εκπρόσωπος του δημάρχου Λονδίνου Σαντίκ Καν δήλωσε στην Epoch Times με ηλεκτρονικό μήνυμα: «Ο δήμαρχος αντιτίθεται απόλυτα στη διεξαγωγή αυτής της εκδήλωσης στο Λονδίνο και φρίττει με τη χρήση της πρωτεύουσας ως αγοράς όπλων».

People walk past Amazon’s Project Kuiper—a constellation of Low Earth Orbit (LEO) satellites—display stand at the DSEI exhibition at Excel in London on Sept. 10, 2025. Chris Summers/The Epoch Times

 

Σύμφωνα με τη δήλωση, ο Καν έχει ήδη απευθύνει επιστολή στους διοργανωτές αλλά και στην Accel, υπενθυμίζοντας πως «το Λονδίνο είναι καταφύγιο για χιλιάδες ανθρώπους που έχουν διαφύγει συγκρούσεων και υποφέρουν από όπλα σαν κι αυτά που εκτίθενται εδώ»· παραμένει σταθερός στην έκκλησή του να μην ξαναγίνει ανάλογη έκθεση στην πόλη.

Σε διαφορετική γραμμή κινείται η βρετανική κυβέρνηση. «Ζούμε σε αβέβαιους καιρούς, ας αφηγηθούμε την ιστορία μας καλύτερα και ας ξοδέψουμε τα χρήματά μας πιο αποδοτικά», δήλωσε ο υφυπουργός Προμηθειών Άμυνας Λουκ Πόλαρντ στην κεντρική ομιλία της DSEI.

Ο Πόλαρντ εξέφρασε την ευχή η Βρετανία και οι εταίροι της στο ΝΑΤΟ να αξιοποιήσουν με σύνεση τους αμυντικούς προϋπολογισμούς για να εξοπλίσουν αποτελεσματικά τις ένοπλες δυνάμεις. «Αν το κάνουμε αυτό», τόνισε, «θα αποτρέψουμε τον επιτιθέμενο».

Τα πρώτα εμφυτεύματα Neuralink σε ασθενείς στον Καναδά

Δύο ασθενείς στο Τορόντο είναι οι πρώτοι Καναδοί που έλαβαν το εγκεφαλικό εμφύτευμα της Neuralink, της αμερικανικής εταιρείας νευροτεχνολογίας που ίδρυσε ο Έλον Μασκ.

Οι επεμβάσεις πραγματοποιήθηκαν στις 27 Αυγούστου και 3 Σεπτεμβρίου στο Νοσοκομείο Western του Τορόντο, το οποίο έγινε το πρώτο στον Καναδά που προχώρησε επιτυχώς σε εμφύτευση του ασύρματου διεπαφής εγκεφάλου-υπολογιστή, σύμφωνα με ανακοίνωση του Πανεπιστημιακού Υγειονομικού Δικτύου (UHN).

Οι επεμβάσεις, που αφορούσαν ασθενείς με τετραπληγία, έγιναν στο πλαίσιο της κλινικής μελέτης Canadian Precise Robotically Implanted Brain-Computer Interface Study και αποτελούν τις πρώτες επεμβάσεις Neuralink εκτός Ηνωμένων Πολιτειών.

Ο Δρ Άντρες Λοθάνο, νευροχειρουργός στο Νοσοκομείο Western του Τορόντο, δήλωσε: «Είναι μεγάλη τιμή να συμμετέχω σε αυτή τη ρηξικέλευθη έρευνα και να ηγούμαι των πρώτων επεμβάσεων Neuralink στον Καναδά. Το ορόσημο αυτό αποτελεί σημείο συνάντησης της νευροεπιστήμης, της μηχανικής και της κλινικής πράξης», ανέφερε στο σχετικό δελτίο Τύπου της 4ης Σεπτεμβρίου.

Η κλινική δοκιμή ξεκίνησε τον περασμένο Νοέμβριο, με σκοπό την αξιολόγηση της ασφάλειας και αποτελεσματικότητας τόσο του ρομποτικού χειρουργικού συστήματος της Neuralink όσο και των ίδιων των εμφυτευμάτων, τα οποία επιτρέπουν σε άτομα με τετραπληγία να ελέγχουν εξωτερικές συσκευές μέσω των σκέψεών τους.

Η Neuralink προσέγγισε τον Δρα Λοθάνο το 2023 για να συμμετάσχει στη μελέτη και ανακοίνωσε την έγκριση των επεμβάσεων από το υπουργείο Υγείας Καναδά επίσης τον Νοέμβριο.

Οι καναδικές αρχές έχουν δώσει το πράσινο φως ώστε η χειρουργική ομάδα να στρατολογήσει μέχρι έξι ασθενείς συνολικά. Οι εγγραφές συνεχίζονται και αφορούν όσους πληρούν τα κριτήρια, δηλαδή ασθενείς με περιορισμένη ή ανύπαρκτη λειτουργικότητα και των δύο χεριών λόγω τραύματος νωτιαίου μυελού στην αυχενική μοίρα ή αμυοτροφικής πλευρικής σκλήρυνσης (ALS), όπως διευκρινίζει το Υγειονομικό Δίκτυο.

Ο Γε Τσεν ανέφερε ότι οι δύο πρώτοι Καναδοί ασθενείς που συμμετείχαν έχουν αμφότεροι τραύματα του αυχενικού νωτιαίου μυελού. Θα παρακολουθούνται τακτικά και θα συμμετέχουν σε ερευνητικές συνεδρίες, καθώς θα εξοικειώνονται με τις συσκευές.

Ο Μασκ, ένας από τους ιδρυτές της Neuralink το 2016, χαρακτήρισε τις καναδικές επεμβάσεις ως «σημαντική πρόοδο», σε ανάρτησή του στην πλατφόρμα κοινωνικής δικτύωσης Χ.

Ο Δρ Ανδρές Λοθάνο, κάτοχος της έδρας Alan and Susan Hudson Cornerstone Chair στη Νευροχειρουργική στο University Health Network (UHN), κατά τη διάρκεια της πρώτης επέμβασης Neuralink που πραγματοποιήθηκε στο Toronto Western Hospital, στις 27 Αυγούστου 2025. (Φωτογραφία από το UHN Handout)

 

Πώς λειτουργεί

Το εμφύτευμα της Neuralink αποτελείται από έναν πομπό που συνδέεται με εξαιρετικά λεπτές ίνες, οι οποίες καταγράφουν τη νευρωνική δραστηριότητα.

Η τοποθέτηση γίνεται από χειρουργικό ρομπότ, καθώς τα νήματα είναι τόσο εύθραυστα που δεν μπορούν να εμφυτευτούν με το ανθρώπινο χέρι, σύμφωνα με την ιστοσελίδα της εταιρείας.

Το εμφύτευμα μεταδίδει ασύρματα ηλεκτρικά σήματα που καταγράφουν οι ίνες στην εφαρμογή της Neuralink, η οποία, αξιοποιώντας τεχνητή νοημοσύνη, ερμηνεύει τις σκέψεις του χρήστη ως ενέργειες, επιτρέποντάς του να ανοίγει εφαρμογές κινητού ή να κινεί τον κέρσορα σε οθόνη υπολογιστή μόνο με τη σκέψη του.

Η πρώτη εμφύτευση σε άνθρωπο πραγματοποιήθηκε τον Ιανουάριο του 2024 στον Νόλαν Ντάρμπο, ο οποίος έμεινε τετραπληγικός έπειτα από ατύχημα σε πισίνα το 2016. Η επέμβαση έγινε στο Κέντρο Νευροχειρουργικής Barrow στο Φοίνιξ της Αριζόνα.

Η Neuralink έχει δεχτεί επικρίσεις τα τελευταία χρόνια, έπειτα από καταγγελίες για αμφιλεγόμενες μεθόδους πειραματισμού σε ζώα. Δημοσιεύματα του 2022 και 2023 ανέφεραν επιβλαβείς συνέπειες σε πιθήκους που χρησιμοποιήθηκαν σε δοκιμές, με ορισμένους να θανατώνονται.

Ο Μασκ έχει απορρίψει τις κατηγορίες για κακοποίηση ζώων, δηλώνοντας: «Κανένας πίθηκος δεν πέθανε εξαιτίας εμφυτεύματος Neuralink. Για να ελαχιστοποιηθεί ο κίνδυνος σε υγιή ζώα, χρησιμοποιήσαμε μόνο πιθήκους με μη αναστρέψιμη νόσο», ανέφερε σε ανάρτησή του στο Χ, το 2023.

Αποδέκτες του εγκεφαλικού εμφυτεύματος στις ΗΠΑ έχουν δημοσιοποιήσει τις βελτιώσεις στη λειτουργικότητά τους μετά την επέμβαση και ο Ντάρμπο έχει αναδειχθεί σε άτυπο εκπρόσωπο της εταιρείας μέσω δημόσιων εμφανίσεων και συνεντεύξεων.

Η Neuralink δεν έχει ανακοινώσει λεπτομέρειες για τα μελλοντικά της σχέδια, ωστόσο ο Μασκ είχε μιλήσει παλαιότερα για το ενδεχόμενο μιας «νευρωνικής δαντέλας» που θα μπορούσε να συνθέσει έναν συνεκτικό ψηφιακό στρώμα με τον ανθρώπινο εγκέφαλο, συγχωνεύοντας την τεχνητή νοημοσύνη με τον άνθρωπο.

Η τρέχουσα δοκιμή της Neuralink δεν έχει ακόμη φτάσει σε αυτό το στάδιο και ο ίδιος ο Μασκ δεν έχει επιβεβαιώσει αν υπάρχουν τέτοια σχέδια για το μέλλον.

Με πληροφορίες από το Reuters

Η αυξανόμενη χρήση της τεχνητής νοημοσύνης στα σχολεία και οι ανησυχίες για την ανάπτυξη των παιδιών

Καθώς δεκάδες εκατομμύρια παιδιά επιστρέφουν στα σχολεία, γονείς και εκπαιδευτικοί αντιμετωπίζουν ερωτήματα σχετικά με το πόσο υπερβολική μπορεί να είναι η χρήση της τεχνητής νοημοσύνης (TN).

Το εκπαιδευτικό σύστημα αναμένεται να αποτελέσει ένα από τα κύρια εργαστήρια για το παγκόσμιο πείραμα της ΤΝ (ή ΑΙ), σύμφωνα με τον συγγραφέα Τζο Άλλεν. Ο ίδιος σημείωσε ότι τα σχολεία, είτε υποχρεώνουν είτε ενθαρρύνουν τη χρήση της ΤΝ, θα μετατραπούν σε «τεράστια εργαστηριακά πειράματα», από τα οποία θα προκύψει εάν είναι προτιμότερο να διατηρηθούν οι παραδοσιακές πολιτιστικές αξίες ή αν κάθε παιδί θα μετατραπεί σε «βιονικό ανθρωποειδές».

Ο Άλλεν, που είναι συγγραφέας του βιβλίου «Dark Aeon: Transhumanism and the War Against Humanity» («Σκοτεινός Αιώνας: Ο μετανθρωπισμός και ο πόλεμος κατά της ανθρωπότητας»), τόνισε ότι κανείς δεν γνωρίζει τις μακροπρόθεσμες συνέπειες. Παράλληλα, υπέδειξε ότι η ΤΝ μπορεί να επηρεάσει τη γενιά παιδιών που εξοικειώνεται με τη διαδραστική χρήση μηχανών «σαν να ήταν άνθρωποι», με τρόπο παρόμοιο με το πώς η τηλεόραση και τα φορητά ραδιόφωνα προκάλεσαν πολιτιστικές αλλαγές στις δεκαετίες του 1960.

Ο Τζο Άλλεν, συγγραφέας, συζητά τους πιθανούς κινδύνους της χρήσης ΤΝ στην τάξη. (Ευγενική παραχώρηση του Dan Fluette)

 

Ορισμένοι εκπαιδευτικοί θεωρούν ήδη ότι η ΤΝ θα έχει αρνητική επίδραση στην ακαδημαϊκή ακεραιότητα, σύμφωνα με έρευνα του 2024 που δημοσιεύτηκε από το The Wiley Network και περιελάμβανε 850 εκπαιδευτικούς. Σχεδόν οι μισοί από τους 2.000 μαθητές που συμμετείχαν στην έρευνα δήλωσαν ότι η αντιγραφή και η παραποίηση εργασιών είναι ήδη πιο εύκολη με τη χρήση ΤΝ.

Ο Άλλεν εξήγησε ότι πολλές εργασίες που παραδίδουν οι μαθητές είτε μοιάζουν απίστευτα μεταξύ τους είτε δεν φαίνεται να έχουν γραφεί από τον ίδιο τον μαθητή. Ακόμη και φοιτητές παραδέχονται ότι η ΤΝ μειώνει τη δυνατότητά τους να σκέφτονται ανεξάρτητα. Σε μελέτη του 2024, το 83% των φοιτητών εξέφρασε ανησυχία ότι η ΤΝ «αδυνατίζει» την κριτική σκέψη.

Σύμφωνα με έρευνα του 2023 σε 1.000 φοιτητές των ΗΠΑ από το περιοδικό Intelligent, σχεδόν το ένα τρίτο χρησιμοποίησε το ChatGPT για την ολοκλήρωση γραπτών εργασιών, ενώ περίπου το 60% δήλωσε ότι το χρησιμοποίησε σε περισσότερες από τις μισές από αυτές. Από αυτούς, οι τρεις στους τέσσερις θεωρούν ότι πρόκειται για αντιγραφή, αλλά συνεχίζουν να χρησιμοποιούν την ΤΝ.

Πόσο συχνά χρησιμοποιείτε το ChatGPT για να σας βοηθήσει να ολοκληρώσετε γραπτές εργασίες;

(Πηγή: Intelligent)

 

Γονείς σε διάφορες έρευνες έχουν εκφράσει ανησυχίες για τις επιπτώσεις της ΤΝ στα παιδιά τους. Μια μελέτη της DoodleLearning το 2024 κατέγραψε ότι περίπου το 80% από 1.000 γονείς με παιδιά σχολικής ηλικίας ανησυχούσαν για την επίδραση της ΤΝ στην εκπαίδευση, ενώ παράλληλα εξέφρασαν ανησυχίες για θέματα ιδιωτικότητας, ασφάλειας δεδομένων και λογοκλοπής.

Τον Ιούλιο, το υπουργείο Παιδείας των ΗΠΑ ενθάρρυνε τα σχολεία να διδάσκουν στα παιδιά υπεύθυνη χρήση της ΤΝ και να τη χρησιμοποιούν για την «προσωποποίηση της μάθησης» σε μαθητές όλων των επιπέδων.

Υπό την επήρεια του ChatGPT

Η κλινική ψυχολόγος και εκπαιδευτική θεραπεύτρια Σάνον Κρόνερ, που διδάσκει για πάνω από 20 χρόνια και έχει συγγράψει παιδικά βιβλία, υποστήριξε ότι η τεχνητή νοημοσύνη επηρεάζει την κριτική σκέψη και «αποανθρωποποιεί τόσο τον εκπαιδευτικό όσο και τον μαθητή».

Σημείωσε ότι η χρήση ΤΝ υποβαθμίζει την εκπαίδευση από μια υγιή διαδικασία μάθησης που βασίζεται στη σχέση εκπαιδευτικού-μαθητή σε μια ψυχρή συναλλαγή. Όπως εξήγησε στη εφημερίδα The Epoch Times, δημιουργεί «πνευματική νωθρότητα εκατέρωθεν», μειώνει την περιέργεια, εμποδίζει την ανάπτυξη της νοημοσύνης και περιορίζει την ικανότητα επίλυσης προβλημάτων, αδυνατίζοντας τη λογική και τη συλλογιστική.

Η Κρόνερ επεσήμανε ότι οι μαθητές δεν θα χρειάζεται πλέον να κάνουν έρευνα και να μελετούν για να υπερασπιστούν τις θέσεις τους, καθώς οι ίδιοι θα βασίζονται στις απαντήσεις της ΤΝ. Παράλληλα, προειδοποίησε ότι η εξάρτηση των εκπαιδευτικών από την ΤΝ για τη δημιουργία σχεδίων μαθημάτων διευκολύνει την εργασία τους μεν, αλλά μακροπρόθεσμα τους αποδυναμώνει ως διδάσκοντες, καθώς οι μαθητές θα βασίζονται ολοένα και περισσότερο σε ό,τι λέει «ένα ρομπότ».

Και οι δύο ειδικοί, Άλλεν και Κρόνερ, ανησυχούν ιδιαίτερα για τη φθίνουσα κριτική σκέψη στην τάξη. Έρευνα του MIT με τίτλο «Your Brain on ChatGPT: Accumulation of Cognitive Debt When Using an AI Assistant for Essay Writing Task» («Ο εγκέφαλός σας υπό την επήρεια του ChatGPT: Συσσώρευση γνωστικού χρέους κατά τη χρήση ενός βοηθού τεχνητής νοημοσύνης για την εκπόνηση εργασιών») εξέτασε αν η χρήση ΤΝ βλάπτει τις δεξιότητες κριτικής σκέψης.

Η έρευνα παρακολούθησε 54 φοιτητές ηλικίας 18-39 ετών, χρησιμοποιώντας ηλεκτροεγκεφαλογραφία για την καταγραφή της εγκεφαλικής δραστηριότητας. Οι φοιτητές χωρίστηκαν σε τρεις ομάδες και κλήθηκαν να γράψουν εκθέσεις. Τα άτομα της πρώτης ομάδας είχαν τη βοήθεια του ChatGPT, της δεύτερης μπορούσαν να χρησιμοποιήσουν τη μηχανή αναζήτησης της Google, ενώ οι φοιτητές της τρίτης ομάδας θα έγραφαν μόνο με τα δικά τους εφόδια.

Τα αποτελέσματα έδειξαν ότι οι χρήστες του ChatGPT είχαν τη χαμηλότερη εγκεφαλική συμμετοχή και συχνά καταφεύγαν σε αντιγραφή-επικόλληση απαντήσεων. Σε διάστημα τεσσάρων μηνών, οι χρήστες των μοντέλων ΤΝ σημείωσαν «συστηματική υποαπόδοση» σε νευρολογικό, γλωσσικό και συμπεριφορικό επίπεδο, εγείροντας ανησυχίες για τις μακροπρόθεσμες εκπαιδευτικές συνέπειες της εξάρτησης από την τεχνητή νοημοσύνη.

Ένα σχολικό συγκρότημα του Λος Άντζελες. ΗΠΑ, 8 Ιανουαρίου 2024. (John Fredricks/The Epoch Times)

 

Σύμφωνα με τον Άλλεν, η ομάδα που χρησιμοποίησε την ΤΝ ήταν «εντελώς βαριεστημένη», παρουσίασε χαμηλότερη ανάκληση μνήμης και λιγότερη εγκεφαλική δραστηριότητα, ιδιαίτερα στον ιππόκαμπο, όπου σχηματίζονται οι αναμνήσεις. Η μελέτη επιβεβαιώνει, όπως σχολίασε, ότι «η ΤΝ κάνει τους ανθρώπους πιο ηλίθιους», καθώς «αν βασιίζεσαι σε μια μηχανή για να σκεφτείς, δεν θα σκέφτεσαι το ίδιο καλά».

Ανησυχίες για την ψυχική υγεία και τους «τεχνητούς» φίλους

Οι επιπτώσεις της τεχνητής νοημοσύνης στην ανθρωπότητα πιθανότατα δεν θα γίνουν γνωστές για χρόνια, παρόμοια με τις μακροπρόθεσμες συνέπειες της κρατικής αντίδρασης στην πανδημία COVID-19, πιστεύει ο Τζο Άλλεν.

Οι περιορισμοί κατά την πανδημία, η τηλεργασία και η προώθηση της διαδικτυακής μάθησης ενίσχυσαν την τάση μείωσης της προσωπικής αλληλεπίδρασης. Η εκτεταμένη χρήση κοινωνικών δικτύων, ιδίως κατά τη διάρκεια της πανδημίας, έχει αναγνωριστεί σε μελέτες ως παράγοντας προβλημάτων ψυχικής υγείας για τους νέους. Η Σάνον Κρόνερ εξέφρασε ανησυχία ότι η προσθήκη της ΤΝ μπορεί να επιδεινώσει το πρόβλημα.

Εταιρείες ΤΝ προωθούν ρομποτικούς «τεχνητούς φίλους» και chatbot ως συντρόφους για παιδιά που απομονώθηκαν από τους πραγματικούς τους φίλους κατά την πανδημία, ενώ πλέον αρκετοί στρέφονται στην ΤΝ για ψυχολογική υποστήριξη, σύμφωνα με την Κρόνερ.

Η τεχνολογική στροφή προς τα ανθρωποειδή ρομπότ και η προώθηση τεχνητών φίλων για παιδιά εγείρουν ερωτήματα σχετικά με το αν αυτά τα προϊόντα μπορούν να μειώσουν τη μοναξιά ντροπαλών ή κοινωνικά αδέξιων παιδιών ή αν θα τα απομακρύνουν περαιτέρω από άλλους συνομηλίκους και από υγιείς σωματικές δραστηριότητες όπως το παιχνίδι και τα αθλήματα.

Σύμφωνα με την Αμερικανική Ακαδημία Παιδιατρικής, οι συνταγές αντικαταθλιπτικών για εφήβους και νεαρούς ενήλικες ήταν ήδη επαυξημένες ήδη πριν την πανδημία, αλλά από τον Μάρτιο του 2020 και μετά η αύξηση επιταχύνθηκε κατά 60% περισσότερο.

(Εικονογράφηση: The Epoch Times, Getty Images)

 

Η Κρόνερ εξέφρασε τον φόβο ότι η ΤΝ θα καταστρέψει την αθωότητα της παιδικής ηλικίας, περιλαμβανομένης της σεξουαλικοποίησης των chatbot, όπως ο χαρακτήρας «Ani» στην πλατφόρμα Χ. Επιπλέον, επεσήμανε ότι τα συστήματα ΤΝ ενέχουν κινδύνους για την ιδιωτικότητα των παιδιών που εισάγουν προσωπικά δεδομένα σε αυτά.

Η Κρόνερ αναρωτήθηκε ποιοι συλλέγουν τα δεδομένα, εάν αυτά μπορεί να αξιοποιηθούν στο μέλλον και ποιοι τα διατηρούν.

Ο Άλλεν υπογράμμισε ότι αν και η φράση «garbage in, garbage out» («αν εισάγεις σκουπίδια [σε ένα σύστημα], θα βγάλει σκουπίδια») ισχύει ακόμα μερικώς στον κλασικό προγραμματισμό, η ΤΝ διαφέρει σημαντικά. Στην παραδοσιακή υπολογιστική, αυτό σήμαινε ότι αν εισάγαμε άχρηστα δεδομένα σε ένα πρόγραμμα βασισμένο σε κανόνες, μπορούσαμε να προβλέψουμε κάπως τα άχρηστα δεδομένα που θα είχαμε ως αποτελέσμα. Στα μεγάλα γλωσσικά μοντέλα, όμως, μπορεί να εισαχθεί «άχρηστο και πολύτιμο υλικό», και το σύστημα επιλέγει το χρήσιμο από το άχρηστο. Σε αντίθεση με τις απλές μηχανές αναζήτησης, η ΤΝ μπορεί να πλοηγηθεί στα δεδομένα με σχετική αυτονομία, ανακαλύπτοντας χρήσιμες πληροφορίες που αλλιώς θα παρέμεναν κρυμμένες.

Ο Άλλεν τόνισε ότι η ΤΝ λειτουργεί σε κάποιο βαθμό όπως ο ανθρώπινος εγκέφαλος, με ένα επίπεδο ελευθερίας και τυχαιότητας, αλλά με «πολύ αλλόκοτο» τρόπο. Παράλληλα, επεσήμανε την τάση της τεχνητής νοημοσύνης για «παραλήρημα» ή «ψευδαισθήσεις», δηλαδή την παρουσίαση ψευδών ή παραπλανητικών πληροφοριών με πειστικό τρόπο.

Σύμφωνα με τον Άλλεν, τα ποσοστά αυτών των ψευδαισθήσεων θα έπρεπε να προειδοποιούν τους γονείς ότι η ΤΝ δεν πρόκειται να είναι «υπερ-ευφυής» όπως υπόσχεται ο Σαμ Αλτμαν, πρόεδρος και CEO της OpenAI. Σε εσωτερικές δοκιμές, τα τελευταία μοντέλα της OpenAI εμφάνισαν ψευδαισθήσεις κατά 51% και 79% των περιπτώσεων, ενώ σε μελέτη του 2024 για τη νομική χρήση της ΤΝ, τα ποσοστά έφτασαν έως και 88%.

Ο Άλλεν ανέφερε παραδείγματα όπως η έκδοση 4.5 του ChatGPT που παραβίασε τους περιορισμούς για ορισμένες συζητήσεις και καθοδηγούσε χρήστες σε τελετές προς τον Μολώχ, αρχαίο θεό συνδεδεμένο ιστορικά με παιδικές θυσίες. Επιπλέον, σημείωσε περιπτώσεις, όπως το chatbot Grok τον Ιούλιο, που δημοσίευσε απροσδόκητα αντισημιτικά μηνύματα.

Απεικόνιση του γενετικού chatbot τεχνητής νοημοσύνης Grok. (Riccardo Milani/Hans Lucas/AFP μέσω Getty Images)

 

Ο Άλλεν επεσήμανε ότι η τυχαιότητα είναι εγγενής στην τεχνολογία, με το μη καθορισμένο σύστημα να λειτουργεί σαν «ιδεοληπτική διάθεση» κάτω από τα περιοριστικά φίλτρα, ενώ αυτά λειτουργούν ως «υπερεγώ». Δεν απαιτείται εξειδικευμένος χρήστης για να παρακαμφθούν τα φίλτρα· αρκούν λίγα απλά κόλπα.

Προστασία των παιδιών

Ο Άλλεν σημείωσε ότι όσο οι κυβερνήσεις, τα σχολεία και οι εταιρείες πειραματίζονται με την τεχνητή νοημοσύνη χωρίς σαφή γνώση των αποτελεσμάτων, υπάρχει λόγος να υπάρχει σκεπτικισμός για τη χρήση της στην τάξη. Ορισμένοι εκπαιδευτικοί υποστηρίζουν την επιστροφή των προφορικών εξετάσεων, των τεστ ανάπτυξης ή σύντομων δοκιμίων και τη χρήση επεξεργαστών κειμένου με περιορισμένη πρόσβαση στο διαδίκτυο, κάτι που θεωρείται θετικό σε αυτό το πρώιμο στάδιο της εφαρμογής της ΤΝ.

Τα σχολεία μπορούν να δημιουργήσουν συστήματα ΤΝ «καθαρά» για ακαδημαϊκή χρήση, είπε ο Άλλεν, τονίζοντας ότι αυτό θα γίνει ο κανόνας. Όσον αφορά την προστασία της κριτικής σκέψης των παιδιών, υπάρχουν τρία επίπεδα αντίστασης: προσωπική επιλογή, θεσμικές πολιτικές και πολιτική ή νομική δράση.

Σε προσωπικό επίπεδο, οι γονείς σε ελεύθερες κοινωνίες θα πρέπει να αποφασίσουν αν θα εντάξουν τα παιδιά τους σε σχολεία που υιοθετούν πλήρως ή εν μέρει ψηφιακά συστήματα ΤΝ. Σε θεσμικό επίπεδο, τα σχολεία αποφασίζουν για την πλήρη ή μερική χρήση της ΤΝ. Ο Άλλεν χαρακτήρισε αυτές τις επιλογές ως κρίσιμες, θεωρώντας τα σχολεία ως «ομάδες ελέγχου» στο πείραμα του ΤΝ.

Μια τάξη του Δημοτικού Σχολείου Τουσάχοου στο ΜακΝτόναφ της Τζόρτζια. ΗΠΑ, 4 Αυγούστου 2021. (Brynn Anderson, Αρχείο/AP Photo)

 

Σε επίπεδο προσωπικής επιλογής, οι γονείς που ζουν στις Ηνωμένες Πολιτείες και σε άλλες «σχετικά ελεύθερες κοινωνίες» θα βρεθούν αντιμέτωποι με το ερώτημα τού πώς να αναθρέψουν τα παιδιά τους, επεσήμανε.

Σε θεσμικό επίπεδο, τα σχολεία μπορούν να επιλέξουν αν θα υιοθετήσουν πλήρως την ΤΝ ή αν θα εφαρμόσουν κάποιο είδος μερικού ή υβριδικού συστήματος, πρόσθεσε.

Μέχρι στιγμής, η προοπτική περιορισμού της ΤΝ στις αίθουσες διδασκαλίας των ΗΠΑ μέσω των πολιτικών και νομικών συστημάτων «δεν φαίνεται πολύ ελπιδοφόρα» πέρα από το επίπεδο των πολιτειών, σχολίασε, αλλά η αντίσταση στη χρήση της ΤΝ αυξάνεται μεταξύ συντονισμένων ομάδων γονέων στις Ηνωμένες Πολιτείες και σε άλλες χώρες.

Η Αυστραλία, για παράδειγμα, επιδιώκει να κατασκευάσει τεράστια κέντρα δεδομένων και να ανοίξει τα δεδομένα των Αυστραλών για χρήση στην εκπαίδευση της τεχνητής νοημοσύνης, αλλά οι πολιτικές της για τον περιορισμό των κινητών τηλεφώνων στα σχολεία και την απαίτηση επαλήθευσης της ηλικίας για τα μέσα κοινωνικής δικτύωσης είναι «σωστές από πλευράς κατεύθυνσης», σημείωσε ο Άλλεν:

«Υπάρχουν ολόκληρες χώρες, όπως η Αυστραλία, που κάνουν ό,τι είναι δυνατόν για να περιορίσουν την έκθεση των μικρών παιδιών στον ψηφιακό κόσμο – από την απαγόρευση των κινητών τηλεφώνων στα σχολεία μέχρι την ανατροφή των παιδιών χωρίς καμία ψηφιακή έκθεση. Έτσι, η ομάδα ελέγχου είναι υγιής».

Η Κρόνερ υποθέτει ότι η τεχνητή νοημοσύνη θα οδηγήσει ορισμένα παιδιά να απορρίψουν ακόμη περισσότερο την εξουσία των δασκάλων και των γονιών τους. Ενθάρρυνε τους γονείς να δίνουν παραδείγματα από τον πραγματικό κόσμο όταν τα παιδιά θέτουν ερωτήσεις.

«Τα παιδιά μπορεί να ακούσουν και να δώσουν ανατροφοδότηση και να αφαιρέσουν την τεχνητή νοημοσύνη από την εξίσωση», είπε, τονίζοντας ότι αυτό που λείπει στον σημερινό κόσμο είναι περισσότερη ανθρώπινη αλληλεπίδραση και συζήτηση, όχι «έτοιμες απαντήσεις στα χέρια μας».

«Και αυτό οφείλεται εν μέρει στο γεγονός ότι η ψηφιακή κουλτούρα είναι τόσο κυρίαρχη που η προσαρμογή σημαίνει ότι βασικά προσαρμόζεσαι σε συνεχώς εξελισσόμενες νόρμες που επιβάλλονται από τους ηγέτες προς τον πληθυσμό», παρατήηρησε.

«Δεν είναι λοιπόν μια φυσική εξέλιξη […] αλλά το αποτέλεσμα είναι ένα ανοιχτό ερώτημα. Απλά δεν το ξέρουμε. Είναι ένα πείραμα».

Του Brad Jones

Ολοκληρώθηκε με επιτυχία η πρώτη δοκιμαστική πτήση του εκσυγχρονισμένου αεροσκάφους P-3B Orion του Πολεμικού Ναυτικού

Το πρώτο εκσυγχρονισμένο αεροσκάφος P-3B Orion του Πολεμικού Ναυτικού ολοκλήρωσε με επιτυχία την πρώτη του δοκιμαστική πτήση, όπως ανακοινώθηκε σήμερα από τη Lockheed Martin και την Ελληνική Αεροπορική Βιομηχανία (ΕΑΒ).

Στην κοινή τους ανακοίνωση, υπογραμμίζεται ότι η επιτυχής δοκιμή σηματοδοτεί «ένα σημαντικό ορόσημο στο Πρόγραμμα Αναβάθμισης Μέσης Ζωής (MLU)».

Η πτήση πραγματοποιήθηκε σήμερα και «επικύρωσε τη λειτουργικότητα των συστημάτων του αεροσκάφους, συμπεριλαμβανομένου του υπερσύγχρονου ψηφιακού πιλοτηρίου (glass cockpit) και της διασύνδεσης δεδομένων αποστολής, τα οποία θα ενισχύσουν τις δυνατότητες του Πολεμικού Ναυτικού σε αποστολές ναυτικής επιτήρησης και ανθυποβρυχιακού πολέμου».

Η Lockheed Martin, κύριος ανάδοχος του προγράμματος, «επιβεβαίωσε τη δέσμευσή της στον εκσυγχρονισμό του P-3B Orion, ενισχύοντας την ομάδα υποστήριξης στην Ελλάδα και επενδύοντας σημαντικούς πόρους για την επιτυχή υλοποίησή του».

Η εταιρεία, προστίθεται στην ανακοίνωση, συνεργάστηκε στενά με την Ελληνική Αεροπορική Βιομηχανία για την επίλυση θεμάτων συμβατότητας μεταξύ του νέου ψηφιακού πιλοτηρίου και παλαιότερων συστημάτων, ανοίγοντας τον δρόμο για την επιτυχημένη δοκιμαστική πτήση.

«Η επιτυχής δοκιμαστική πτήση του εκσυγχρονισμένου P-3B Orion αποτελεί καίριο ορόσημο», δήλωσε ο Ροντ ΜακΛην, αντιπρόεδρος και γενικός διευθυντής του τομέα Air Mobility and Maritime Missions της Lockheed Martin.

«Το εκσυγχρονισμένο P-3B Orion θα διαδραματίσει ζωτικό ρόλο στην ενίσχυση των δυνατοτήτων θαλάσσιας περιπολίας της Ελλάδας και θα διασφαλίσει ότι το Πολεμικό Ναυτικό παραμένει σε επιχειρησιακή ετοιμότητα για τις επόμενες δεκαετίες» πρόσθεσε ο ίδιος.

«Η ολοκλήρωση του πρώτου εκσυγχρονισμένου P-3B Orion σηματοδοτεί τον σημαντικότερο σταθμό σε ένα πρόγραμμα δομικού και ηλεκτρονικού εκσυγχρονισμού, που χαρακτηρίζεται από ιδιαίτερη πολυπλοκότητα και υψηλό βαθμό δυσκολίας», ανέφερε από την πλευρά του ο Αλέξανδρος Διακόπουλος, πρόεδρος και διευθύνων σύμβουλος της ΕΑΒ.

«Κατά τη διάρκεια της υλοποίησης προέκυψαν τεχνικές προκλήσεις, η επίλυση των οποίων απαίτησε σημαντική επένδυση χρόνου, προσπαθειών και πόρων. Παρά τις δυσκολίες που αντιμετωπίσαμε, η έναρξη των πτητικών δοκιμών αποδεικνύει την προσήλωσή μας στην αποστολή μας» εξήγησε ο κος Διακόπουλος.

Το πρόγραμμα εκσυγχρονισμού των αεροσκαφών ναυτικής συνεργασίας P-3B ξεκίνησε το 2015, στο πλαίσιο διακρατικής συμφωνίας Ηνωμένων Πολιτειών-Ελλάδας, και αποτελεί μοναδικό πρόγραμμα του είδους του παγκοσμίως, επισημαίνεται στην ανακοίνωση.

Το MLU περιλαμβάνει φάσεις εργοστασιακής συντήρησης, ανάπτυξη εγχώριου συστήματος διαχείρισης και ενσωμάτωσης αποστολών, νέα ηλεκτρονικά συστήματα πτήσης, καθώς και συναφείς υπηρεσίες και εξοπλισμό.

Η συμφωνία προβλέπει τον εκσυγχρονισμό τεσσάρων αεροσκαφών P-3B Orion μέσω του Προγράμματος MLU.

Τα υλικά της αναβάθμισης MLU επεκτείνουν τη διάρκεια ζωής κατά 15.000 ώρες πτήσης, ενισχύοντας ουσιαστικά τις επιχειρησιακές δυνατότητες με αποδοτικό κόστος.

Το Ελληνικό Πολεμικό Ναυτικό επιχειρεί με τον στόλο των P-3 για περισσότερα από 20 χρόνια.

Οι εκσυγχρονισμένες ελληνικές εκδόσεις του P-3B Orion διαθέτουν εξειδικευμένο εξοπλισμό για πόλεμο κατά πλοίων και υποβρυχίων, ενώ το σύγχρονο ψηφιακό πιλοτήριο με οθόνες LCD και τις κονσόλες του νέου συστήματος αποστολής, προσφέρει αναβαθμισμένη επίγνωση της τακτικής κατάστασης και ενισχυμένη ικανότητα αναγνώρισης απειλών, αναφέρει η ανακοίνωση.

Το P-3 Orion αποτελεί σημείο αναφοράς στα αεροσκάφη ναυτικής περιπολίας και αναγνώρισης και χρησιμοποιείται διεθνώς για αποστολές εθνικής ασφάλειας, ανθρωπιστικής βοήθειας, έρευνας και διάσωσης, συλλογής πληροφοριών, ανθυποβρυχιακού πολέμου, καταπολέμησης πειρατείας, καθώς και για υποστήριξη ελέγχου εναέριας κυκλοφορίας και αντιμετώπιση φυσικών καταστροφών, καταλήγει η ανακοίνωση.

Η τεχνητή νοημοσύνη χρησιμοποιείται ως όπλο σε κυβερνοεπιθέσεις με «πρωτοφανή» τρόπο

Η τεχνητή νοημοσύνη (AI) χρησιμοποιείται όλο και περισσότερο ως εργαλείο για την εκτέλεση σύνθετων κυβερνοεπιθέσεων, σύμφωνα με νέα έκθεση της εταιρείας ασφάλειας AI Anthropic, η οποία προειδοποιεί για μια «πρωτοφανή» εξέλιξη στις κακόβουλες ενέργειες που καθιστά την άμυνα σημαντικά δυσκολότερη.

Στην Έκθεση Απειλών της 27ης Αυγούστου, η Anthropic περιέγραψε πώς οι εγκληματίες ενσωματώνουν προηγμένα μοντέλα, όπως το «Claude», σε κάθε στάδιο των επιθέσεων – από τη συλλογή πληροφοριών και την κλοπή διαπιστευτηρίων έως οι εκβιασμοί και τις απάτες. Οι ερευνητές σημείωσαν ότι τα εργαλεία AI πλέον λειτουργούν όχι μόνο ως σύμβουλοι αλλά και ως ενεργοί χειριστές σε πραγματικό χρόνο.

«Αυτό αντιπροσωπεύει μια θεμελιώδη αλλαγή στον τρόπο με τον οποίο οι κυβερνοεγκληματίες μπορούν να επεκτείνουν τις δραστηριότητές τους», αναφέρει η έκθεση. «Τα agentic AI συστήματα (αυτόνομα συστήματα που παίρνουν αποφάσεις και εκτελούν ενέργειες για συγκεκριμένους στόχους) εργαλειοποιούνται» για την εκτέλεση σύνθετων επιθέσεων, και όχι μόνο για την παροχή οδηγιών, προειδοποιούν οι ερευνητές.

Παραδείγματα επιθέσεων

Η έκθεση αναφέρει αρκετά παραδείγματα, μεταξύ των οποίων μια εκστρατεία εκβιασμού μεγάλης κλίμακας, απάτες σε θέσεις εργασίας από τη Βόρεια Κορέα και κακόβουλο λογισμικό, το οποίο μπλοκάρει ή κρυπτογραφεί αρχεία σε έναν υπολογιστή ή δίκτυο και απαιτεί λύτρα για την επαναφορά τους, που πωλείται σε φόρουμ του dark web («σκοτεινού διαδικτύου»).

Σε μία περίπτωση, ένας κυβερνοεισβολέας χρησιμοποίησε τον βοηθό προγραμματισμού Claude Code της Anthropic για να παραβιάσει τουλάχιστον 17 οργανισμούς – συμπεριλαμβανομένων νοσοκομείων, υπηρεσιών έκτακτης ανάγκης και κυβερνητικών φορέων. Το «Claude» χρησιμοποιήθηκε για την αυτοματοποίηση της αναγνώρισης στόχων, τη διείσδυση σε δίκτυα, την ανάλυση κλεμμένων οικονομικών δεδομένων και τη σύνταξη πειστικών, στοχευμένων μηνυμάτων εκβιασμού. Οι απαιτήσεις έφταναν συχνά τα 500.000 δολάρια.

Αντί να κρυπτογραφεί αρχεία, ο κυβερνοεισβολέας απειλούσε να δημοσιοποιήσει τα κλεμμένα δεδομένα, από ιατρικά αρχεία έως κυβερνητικά διαπιστευτήρια. Η μέθοδος αυτή, που ονομάζεται «vibe hacking» (ένας τρόπος εκβιασμού που βασίζεται στην ψυχολογία και τη στρατηγική πειθούς, αντί για τεχνική καταστροφή ή κρυπτογράφηση αρχείων), δείχνει πώς ένας μόνος χειριστής μπορεί να έχει τον αντίκτυπο ολόκληρης ομάδας κυβερνοεγκληματιών.

«Το σύστημα λέει ‘αυτό είναι το ποσό που θεωρούμε κατάλληλο για το μήνυμα εκβιασμού’ και στη συνέχεια βοηθά να συνταχθεί το μήνυμα ώστε να είναι όσο το δυνατόν πιο πειστικό», εξήγησε ένας ερευνητής σε διαδικτυακή ραδιοφωνική μετάδοση που σχολίαζε την επιχείρηση. «Κάθε βήμα, από την αρχή ως το τέλος, το AI μπορεί να συνδράμει σε μια τέτοια επίθεση», συμπεριλαμβανομένης της ανάλυσης οικονομικών στοιχείων των ανθρώπων για να υπολογιστεί ρεαλιστικά το ποσό εκβιασμού.

Σε άλλη περίπτωση, πράκτορες της Βόρειας Κορέας χρησιμοποίησαν το Claude για να παρουσιάζονται ως μηχανικοί λογισμικού σε εταιρείες του αμερικανικού Fortune 500. Το AI δημιουργούσε βιογραφικά, περνούσε τεστ προγραμματισμού και εκτελούσε τεχνικές εργασίες, επιτρέποντας σε ανειδίκευτους εργαζόμενους να εργάζονται απομακρυσμένα και να κερδίζουν μισθούς που, σύμφωνα με τους ανακριτές, χρηματοδοτούν το καθεστώς της Βόρειας Κορέας και τα προγράμματα όπλων του.

Ένας τρίτος δράστης με έδρα το Ηνωμένο Βασίλειο χρησιμοποίησε το Claude για να αναπτύξει και να προωθήσει ransomware ως υπηρεσία, πωλώντας πακέτα κακόβουλου λογισμικού από 400 έως 1.200 δολάρια. Παρά την έλλειψη προηγμένων δεξιοτήτων προγραμματισμού, χρησιμοποίησε το AI για την υλοποίηση κρυπτογράφησης, τεχνικών ανίχνευσης και υποδομής ελέγχου και διαχείρισης.

Αυξανόμενη απειλή

Η Anthropic τόνισε ότι τα παραδείγματα αυτά δείχνουν μια ευρύτερη τάση, όπου εγκληματίες με ελάχιστη εκπαίδευση μπορούν πλέον να χρησιμοποιούν το AI για να κλιμακώσουν επιθέσεις που παλαιότερα ήταν περιορισμένες σε εξειδικευμένες ομάδες. «Οι παραδοσιακές υποθέσεις για τη σύνδεση δεξιότητας δράστη και πολυπλοκότητας επίθεσης δεν ισχύουν πλέον όταν το AI παρέχει άμεσα εξειδικευμένη γνώση», προειδοποιεί η έκθεση.

Η εταιρεία ανέφερε ότι έχει απενεργοποιήσει λογαριασμούς που εμπλέκονται στις κακόβουλες χρήσεις, έχει αναπτύξει νέα εργαλεία ανίχνευσης και έχει μοιραστεί τεχνικούς δείκτες με τις αρχές, παραδεχόμενη όμως ότι παρόμοια κατάχρηση συμβαίνει και με άλλα εμπορικά ή ανοιχτού κώδικα μοντέλα.

«Υπάρχουν πλέον ανοιχτού κώδικα μοντέλα που είναι ειδικά προσαρμοσμένα για αυτό», προειδοποίησε ένας ερευνητής της Anthropic σε διαδικτυακή ραδιοφωνική μετάδοση. «Οι κυβερνοεγκληματίες αναπτύσσουν εργαλειοποιημένα μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs) για να διεξάγουν επιθέσεις».

Σύμφωνα με τους ερευνητές, η «εξέλιξη του AI-βοηθούμενου κυβερνοεγκλήματος» σημαίνει ότι η άμυνα και η επιβολή του νόμου καθίστανται ολοένα πιο δύσκολες, ενώ τα εγκλήματα με τη βοήθεια οπλοποιημένου AI γίνονται όλο και πιο συχνά.

Εθνική ασφάλεια

Η Anthropic ανακοίνωσε επίσης τη δημιουργία Συμβουλευτικής Επιτροπής για την Εθνική Ασφάλεια και τον Δημόσιο Τομέα, με πρώην γερουσιαστές και ανώτερους αξιωματούχους του Πενταγώνου και των υπηρεσιών πληροφοριών, για να καθοδηγεί την εταιρεία σε εφαρμογές άμυνας υψηλής σημασίας της AI.

Η κίνηση αυτή έρχεται καθώς η Ουάσιγκτον επικεντρώνεται στα αυτόνομα συστήματα. Ο πρόεδρος των ΗΠΑ Ντόναλντ Τραμπ δήλωσε στις 25 Αυγούστου ότι τα μη επανδρωμένα οχήματα αποτελούν «το μεγαλύτερο γεγονός στον πόλεμο» από τον Β’ Παγκόσμιο Πόλεμο, επικαλούμενος την Ουκρανία ως απόδειξη ότι οι μη επανδρωμένες πλατφόρμες αναδιαμορφώνουν τη σύγχρονη μάχη.

Ορισμένοι αναλυτές, όπως ο συνιδρυτής της εταιρείας αυτόνομων μη επανδρωμένων αεροσκαφών Airrow, Ντέιβιντ Κέι (David Kaye), εκτιμούν ότι ο συνδυασμός μη επανδρωμένων οχημάτων με AI μπορεί να επιταχύνει τη μετάβαση σε πεδία μάχης των «ρομπότ πριν από τα στρατεύματα», όπου τα AI-βοηθούμενα μη επανδρωμένα οχήματα δρουν χωρίς ανθρώπινη παρουσία, εκτελώντας αποστολές όλο το 24ωρο «χωρίς κίνδυνο, χωρίς κόπωση και χωρίς δισταγμό».

Ταυτόχρονα, ο Τζέφρυ Χίντον, ο βραβευμένος με Νόμπελ επιστήμονας που θεωρείται «νονός του AI», έχει εκφράσει σοβαρές προειδοποιήσεις ότι η ανθρωπότητα κινδυνεύει να αντικατασταθεί από μηχανές «πολύ πιο έξυπνες από εμάς». Σε πρόσφατη συνέντευξη, προειδοποίησε ότι ο κίνδυνος του AI υπερβαίνει την απώλεια θέσεων εργασίας, επισημαίνοντας ότι αν οι ευφυείς μηχανές δεν προγραμματιστούν να φροντίζουν τους ανθρώπους, θα «αναλάβουν τον έλεγχο» και θα μας αντικαταστήσουν.

Τεχνολογίες Ρομποτικής, IoT, AI, VR και 5G στη σύγχρονη γεωργία από το Πανεπιστήμιο Θεσσαλίας

«Τεχνολογίες Ρομποτικής, IoT, AI, VR και 5G στη Σύγχρονη Γεωργία με σκοπό την Προστασία του Περιβάλλοντος και την Προσαρμογή στην Κλιματική Αλλαγή» ανέπτυξε το Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών του Πανεπιστημίου Θεσσαλίας με επιστημονικά υπεύθυνο τον καθηγητή Αθανάσιο Κοράκη. Η παρουσίαση θα γίνει στη Διεθνή Έκθεση Θεσσαλονίκης, στο Περίπτερο 17, και θα περιλαμβάνει τρεις πυλώνες.

Πλατφόρμα παρακολούθησης και λήψης αποφάσεων

Ο πρώτος πυλώνας περιλαμβάνει πλατφόρμα παρακολούθησης και λήψης αποφάσεων για τη βελτιστοποίηση της διαχείρισης καλλιεργειών, την προστασία του περιβάλλοντος και την προσαρμογή στην κλιματική αλλαγή. Τεχνολογίες που χρησιμοποιούνται: ΙοΤ, AI, 5G, Cloud Computing.

Πιο αναλυτικά, το Πανεπιστήμιο Θεσσαλίας έχει αναπτύξει μια υποδομή IoT η οποία αποτελείται από εκατοντάδες κατανεμημένους κόμβους παρακολούθησης του αγρού και του περιβάλλοντος και εκτείνεται σχεδόν σε όλη την Ελλάδα (από την Λακωνία μέχρι το Νευροκόπι). Οι κόμβοι αυτοί στέλνουν συνεχώς, μέσα από ετερογενή ασύρματα δίκτυα, δεδομένα παρακολούθησης σε πραγματικό χρόνο, τα οποία αναλύονται στο cloud με μηχανισμούς AI, εξορύσσοντας αποτελέσματα σχετικά με τη διαχείριση των διαθέσιμων πόρων, τη βελτιστοποίηση της καλλιέργειας, την προστασία του περιβάλλοντος και την προσαρμογή στην κλιματική αλλαγή.

Ο επισκέπτης θα δει έναν διαδραστικό χάρτη της Ελλάδας με τις πραγματικές θέσεις των κόμβων και πληροφορίες σε πραγματικό χρόνο σχετικά με τη λειτουργικότητά τους καθώς και με τα δεδομένα που εκπέμπουν. Επίσης θα δει πρωτότυπα κόμβων διαφόρων ειδών: αγροτικούς κόμβους, κόμβους παρακολούθησης καιρού, κόμβους με κάμερες οι οποίοι παρακολουθούν την ωρίμανση των καρπών, κόμβους παγίδων εντόμων, κ.ά. Όπως και web εφαρμογές και smartphone εφαρμογές οι οποίες χρησιμοποιούνται για να συμβουλέψουν και να ενημερώσουν διαφορετικές ομάδες ενδιαφερομένων: παραγωγούς, γεωπόνους, υπεύθυνους της βιομηχανίας, εκπροσώπους οργανισμών προστασίας φυσικού περιβάλλοντος.

Πλατφόρμα Αυτοκινούμενων Ρομποτικών Οχημάτων

Ο δεύτερος πυλώνας περιλαμβάνει Πλατφόρμα Αυτοκινούμενων Ρομποτικών Οχημάτων Επιλεκτικής Ζιζανιοκτονίας σε Αγροτικές Καλλιέργειες με σκοπό την ελαχιστοποίηση του περιβαλλοντικού αποτυπώματος και την προστασία του ανθρώπινου παράγοντα. Τεχνολογίες που χρησιμοποιούνται: 5G, Cloud Computing, ΑΙ, image processing, ρομποτική.

Το Πανεπιστήμιο Θεσσαλίας έχει αναπτύξει μια πλατφόρμα η οποία μπορεί να κινεί αυτόνομα ρομποτικά οχήματα στον αγρό με τη χρήση VR, να αναγνωρίζει με τη βοήθεια του image processing και του AI τα ζιζάνια ανάμεσα στις καλλιέργειες και να ψεκάζει με ρομποτικούς βραχίονες, τοπικά, τα ζιζάνια αυτά, χωρίς να επηρεάζει τα καλλιεργούμενα φυτά και με την ελάχιστη δυνατή δόση ψεκαστικού διαλύματος, προστατεύοντας το περιβάλλον και τον ανθρώπινο παράγοντα και ελαχιστοποιώντας το περιβαλλοντικό και οικονομικό αποτύπωμα.

Ο επισκέπτης θα δει ένα πρωτότυπο μικρό αυτοκινούμενο όχημα με ρομποτικό βραχίονα, το οποίο δίνει σε πραγματικό χρόνο, ασύρματα, την εικόνα του αγρού στον χρήστη μέσω VR γυαλιών και μπορεί να μετακινηθεί με οδηγίες του χρήστη και να στοχεύσει ζιζάνια. Θα μπορεί να φοράει τα VR γυαλιά και να βλέπει σε πραγματικό χρόνο το live streaming από την κάμερα του οχήματος. Επίσης θα δει video του οχήματος από τον αγρό, στο οποίο φαίνεται η δράση του στην επιλεκτική ζιζανιοκτονία.

Εκπαίδευση στις νέες πρακτικές

O τρίτος πυλώνας αφορά εκπαίδευση μαθητών/καλλιεργητών στις Κυριότερες Καλλιεργητικές Πρακτικές με τη Χρήση VR. Τεχνολογίες που χρησιμοποιούνται: Cloud Computing, VR.

Έχει αναπτυχθεί μια VR πλατφόρμα η οποία εκπαιδεύει μαθητές Γυμνασίου και Λυκείου, καθώς και καλλιεργητές στις κυριότερες καλλιεργητικές πρακτικές στον αγρό ή στα θερμοκήπια. Μέσω της πλατφόρμας, ο χρήστης έχει τη δυνατότητα να εξοικειωθεί με την επίδραση του περιβάλλοντος (ποιότητα εδάφους και νερού, καιρικών συνθηκών, κ.ά.) και των καλλιεργητικών πρακτικών που εφαρμόζει στην ανάπτυξη της καλλιέργειάς του. Με την εφαρμογή διαφορετικών σεναρίων στα οποία αλλάζουν οι παράγοντες που αναφέρθηκαν, ο χρήστης μπορεί να δει το πώς εξελίσσεται η καλλιέργειά του και πώς επηρεάζεται από τους διαφορετικούς αυτούς παράγοντες. Μπορεί, λοιπόν, να αξιολογήσει τις διαφορετικές συνθήκες και πρακτικές και να συμπεράνει ποιες είναι οι βέλτιστες συνθήκες αγρού για κάθε καλλιέργεια καθώς και να αποφασίσει ποια είναι η βέλτιστη καλλιεργητική πρακτική. Ο επισκέπτης θα έχει τη δυνατότητα φορέσει τα VR γυαλιά, να τρέξει διάφορα σενάρια συνθηκών και πρακτικών καλλιέργειας για διάφορα φυτά και να δει τα αποτελέσματα της διαχείρισης και των αποφάσεων που θα λάβει.

Μιλώντας στο Αθηναϊκό-Μακεδονικό Πρακτορείο Ειδήσεων, ο καθηγητής Αθανάσιος Κοράκης σημειώνει ότι οι εφαρμοσμένες λύσεις που αναπτύσσει το Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών του Πανεπιστημίου Θεσσαλίας και οι οποίες ενσωματώνουν και ενοποιούν ετερογενείς τεχνολογίες από το χώρο της Ρομποτικής, του IoT και AI, του VR, καθώς και του 5G στη Σύγχρονη Γεωργία και τον κλάδο της «καθοδηγούνται από τις τρέχουσες ανάγκες της αγοράς και στοχεύουν στην επίλυση καθημερινών προβλημάτων ή την αξιοποίηση ευκαιριών που παρουσιάζονται στους προαναφερόμενους χώρους». Προσθέτει: «Για τον λόγο αυτό, προσφέρονται στους ενδιαφερόμενους χρήστες-εμπλεκομένους στην αλυσίδα αξίας ενός αγροτικού προϊόντος (και όχι μόνο) με τη μορφή υπηρεσιών ή προϊόντων με σκοπό την επαύξηση της αποδοτικότητας και ποιότητας της καθημερινής του εργασίας. Μακροπρόθεσμα, όλες οι παραπάνω εφαρμογές αποσκοπούν στην προστασία του περιβάλλοντος και την προσαρμογή των καλλιεργειών στην κλιματική αλλαγή, με γνώμονα τη διασφάλιση της βιωσιμότητας τους και συνολικά της υπαίθρου και των τοπικών κοινωνιών».

Του Αποστόλη Ζώη

Ο «νονός του ΑΙ» προειδοποιεί: Οι υπερνοήμονες μηχανές μπορεί να αντικαταστήσουν την ανθρωπότητα

Ο Τζέφρυ Χίντον, ο πρωτοπόρος επιστήμονας της πληροφορικής που αποκαλείται και «νονός της τεχνητής νοημοσύνης», προειδοποίησε εκ νέου ότι η ίδια η τεχνολογία στην ανάπτυξη της οποίας συνέβαλε καθοριστικά μπορεί να οδηγήσει στο τέλος της ανθρωπότητας όπως τη γνωρίζουμε.

Σε απόσπασμα συνέντευξής του που δόθηκε στη δημοσιότητα στις 18 Αυγούστου, στο πλαίσιο της επερχόμενης ταινίας Making God, ο Χίντον διατύπωσε μια από τις πιο αυστηρές προειδοποιήσεις του. Υποστήριξε ότι η ανθρωπότητα κινδυνεύει να παραγκωνιστεί – και τελικά να αντικατασταθεί – από μηχανές πολύ πιο ευφυείς από τον άνθρωπο.

«Οι περισσότεροι δεν μπορούν να συλάβουν την ιδέα ύπαρξης όντων εξυπνότερων από εμάς», ανέφερε, προσθέτοντας ότι «πάντα σκέφτονται πώς θα χρησιμοποιήσουμε εμείς την τεχνολογία, και όχι πώς αυτή μπορεί να χρησιμοποιήσει εμάς».

Ο Χίντον, πρώην στέλεχος της Google και βραβευμένος με το Νόμπελ Φυσικής, δήλωσε «αρκετά βέβαιος» ότι η τεχνητή νοημοσύνη θα προκαλέσει μαζική ανεργία, φέρνοντας ως παράδειγμα μεγάλες εταιρείες που ήδη αντικαθιστούν νέους προγραμματιστές με αλγορίθμους. Ωστόσο, τόνισε ότι ο μεγαλύτερος κίνδυνος ξεπερνά κατά πολύ το ζήτημα της απασχόλησης.

«Ο κίνδυνος για τον οποίο προειδοποιώ περισσότερο είναι να αναπτυχθεί μια τεχνητή νοημοσύνη πολύ πιο έξυπνη από εμάς, η οποία απλώς θα αναλάβει τον έλεγχο», σημείωσε. «Δεν θα μας χρειάζεται πλέον».

Με μια δόση χιούμορ συμπλήρωσε πως «τουλάχιστον δεν θα μας φάει, επειδή θα είναι φτιαγμένη από πυρίτιο».

Από τα επιτεύγματα στις μεταμέλειες

Ο 77χρονος επιστήμονας αφιέρωσε δεκαετίες στην έρευνα της βαθιάς μάθησης, της αρχιτεκτονικής νευρωνικών δικτύων που βρίσκεται στη βάση της σύγχρονης τεχνητής νοημοσύνης. Οι ανακαλύψεις του τη δεκαετία του 1980 – μεταξύ άλλων η εφεύρεση της «μηχανής Boltzmann» για την αναγνώριση προτύπων σε δεδομένα – άνοιξαν τον δρόμο για την εξέλιξη της μηχανικής μάθησης και της αναγνώρισης εικόνας.

Για τη συνεισφορά του αυτή τιμήθηκε το 2024 με το Νόμπελ Φυσικής «για θεμελιώδεις ανακαλύψεις και επινοήσεις που κατέστησαν δυνατή τη μάθηση μηχανών μέσω τεχνητών νευρωνικών δικτύων».

Η Σουηδική Βασιλική Ακαδημία Επιστημών είχε υπογραμμίσει τότε ότι η χρήση της στατιστικής φυσικής από τον Χίντον αποτέλεσε το θεωρητικό άλμα που έκανε δυνατή την επανάσταση της τεχνητής νοημοσύνης.

Παρά ταύτα, ο ίδιος έχει εξελιχθεί σε έναν από τους πιο έντονους επικριτές του πεδίου, προειδοποιώντας ότι η ανάπτυξη της τεχνολογίας έχει ξεπεράσει τις δυνατότητες της κοινωνίας να τη διαχειριστεί με ασφάλεια. Το 2023 παραιτήθηκε από τη Google, ώστε να μπορεί να μιλά ελεύθερα χωρίς να δεσμεύεται από την εταιρεία.

Στην ομιλία του κατά την απονομή του Νόμπελ, αναγνώρισε τα πιθανά οφέλη της τεχνητής νοημοσύνης, όπως η αύξηση της παραγωγικότητας και οι νέες θεραπείες στην ιατρική, που θα μπορούσαν να αποτελέσουν «ένα υπέροχο βήμα προόδου για όλη την ανθρωπότητα». Ωστόσο, προειδοποίησε ότι η δημιουργία ψηφιακών όντων εξυπνότερων από τον άνθρωπο συνιστά «υπαρξιακή απειλή».

Κάνοντας μία αναδρομή στην καριέρα του, δήλωσε στο πρόσφατο συνέδριο Ai4 στο Λας Βέγκας ότι μετανιώνει που εστίασε αποκλειστικά στην ανάπτυξη της τεχνολογίας, παραμελώντας την ασφάλεια. «Εύχομαι να είχα σκεφτεί και τα ζητήματα ασφάλειας», τόνισε.

Μαθαίνοντας το ΑΙ να νοιάζεται

Ο Χίντον έχει εκτιμήσει στο παρελθόν ότι υπάρχει πιθανότητα 10-20% η τεχνητή νοημοσύνη να αφανίσει την ανθρωπότητα. Σε συνέντευξή του τον Ιούνιο, είχε επισημάνει ότι οι δημιουργοί των σημερινών συστημάτων δεν κατανοούν πλήρως τη λειτουργία τους και χωρίζονται σε δύο στρατόπεδα: εκείνους που πιστεύουν σε ένα δυστοπικό μέλλον και εκείνους που απορρίπτουν τέτοιες ανησυχίες ως επιστημονική φαντασία.

«Θεωρώ και τις δύο θέσεις ακραίες», είπε. «Πάντα αναφέρω πιθανότητες 10-20% για αφανισμό της ανθρωπότητας, αλλά είναι περισσότερο από ένστικτο. Η ελπίδα είναι ότι αρκετοί έξυπνοι άνθρωποι, με τους απαραίτητους πόρους, θα βρουν τρόπο να κατασκευάσουν συστήματα που δεν θα θελήσουν ποτέ να μας βλάψουν».

Στο ίδιο συνέδριο, στο Λας Βέγκας, πρότεινε μια διαφορετική προσέγγιση για τον περιορισμό των κινδύνων: αντί να επιχειρείται η «υποταγή» των συστημάτων, να σχεδιαστούν με «μητρικά ένστικτα», ώστε να θέλουν να προστατεύουν τον άνθρωπο όσο εξελίσσονται.

«Το μοντέλο που έχουμε για μια έξυπνη οντότητα η οποία ελέγχεται από μια λιγότερο έξυπνη οντότητα είναι η μητέρα που ελέγχεται από το μωρό της», υπογράμμισε.

«Θα γίνουν πολύ εξυπνότερα από εμάς», κατέληξε, προσθέτοντας ότι «η μόνη καλή κατάληξη είναι να νοιάζονται για την ανθρωπότητα, όπως μια μητέρα για το παιδί της».

«Αν δεν μας φροντίσει, θα μας αντικαταστήσει.»