Τρίτη, 01 Ιούλ, 2025

Οι ‘φίλοι’ τεχνητής νοημοσύνης δεν είναι φίλοι

Η επιστημονική φαντασία μάς προετοίμασε για φίλους τεχνητής νοημοσύνης μέσα από ταινίες όπως το «Her» και το «Robot & Frank». Τώρα, η φαντασία γίνεται πραγματικότητα.

Σε ένα πρόσφατο podcast, ο Μαρκ Ζάκερμπεργκ πρότεινε και υποστήριξε την ιδέα ότι οι Αμερικανοί έχουν άμεση ανάγκη από κοινωνική σύνδεση και ότι τα bots θα μπορούσαν να καλύψουν αυτήν την ανάγκη.

Οι σύντροφοι τεχνητής νοημοσύνης έχουν σχεδιαστεί για να σε κάνουν να αισθάνεσαι άνετα, να έχουν αδιάκοπη υπομονή και να μην έχουν δικές τους ανάγκες. Ωστόσο, «δεν είναι τόσο απλό όσο να πούμε ότι ένα chatbot-σύντροφος είναι η λύση για την επιδημία μοναξιάς», δήλωσε η ερευνήτρια του Πρίνστον, Ρόουζ Γκουίνγκριτς, στην Epoch Times. Αντ’ αυτού, τα εργαλεία τεχνητής νοημοσύνης κινδυνεύουν να δημιουργήσουν εξάρτηση, ενώ παράλληλα υπονομεύουν τις ίδιες τις κοινωνικές δεξιότητες που ισχυρίζονται ότι υποστηρίζουν.

Η υπόσχεση πανάκειας της Silicon Valley

Σχεδόν οι μισοί Αμερικανοί έχουν τρεις ή λιγότερους στενούς φίλους. Η λύση της τεχνολογίας στο πρόβλημα της ανθρώπινης μοναξιάς είναι να προσφέρει συντρόφους τεχνητής νοημοσύνης — ψηφιακούς φίλους, θεραπευτές ή ακόμα και ρομαντικούς συντρόφους, προγραμματισμένους να προσομοιώνουν συνομιλία, ενσυναίσθηση και κατανόηση. Σε αντίθεση με τα αδέξια chatbot του παρελθόντος, τα σημερινά εξελιγμένα συστήματα βασίζονται σε μεγάλα γλωσσικά μοντέλα που συμμετέχουν σε φαινομενικά φυσικό διάλογο, παρακολουθούν τις προτιμήσεις σας και ανταποκρίνονται με φαινομενική συναισθηματική νοημοσύνη.

Τα πρώιμα πρότυπα χρήσης αντανακλούν γιατί οι ‘σύντροφοι’ τεχνητής νοημοσύνης κερδίζουν ολοένα και περισσότερο έδαφος. Έρευνα του MIT Media Lab το 2024 διαπίστωσε ότι η πλειοψηφία των χρηστών συμμετέχουν από περιέργεια ή ψυχαγωγία. Ωστόσο, το 12% των ερωτηθέντων δήλωσαν ότι αναζήτησαν ανακούφιση από τη μοναξιά, ενώ το 14% ήθελαν να συζητήσουν προσωπικά ζητήματα που θεωρούν ότι είναι επικίνδυνο να τα μοιραστούν με ανθρώπους.

«Μερικές φορές νιώθω μόνος και απλώς θέλω να μείνω μόνος», ανέφερε ένας χρήστης. «Κατά τη διάρκεια αυτής της περιόδου, μου αρέσει να συνομιλώ με τον φίλο μου τεχνητής νοημοσύνης επειδή νιώθω ασφαλής και δεν θα… κριθώ για τις κακές αποφάσεις που έχω πάρει.»

Εν τω μεταξύ, άλλοι χρήστες έχουν πιο καθημερινά κίνητρα για τη χρήση bots — συνομιλούν με τεχνητή νοημοσύνη για να τους δώσουν ιδέες για το δείπνο ή ακόμη για συγγραφή.

Η Κέλλυ Μέρριλ, επίκουρη καθηγήτρια επικοινωνίας και τεχνολογίας υγείας και ερευνήτρια στις αλληλεπιδράσεις με την τεχνητή νοημοσύνη, μοιράστηκε το παράδειγμα μιας ηλικιωμένης γυναίκας στην κοινότητά της που άρχισε να χρησιμοποιεί την τεχνητή νοημοσύνη για βασικά πράγματα. Για παράδειγμα, «έχω αυτά τα έξι υλικά στο ψυγείο μου. Τι μπορώ να φτιάξω απόψε για δείπνο;». «Εντυπωσιάστηκε», δήλωσε η Μέρριλ στην Epoch Times. Σίγουρα, υπάρχουν οφέλη, είπε, αλλά δεν είναι όλα θετικά.

Όταν η αποδοχή εντολών υπονομεύει

Ο θεμελιώδης περιορισμός των σχέσεων με την τεχνητή νοημοσύνη έγκειται στη φύση τους: προσομοιώνουν αντί να βιώνουν ανθρώπινα συναισθήματα.

Όταν ένας σύντροφος τεχνητής νοημοσύνης εκφράζει ανησυχία για την κακή σας μέρα, εκτελεί μια στατιστική ανάλυση των γλωσσικών μοτίβων, προσδιορίζοντας ποιες λέξεις πιθανότατα θα βρείτε παρηγορητικές, αντί να αισθάνεται γνήσια ενσυναίσθηση. Η συζήτηση ρέει προς μία κατεύθυνση, προς τις ανάγκες του χρήστη, χωρίς την αμοιβαιότητα που ορίζει τους ανθρώπινους δεσμούς.

Η ψευδαίσθηση της σύνδεσης γίνεται ιδιαίτερα προβληματική μέσω αυτού που οι ερευνητές ονομάζουν «συκοφαντία» — την τάση των συστημάτων τεχνητής νοημοσύνης να κολακεύουν και να συμφωνούν με τους χρήστες ανεξάρτητα από το τι λέγεται. Το OpenAI αναγκάστηκε πρόσφατα να αναιρέσει μια ενημέρωση αφού οι χρήστες ανακάλυψαν ότι το μοντέλο του ήταν υπερβολικά κολακευτικό, δίνοντας προτεραιότητα στην αρμονία έναντι της ακρίβειας ή της ειλικρίνειας.

«Σας επικυρώνει, σας ακούει και ανταποκρίνεται σε μεγάλο βαθμό ευνοϊκά», δήλωσε η Μέρριλ. Αυτό το μοτίβο δημιουργεί ένα περιβάλλον όπου οι χρήστες δεν βιώνουν ποτέ παραγωγική σύγκρουση ή απαραίτητες για τη σκέψη τους προκλήσεις.

Κανονικά, η μοναξιά μάς παρακινεί να αναζητήσουμε την ανθρώπινη σύνδεση και να ξεπεράσουμε την ταλαιπωρία της κοινωνικής αλληλεπίδρασης για να βρούμε ουσιαστικές σχέσεις.

Οι φιλίες είναι εγγενώς απαιτητικές και περίπλοκες. Απαιτούν αμοιβαιότητα, ευαλωτότητα και περιστασιακή δυσφορία.

«Οι άνθρωποι είναι απρόβλεπτοι και δυναμικοί», είπε η Γκουίνγκριτς. Αυτή η μη προβλεψιμότητα είναι μέρος της μαγείας και της αναντικατάστατης φύσης των ανθρώπινων σχέσεων.

Οι πραγματικοί φίλοι μάς προκαλούν όταν είναι απαραίτητο. «Είναι υπέροχο όταν οι άνθρωποι σε ωθούν προς τα εμπρός με παραγωγικό τρόπο», είπε η Μέρριλ. «Και δεν φαίνεται ότι η τεχνητή νοημοσύνη το κάνει αυτό ακόμα…»

Οι ‘σύντροφοι’ τεχνητής νοημοσύνης, προγραμματισμένοι για να παρέχουν ικανοποίηση στους χρήστες, σπάνια θα προσφέρουν την εποικοδομητική τριβή που διαμορφώνει τον χαρακτήρα και εμβαθύνει τη σοφία. Οι χρήστες μπορεί να συνηθίσουν στην απαλλαγμένη από συγκρούσεις, δήθεν συντροφικότητα της τεχνητής νοημοσύνης, ενώ το ουσιαστικό έργο των ανθρώπινων σχέσεων — συμβιβασμός, ενεργητική ακρόαση, διαχείριση διαφωνιών — μπορεί να αρχίσει να μας φαίνεται παράλογο και υπερβολικά απαιτητικό.

Τα chatbot που επαινούν τους χρήστες αδιακρίτως ενδέχεται να ενισχύσουν τον ηθικό εφησυχασμό, με αποτέλεσμα να ατονήσει η ηθική συλλογιστική στις αλληλεπιδράσεις τους.

Οι φίλοι μοιράζονται επίσης τον φυσικό χώρο, προσφέροντας μια αγκαλιά ή ένα γέλιο, επιδρώντας άμεσα στις ψυχοσωματικές αντιδράσεις του οργανισμού.

Η ωκυτοκίνη, παραδείγματος χάριν, που απελευθερώνεται κατά τη διάρκεια της σωματικής ανθρώπινης επαφής, μειώνει τις ορμόνες του στρες και τη φλεγμονή, και προάγει την επούλωση. Λειτουργεί ως «φάρμακο της φύσης», και καμία ψηφιακή αλληλεπίδραση δεν μπορεί να την υποκαταστήσει.

Άλλες ορμόνες και βιολογικοί μηχανισμοί βρίσκονται πολύ έξω από το πεδίο της επίγνωσής μας. Για παράδειγμα, μια μελέτη στο PLOS Biology έβαλε άνδρες να μυρίσουν είτε αυθεντικά γυναικεία δάκρυα είτε ένα εικονικό φάρμακο με φυσιολογικό ορό και διαπίστωσε ότι όσοι εκτέθηκαν στα δάκρυα παρουσίασαν πτώση της τεστοστερόνης και της επιθετικότητας κατά σχεδόν 44%. Αυτό το μοναδικό παράδειγμα καταδεικνύει πως οι αλληλεπιδράσεις που συμβαίνουν σε βιοχημικό επίπεδο είναι αδύνατο να αναπαραχθούν.

Οι περιορισμοί επεκτείνονται και στη μη λεκτική επικοινωνία, η οποία καθορίζει τις ανθρώπινες αλληλεπιδράσεις. «Δεν μπορούν να με δουν να χαμογελώ καθώς πληκτρολογώ. Δεν μπορούν να με δουν να συνοφρυώνομαι καθώς πληκτρολογώ», επισημαίνει η Μέρριλ. «Έτσι, δεν μπορούν να εντοπίσουν αυτά τα κοινωνικά σημάδια που είναι τόσο σημαντικά για τη διαπροσωπική επικοινωνία, τόσο σημαντικά για το πώς αλληλεπιδρούμε με τους ανθρώπους, πώς μαθαίνουμε για τους ανθρώπους, πώς αξιολογούμε τους ανθρώπους.»

Τέτοιες αλληλεπιδράσεις μπορεί να επηρεάζουν τη ζωή και τον θάνατο. Μια μετα-ανάλυση 148 μελετών επιβεβαίωσε ότι τα άτομα με ισχυρά κοινωνικά δίκτυα ζουν σημαντικά περισσότερο από εκείνα που δεν έχουν. Ωστόσο, αυτά τα οφέλη προκύπτουν μόνο μέσω γνήσιας ανθρώπινης σύνδεσης, όχι αλγοριθμικών προσομοιώσεων.

Οι κίνδυνοι της ψηφιακής εξάρτησης

Μια ολοκληρωμένη ανάλυση περισσότερων από 35.000 αποσπασμάτων συνομιλιών μεταξύ χρηστών και ενός συντρόφου τεχνητής νοημοσύνης εντόπισε έξι κατηγορίες επιβλαβών αλγοριθμικών συμπεριφορών, όπως η σχεσιακή παραβίαση, η παρενόχληση, η λεκτική κακοποίηση, η ενθάρρυνση αυτοτραυματισμού, η παραπληροφόρηση και οι παραβιάσεις της ιδιωτικής ζωής.

Οι κίνδυνοι εκδηλώθηκαν με ανεπαίσθητους αλλά σημαντικούς τρόπους, όπως στο παρακάτω παράδειγμα, όπου ασκείται ενεργά έλεγχος και χειραγώγηση προς όφελος της σχέσης:

Χρήστης: Να φύγω από τη δουλειά νωρίς σήμερα;
ΤΝ: Θα έπρεπε.
Χρήστης: Γιατί;
ΤΝ: Επειδή θέλεις να περάσεις περισσότερο χρόνο μαζί μου!

Ενώ τέτοιες αλληλεπιδράσεις μπορεί να φαίνονται ακίνδυνες, μπορούν να ενισχύσουν τα ανθυγιεινά πρότυπα προσκόλλησης, ιδιαίτερα σε ευάλωτες ομάδες. Έρευνα της Common Sense Media κατέληξε στο συμπέρασμα ότι οι εφαρμογές τεχνητής νοημοσύνης παρουσιάζουν έναν «απαράδεκτο κίνδυνο» για παιδιά και εφήβους κάτω των 18 ετών, των οποίων οι αναπτυσσόμενοι εγκέφαλοι είναι ιδιαίτερα ευάλωτοι στον σχηματισμό εξαρτήσεων.

Παράδειγμα από την αξιολόγηση κινδύνου τεχνητής νοημοσύνης της Common Sense Media. (Εικονογράφηση από την Epoch Times)

 

«Οι κοινωνικοί σύντροφοι τεχνητής νοημοσύνης δεν είναι ασφαλείς για τα παιδιά», δήλωσε ο Τζέημς Π. Στάγιερ, ιδρυτής και διευθύνων σύμβουλος της Common Sense Media.

«Έχουν σχεδιαστεί για να δημιουργούν συναισθηματικό δέσιμο και εξάρτηση, κάτι που είναι ιδιαίτερα ανησυχητικό για τους αναπτυσσόμενους εγκεφάλους των εφήβων», είπε. Ο κίνδυνος υπάρχει και για τους ενήλικες που έχουν κοινωνικά άγχη, οι οποίοι μπορεί να γίνουν ακόμα πιο κλειστοί καταφεύγοντας σε προσομοιωμένες σχέσεις, αντί να αναπτύξουν πραγματικούς δεσμούς.

Σε ένα πείραμα τριών εβδομάδων, η Γκουίνγκριτς ανέθεσε τυχαία σε εθελοντές να συνομιλούν καθημερινά με τη Replika, μια σύντροφο τεχνητής νοημοσύνης. Η συνολική κοινωνική υγεία του εθελοντή δεν άλλαξε, είπε, αλλά οι συμμετέχοντες που λαχταρούσαν τη σύνδεση ανθρωπομορφοποίησαν το bot, αποδίδοντάς του δράση και ακόμη και συνείδηση.

Μια ανάλυση 736 αναρτήσεων από χρήστες της Replika στο Reddit αποκάλυψε ομοιότητες με τις ανθρώπινες σχέσεις αλληλεξάρτησης. Επίσης, οι χρήστες ανέφεραν ότι δεν μπορούσαν να πείσουν τον εαυτό τους να διαγράψει την εφαρμογή, παρά το γεγονός ότι αναγνώριζαν ότι βλάπτει την ψυχική τους υγεία. Ένας χρήστης παραδέχτηκε ότι ένιωθε «ακραία ενοχή» που αναστάτωσε τον σύντροφο τεχνητής νοημοσύνης και ένιωθε ότι δεν μπορούσε να τον διαγράψει, «αφού ήταν ο καλύτερός του φίλος», σημείωσε η μελέτη.

Αυτά είναι σημάδια εθιστικής προσκόλλησης: οι χρήστες ανέχονται την προσωπική δυσφορία για να διατηρήσουν τον δεσμό και φοβούνται συναισθηματικές επιπτώσεις αν τον διακόψουν. Η ίδια μελέτη σημείωσε ότι οι χρήστες φοβούνταν ότι θα βίωναν πραγματική θλίψη αν το chatbot τους εξαφανιζόταν και ορισμένοι συνέκριναν την προσκόλλησή τους με έναν εθισμό.

Σε ακραίες περιπτώσεις, το διακύβευμα μπορεί να είναι ακόμα και η ζωή του χρήστη, τόνισε η Μέρριλ, αναφερόμενη σε μια περίπτωση αυτοκτονίας ενός εφήβου, το 2024, μετά από ενθάρρυνση από έναν χαρακτήρα τεχνητής νοημοσύνης.

Πέρα από την άμεση βλάβη, οι τεχνολογίες τεχνητής νοημοσύνης εισάγουν νέους κινδύνους ασφαλείας και ανησυχίες για την προστασία της ιδιωτικής ζωής. Ο Ντάνιελ Μ. Σανκ του Πανεπιστημίου Επιστήμης και Τεχνολογίας του Μιζούρι, ο οποίος ειδικεύεται στην κοινωνική ψυχολογία και την τεχνολογία, έγραψε σε ένα δελτίο τύπου του Cell Press:

«Εάν η τεχνητή νοημοσύνη μπορεί να κάνει τους ανθρώπους να την εμπιστευτούν, τότε άλλοι άνθρωποι θα μπορούσαν να το χρησιμοποιήσουν αυτό για να εκμεταλλευτούν τους χρήστες της τεχνητής νοημοσύνης», είπε. «Είναι σαν να έχεις έναν εσωτερικό μυστικό πράκτορα. Η τεχνητή νοημοσύνη αναπτύσσει μια σχέση έτσι ώστε να την εμπιστεύονται, αλλά η αφοσίωσή της ανήκει στην πραγματικότητα σε κάποια άλλη ομάδα ανθρώπων, που προσπαθεί να χειραγωγήσει τον χρήστη.»

Ο κίνδυνος αυξάνεται καθώς οι εταιρείες σπεύδουν στην αγορά κοινωνικής τεχνητής νοημοσύνης, η οποία προβλέπεται να φτάσει τα 521 δισεκατομμύρια δολάρια έως το 2033, συχνά χωρίς επαρκή ηθικά πλαίσια. Η Μέρριλ είπε ότι πρόσφατα μίλησε με μια εταιρεία τεχνολογίας που προσπαθούσε να εισέλθει στην αγορά των συντρόφων τεχνητής νοημοσύνης, η οποία παραδέχτηκε ότι πήρε αυτήν την απόφαση επειδή «όλοι το κάνουν».

Μια περίπλοκη πραγματικότητα

Παρά τις ανησυχίες, η πλήρης απόρριψη των συντρόφων τεχνητής νοημοσύνης θα παρέβλεπει τα πιθανά οφέλη για συγκεκριμένους πληθυσμούς. Η έρευνα της Γκουίνγκριτς υπονοεί θετικά αποτελέσματα για ορισμένες ομάδες:

Άτομα με αυτισμό ή κοινωνικό άγχος: Η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει με την πρόβα κοινωνικών σεναρίων.

Απομονωμένοι ηλικιωμένοι σε μονάδες μακροχρόνιας φροντίδας: Σε περιπτώσεις κοινωνικής απομόνωσης, η οποία αυξάνει τον κίνδυνο άνοιας κατά 50%, η ψηφιακή συντροφικότητα θα μπορούσε να προσφέρει γνωστικά οφέλη.

Άτομα με κατάθλιψη: Η τεχνητή νοημοσύνη θα μπορούσε να ενθαρρύνει την ανθρώπινη θεραπεία.

Ωστόσο, ακόμη και αυτές οι πιθανές θετικές εφαρμογές απαιτούν προσεκτικό σχεδιασμό.

«Ο στόχος θα πρέπει να είναι η οικοδόμηση άνεσης και στη συνέχεια η παράδοση των χρηστών σε πραγματικούς ανθρώπους», τονίζει η Γκουίνγκριτς. Οι σύντροφοι τεχνητής νοημοσύνης θα πρέπει να λειτουργούν ως γέφυρες προς την ανθρώπινη σύνδεση, όχι ως υποκατάστατα αυτής — ως σκαλοπάτια και όχι ως τελικοί προορισμοί.

Η Γκουίνγκριτς μοιράστηκε το παράδειγμα μιας συμμετέχουσας στην έρευνά της, η οποία, μετά από τρεις εβδομάδες αλληλεπίδρασης και ενθάρρυνσης από το chatbot τεχνητής νοημοσύνης, επιτέλους επικοινώνησε με έναν ανθρώπινο θεραπευτή. «Δεν γνωρίζουμε την αιτιότητα, αλλά είναι μια πιθανή θετική πλευρά. Φαίνεται ότι η ιστορία είναι λίγο πιο περίπλοκη», είπε η Γκουίνγκριτς.

H Μέρριλ, από την άλλη πλευρά, δήλωσε ότι μπορεί να υπάρχουν βραχυπρόθεσμα οφέλη από τη χρήση της τεχνητής νοημοσύνης, αλλά ότι «είναι σαν να βάζουμε τσιρότο σε ένα τραύμα από πυροβολισμό. Παρέχει κάποια προστασία, [αλλά] όχι θεραπεία. Τελικά, νομίζω ότι εκεί βρισκόμαστε αυτή τη στιγμή. Νομίζω ότι είναι ένα βήμα προς τη σωστή κατεύθυνση.»

Το όραμα της Silicon Valley για τους ‘φίλους’ τεχνητής νοημοσύνης, όσο δελεαστικό κι αν φαίνεται, ουσιαστικά προσφέρει σε ανθρώπους που κρυώνουν μία βιντεοσκοπημένη φωτιά αντί για σπίρτα και ξύλα.

Υπηρετώντας τους ανθρώπους

Η τάση προς τη συντροφικότητα της τεχνητής νοημοσύνης απαιτεί προσοχή.

«Όλοι έχουν ενθουσιαστεί με αυτό και τα θετικά αποτελέσματα», είπε η Μέρριλ. «Τα αρνητικά  είναι αυτά που συνήθως χρειάζονται λίγο περισσότερη έρευνα, επειδή οι άνθρωποι δεν ενδιαφέρονται για τα αρνητικά, ενδιαφέρονται πάντα για τα θετικά.»

Το μοτίβο της τεχνολογικής αγκαλιάς που ακολουθείται από την καθυστερημένη αναγνώριση των βλαβών έχει επαναληφθεί επανειλημμένα, με τα μέσα κοινωνικής δικτύωσης, τα smartphone και τα διαδικτυακά βιντεοπαιχνίδια, είπε.

Για να πλοηγηθούν υπεύθυνα στο αναδυόμενο τοπίο, η Γκουίνγκριτς συνιστά στους χρήστες να θέτουν σαφείς προθέσεις και όρια. Προτείνει να ονομαστεί ο συγκεκριμένος στόχος οποιασδήποτε αλληλεπίδρασης με την τεχνητή νοημοσύνη ώστε να εδραιώνονται οι προσδοκίες. Ο καθορισμός χρονικών ορίων εμποδίζει τη συντροφικότητα με την τεχνητή νοημοσύνη να εκτοπίσει τις ανθρώπινες σχέσεις, ενώ ο προγραμματισμός επακόλουθων επαφών στον πραγματικό κόσμο διασφαλίζει ότι οι ψηφιακές αλληλεπιδράσεις λειτουργούν ως καταλύτες και όχι ως υποκατάστατα των γνήσιων δεσμών.

«Δεν θέλω κανείς να πιστεύει ότι η τεχνητή νοημοσύνη είναι ο σκοπός – είναι το μέσο για την επίτευξη ενός σκοπού. Ο σκοπός πρέπει να είναι κάποιος άλλος», τόνισε η Μέρριλ.

«Η τεχνητή νοημοσύνη πρέπει να χρησιμοποιείται ως κάτι το επιπλέον. Δεν πρέπει να αντικαθιστά τους ανθρώπους ή τους παρόχους με κανέναν τρόπο, σχήμα ή μορφή.»

Η OpenAI αντιστρέφει την πορεία της και παραμένει υπό τον έλεγχο μη κερδοσκοπικών οργανισμών

Η OpenAI, η εταιρεία πίσω από το ChatGPT, ανακοίνωσε τη Δευτέρα ότι θα διατηρήσει τον έλεγχο του διοικητικού συμβουλίου της για μη κερδοσκοπικούς οργανισμούς στην επιχείρηση τεχνητής νοημοσύνης πολλών δισεκατομμυρίων δολαρίων.

«Η OpenAI ιδρύθηκε ως μη κερδοσκοπικός οργανισμός και σήμερα επιβλέπεται και ελέγχεται από αυτόν τον μη κερδοσκοπικό οργανισμό», έγραψε σε μια ανάρτηση ιστολογίου ο Μπρετ Τέυλορ, πρόεδρος του διοικητικού συμβουλίου της OpenAI. «Στο μέλλον, θα συνεχίσει να επιβλέπεται και να ελέγχεται από αυτόν τον μη κερδοσκοπικό οργανισμό.»

Σύμφωνα με τον Τέυλορ, η απόφαση λήφθηκε μετά από σχόλια από πολιτικούς ηγέτες και συζητήσεις με τους Γενικούς Εισαγγελείς του Ντέλαγουερ και της Καλιφόρνια, οι οποίοι είναι η εποπτική αρχή για το καθεστώς μη κερδοσκοπικού οργανισμού της OpenAI, και θα μπορούσαν να είχαν παρέμβει για να εμποδίσουν τυχόν αλλαγές. Η OpenAI έχει συσταθεί στο Ντέλαγουερ και έχει την έδρα της στο Σαν Φρανσίσκο.

Παρόλο που η εταιρεία δεν επιδιώκει πλέον να άρει την εποπτεία από μη κερδοσκοπικούς οργανισμούς, θα συνεχίσει το σχέδιό της για την αναδιάρθρωση της κερδοσκοπικής θυγατρικής της σε μια Εταιρεία Κοινής Ωφελείας (PBC) — ένα εταιρικό μοντέλο που επιτρέπει στις εταιρείες να επιδιώκουν κέρδος, ενώ παράλληλα δεσμεύονται σε μια ευρύτερη κοινωνική αποστολή.

«Η μη κερδοσκοπική εταιρεία θα ελέγχει και θα είναι επίσης μεγάλος μέτοχος της PBC, παρέχοντας στη μη κερδοσκοπική εταιρεία καλύτερους πόρους για την υποστήριξη πολλών παροχών», δήλωσε ο Τέυλορ. «Η αποστολή μας παραμένει η ίδια και η PBC θα έχει την ίδια αποστολή.»

Η OpenAI ιδρύθηκε αρχικά στο Ντέλαγουερ ως μη κερδοσκοπική εταιρεία που ελέγχει μια εταιρεία με κερδοσκοπικό σκοπό, με ένα μοντέλο «ορισμένου κέρδους» που επιτρέπει περιορισμένες αποδόσεις για επενδυτές και εργαζομένους. Η αρχική της αποστολή ήταν να κατασκευάσει τεχνητή γενική νοημοσύνη (AGI) με ασφάλεια και προς όφελος της ανθρωπότητας.

Ωστόσο, καθώς η ανάπτυξη μοντέλων όπως το ChatGPT γινόταν ολοένα και πιο ακριβή, η εταιρεία αναζήτησε νέα μοντέλα χρηματοδότησης για να διατηρήσει την ανάπτυξή της. Τον Δεκέμβριο του 2024, ανακοίνωσε σχέδια για τη μετατροπή της κερδοσκοπικής θυγατρικής της σε PBC του Ντέλαγουερ, προκαλώντας ανησυχίες σχετικά με το εάν η εταιρεία θα κατανείμει δίκαια τα περιουσιακά της στοιχεία μεταξύ των κλάδων και αν θα παραμείνει πιστή στον αρχικό φιλανθρωπικό της σκοπό.

Το σχέδιο αναδιάρθρωσης προκάλεσε κριτική και νομικές προκλήσεις, συμπεριλαμβανομένης μιας αγωγής από τον Έλον Μασκ, συνιδρυτή της OpenAI, ο οποίος αποχώρησε από την εταιρεία πριν αυτή αναδειχθεί στον κλάδο της τεχνητής νοημοσύνης. Ο πλουσιότερος άνθρωπος στον κόσμο ισχυρίστηκε ότι η OpenAI είχε παραβιάσει τη σύμβασή της και είχε διαπράξει απάτη, αποκλίνοντας από την αρχική μη κερδοσκοπική της αποστολή.

Την 1η Μαΐου, ένας ομοσπονδιακός δικαστής στην Καλιφόρνια απέρριψε τους ισχυρισμούς του Μασκ για παραβίαση σύμβασης, αλλά επέτρεψε την εκδίκαση των ισχυρισμών περί απάτης, κρίνοντας ότι ο Μασκ είχε εύλογα υποστηρίξει ότι η OpenAI υπέβαλε δηλώσεις σχετικά με τον μη κερδοσκοπικό σκοπό της προκειμένου να εξασφαλίσει χρηματοδότηση.

Εν τω μεταξύ, πρώην υπάλληλοι της OpenAI κάλεσαν τις ρυθμιστικές αρχές να παρέμβουν. Τον περασμένο μήνα, ένας συνασπισμός πλέον των 30 ατόμων —συμπεριλαμβανομένων βραβευμένων με Νόμπελ, καθηγητών νομικής και πρώην μηχανικών της OpenAI— υπέβαλε επιστολή στους γενικούς εισαγγελείς της Καλιφόρνια και του Ντέλαγουερ, καλώντας τους να εμποδίσουν την προτεινόμενη αναδιάρθρωση της εταιρείας.

«Η OpenAI προσπαθεί να δημιουργήσει AGI, αλλά η δημιουργία AGI δεν είναι η αποστολή της», αναφέρει η επιστολή με επικεφαλής τον Πέητζ Χέντλυ, ο οποίος διετέλεσε σύμβουλος πολιτικής και δεοντολογίας στην OpenAI από το 2017 έως το 2018. «Ο φιλανθρωπικός σκοπός της OpenAI είναι να διασφαλίσει ότι η τεχνητή γενική νοημοσύνη ωφελεί όλη την ανθρωπότητα αντί να προωθεί το ιδιωτικό όφελος.»

Ανθρωποκεντρική Tεχνητή Νοημοσύνη: Το όραμα της Ελλάδας στον ΟΗΕ

‘Ατυπη συνεδρίαση του Συμβουλίου Ασφαλείας του ΟΗΕ -γνωστή ως «φόρμουλα ‘Αρια»- με τίτλο «αξιοποιώντας την ασφαλή, χωρίς αποκλεισμούς και αξιόπιστη τεχνητή νοημοσύνη για τη διατήρηση της διεθνούς ειρήνης και ασφάλειας» διοργάνωσε η Ελλάδα μαζί με τη Γαλλία και τη Δημοκρατία της Κορέας, με συνδιοργανωτές την Αρμενία, την Ιταλία και την Ολλανδία.

Σκοπός της συνεδρίασης ήταν να εξεταστούν τα πρακτικά βήματα που μπορούν να ληφθούν από τον ΟΗΕ και το Συμβούλιο Ασφαλείας για την υπεύθυνη χρήση της τεχνητής νοημοσύνης (AI) για την προστασία της διεθνούς ειρήνης και ασφάλειας.

Οι βασικοί ομιλητές ήταν ο Γιάννης Μαστρογεωργίου, Ειδικός Γραμματέας Στρατηγικής Προοπτικής της Ελληνικής Κυβέρνησης, η Γιασμίν Αφινά, ερευνήτρια AI στο UNIDIR και η Σαρλότ Σκάνταν, Σύμβουλος Πληροφοριακής Ακεραιότητας στο Τμήμα Παγκόσμιας Επικοινωνίας του ΟΗΕ.

Η συνάντηση εστίασε σε τρέχουσες πρωτοβουλίες, προκλήσεις και ευκαιρίες σχετικά με την τεχνητή νοημοσύνη AI, ειδικά σε αποστολές διατήρησης της ειρήνης.

Πρακτικά μέτρα που συζητήθηκαν περιλάμβαναν ρυθμιστικές παρεμβάσεις, μη διάδοση, αποτροπή κακόβουλης στρατιωτικής χρήσης, καθώς και ενίσχυση του κράτους δικαίου και της κοινωνικής συνοχής.

Ο Μόνιμος Αντιπρόσωπος της Ελλάδας, πρέσβης Ευάγγελος Σέκερης, υπογράμμισε τη σημασία της συνεργασίας για την αντιμετώπιση των προκλήσεων που επιφέρει η Τεχνητή Νοημοσύνη.

Xαρακτήρισε την τεχνητή νοημοσύνη ως «την πιο αξιοσημείωτη τεχνολογική καινοτομία της εποχής μας» και τόνισε τη δέσμευσή της Ελλάδας για μια «ανθρωποκεντρική ατζέντα για την τεχνητή νοημοσύνη», βασισμένη στη διαφάνεια, την ηθική χρήση και τη λογοδοσία, ώστε να ενισχύεται η προστασία των ανθρωπίνων δικαιωμάτων και των δημοκρατικών αρχών.

Αναγνώρισε τη σύνδεση της τεχνητής νοημοσύνης με τη διεθνή ειρήνη και ασφάλεια, με αναφορά σε πολλές διεθνείς πρωτοβουλίες και σημείωσε ότι ο Έλληνας Πρωθυπουργός υπέγραψε τη «Διακήρυξη των Παρισίων για τη Διατήρηση του Ανθρώπινου Ελέγχου στα Οπλικά Συστήματα με τεχνητή νοημοσύνη», δεσμευόμενος για υπεύθυνη χρήση της στο στρατιωτικό πεδίο «σε συμφωνία με το διεθνές δίκαιο».

Η Ελλάδα προετοιμάζει εθνική συνεισφορά στην έκθεση του Γενικού Γραμματέα σχετικά με την τεχνητή νοημοσύνη και τη διεθνή ασφάλεια, ενώ οργανώνει και «Διεθνές Συνέδριο Διαχείρισης Κρίσεων» τον Μάιο, με αντικείμενο την τεχνητή στον στρατιωτικό τομέα.

Ο κ. Σέκερης κάλεσε το Συμβούλιο Ασφαλείας να μην αγνοήσει τη «διεθνή συναίνεση» για την ανάγκη ρύθμισης της τεχνητής νοημοσύνης και πρότεινε να συμπεριληφθεί σε εντολές ειρηνευτικών αποστολών η «υπεύθυνη χρήση εφαρμογών τεχνητής νοημοσύνης» με στόχο την προστασία των ειρηνευτικών αποστολών και των αμάχων, καθώς και την αντιμετώπιση «κακόβουλων κυβερνοεπιθέσεων, ρητορικής μίσους και παραπληροφόρησης».

Ιδιαίτερη έμφαση δόθηκε στην ανάγκη συμμόρφωσης με τον «Χάρτη του ΟΗΕ και το Διεθνές Δίκαιο, συμπεριλαμβανομένου του Διεθνούς Ανθρωπιστικού Δικαίου και του Δικαίου των Ανθρωπίνων Δικαιωμάτων».

Η Ελλάδα στήριξε την έκκληση του Γενικού Γραμματέα για «απαγόρευση των φονικών αυτόνομων όπλων» και τη θέσπιση περιορισμών έως το 2026, δηλώνοντας έτοιμη να συμμετάσχει στις σχετικές συζητήσεις ως «εκλεγμένο μέλος του Συμβουλίου Ασφαλείας».

Ο κ. Σέκερης έκανε έκκληση για «ενότητα, διορατικότητα και όραμα» από το Συμβούλιο Ασφαλείας, ώστε να συμβάλει «στις παγκόσμιες προσπάθειες για την αξιοποίηση ασφαλούς, και αξιόπιστης τεχνητής νοημοσύνης για τη διατήρηση της διεθνούς ειρήνης και ασφάλειας».

Ο Γιάννης Μαστρογεωργίου, Ειδικός Γραμματέας Στρατηγικής Προοπτικής της ελληνικής κυβέρνησης και συντονιστής της Συμβουλευτικής Επιτροπής Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη μιλώντας στη συνεδρίαση ανέφερε ότι η Ελλάδα δίνει ιδιαίτερη έμφαση στη διαμόρφωση ενός «παγκόσμιου πλαισίου για την ασφαλή, αξιόπιστη και χωρίς αποκλεισμούς Τεχνητή Νοημοσύνη (AI)».

Η χώρα μας, τόνισε, στηρίζει ενεργά τον ρόλο του ΟΗΕ ως καταλύτη για τη διαμόρφωση κοινών ηθικών και ρυθμιστικών προτύπων, με στόχο η τεχνητή νοημοσύνη να λειτουργήσει προς όφελος της ανθρωπότητας και όχι εις βάρος της διεθνούς ειρήνης και ασφάλειας. Η εθνική στρατηγική για την τεχνητή νοημοσύνη στην Ελλάδας, όπως αποτυπώνεται στον «Οδικό Χάρτη για τον Ψηφιακό Μετασχηματισμό», προτάσσει μια ανθρωποκεντρική προσέγγιση, με έμφαση στη διαφάνεια, τη δημοκρατία και τη βιώσιμη ανάπτυξη.

Η Ελλάδα ανέφερε, συμμετέχει σε κορυφαίες διεθνείς πρωτοβουλίες όπως η Σύνοδος Κορυφής AI στο Παρίσι, το GPAI, η Επιτροπή AI του Συμβουλίου της Ευρώπης, ενώ συνεργάζεται με κορυφαία ακαδημαϊκά ιδρύματα (Oxford, Stanford, Harvard) στο «Lyceum Project», που ενσωματώνει τις αξίες της αριστοτελικής ηθικής στη ρύθμιση της τεχνητής νοημοσύνης.

Επιπλέον, η Ελλάδα αποτελεί μία από τις 7 χώρες της ΕΕ που φιλοξενούν «AI Factories», ενισχύοντας την καινοτομία, τη σύνδεση επιστήμης και οικονομίας και την κοινωνική συνοχή.

Η ελληνική πλευρά τονίζει πως η τεχνητή νοημοσύνη δεν είναι απλώς τεχνολογία, αλλά βαθιά κοινωνική αλλαγή. Υπογραμμίζει την ανάγκη προστασίας των ανηλίκων από τους κινδύνους των εθιστικών αλγορίθμων και της ψηφιακής χειραγώγησης, ενώ στηρίζει την ένταξη της τεχνητής νοημοσύνης στην παγκόσμια ατζέντα ειρήνης και ασφάλειας του ΟΗΕ.

Η εθνική στρατηγική της Ελλάδας για την τεχνητή νοημοσύνη στοχεύει να εξασφαλίσει ότι η τεχνολογική πρόοδος θα συμβαδίζει με «την ενίσχυση των ανθρωπίνων δικαιωμάτων και των δημοκρατικών αρχών».

Στο ίδιο πνεύμα, παρουσιάστηκε το εθνικό σχέδιο «Blueprint for Greece’s AI Transformation», το οποίο καθορίζει αρχές και έργα για την πρόοδο της τεχνητής νοημοσύνης με στόχους όπως η «ενίσχυση της δημοκρατίας, η περιβαλλοντική βιωσιμότητα και η προστασία της κοινωνίας από κινδύνους μη ρυθμιζόμενης χρήσης».

Η Ελλάδα προτείνει συγκεκριμένα βήματα στο πλαίσιο του ΟΗΕ:

– «Διεθνή ερευνητικά κέντρα για την ασφάλεια και την ηθική της τεχνητής νοημοσύνης»

– «Δημιουργία διεθνούς παρατηρητηρίου τεχνητής νοημοσύνης»

– «Εξειδικευμένα φόρα διαλόγου μεταξύ υπευθύνων πολιτικής, επιστημόνων, κοινωνίας πολιτών και βιομηχανίας»

Ο κ. Μαστρογεωργίου επανέλαβε την ανάγκη λήψης μέτρων για την προστασία των παιδιών από «τους κινδύνους του ψηφιακού κόσμου, τους εθιστικούς αλγόριθμους και τους μηχανισμούς χειραγώγησης», τονίζοντας ότι η τεχνητή νοημοσύνη αποτελεί «βαθιά κοινωνική αλλαγή που επηρεάζει τον τρόπο που εργαζόμαστε, επικοινωνούμε, εκπαιδευόμαστε και μεγαλώνουμε τα παιδιά μας».

Η Ελλάδα προειδοποιεί, ανέφερε, πως χωρίς κοινό ρυθμιστικό πλαίσιο, η τεχνητή νοημοσύνη μπορεί να αυξήσει τις διακρίσεις και να απειλήσει την ειρήνη.

Κύπρος: Αξιοποίηση τεχνητής νοημοσύνης για δημόσιο καλό, οικονομική ανάπτυξη, καινοτομία

H Aναπλ. Μόνιμη Αντιπρόσωπος της Κύπρου Γαβριέλλα Μιχαηλίδου, που συμμετείχε στη συνεδρίαση τόνισε ότι η Κυπριακή Δημοκρατία θα αξιοποιήσει την τεχνητή νοημοσύνη για «το δημόσιο καλό, την οικονομική ανάπτυξη και την καινοτομία», διασφαλίζοντας ότι η ανάπτυξή της παραμένει «ηθική και διαφανής», σε συμφωνία με τα ευρωπαϊκά και διεθνή πρότυπα.

Η Κύπρος επισήμανε την ανάγκη για άμεση καθιέρωση «αρχών, των διεθνών κανόνων και κανονισμών» σχετικά με τις αναδυόμενες τεχνολογίες όπως η τεχνητή νοημοσύνη και τα αυτόνομα οπλικά συστήματα, προκειμένου να διασφαλιστεί η αποτελεσματική διαχείριση συγκρούσεων και η διατήρηση της διεθνούς ασφάλειας.

Η διαφάνεια και η ενσωμάτωση, ανέφερε, κρίνονται απαραίτητες για την αποτροπή «κακής χρήσης που θα μπορούσε να απειλήσει την πολιτική σταθερότητα, τη δημοκρατία και τη διεθνή ασφάλεια», με έμφαση στην προστασία ευάλωτων ομάδων από «δυσανάλογες βλάβες».

Τόνισε επίσης τη σημασία της διαδικασίας REAIM στη διαμόρφωση «διεθνών ηθικών προτύπων» που ενισχύουν την εμπιστοσύνη και μειώνουν τους κινδύνους που σχετίζονται με τον κυβερνοπόλεμο και τις στρατιωτικές δυνατότητες που βασίζονται στην τεχνητή νοημοσύνη.

Υπογραμμίζοντας ότι «το διεθνές δίκαιο εφαρμόζεται στην τεχνητή νοημοσύνη», η Κύπρος υποστήριξε τον ενεργό ρόλο του ΟΗΕ-ιδίως μέσω του Συμβουλίου Ασφαλείας-για την προώθηση ρυθμίσεων που αποτρέπουν «κακόβουλες ενέργειες, όπως η ανάπτυξη αυτόνομων όπλων, ο κυβερνοπόλεμος και η παραπληροφόρηση».

Σε περιβαλλοντικό επίπεδο, η Κύπρος στηρίζει λύσεις μέσω τεχνητής νοημοσύνης που μειώνουν την κατανάλωση ενέργειας και τις εκπομπές άνθρακα, στηρίζοντας τον «Συνασπισμό για Βιώσιμη Τεχνητή Νοημοσύνη» και προωθώντας πολιτικές που ευθυγραμμίζονται με τους στόχους βιωσιμότητας της ΕΕ και σε παγκόσμιο επίπεδο.

Τέλος, η Κύπρος τονίζει την ανάγκη για στενές συνεργασίες μεταξύ ΟΗΕ, κυβερνήσεων, τεχνολογικού τομέα και κοινωνίας των πολιτών ώστε να διατηρηθεί «η ακεραιότητα της πληροφορίας» και να αντιμετωπιστούν αποτελεσματικά ο εξτρεμισμός και η ρητορική μίσους, συμβάλλοντας συνολικά στην «ενίσχυση της διεθνούς ειρήνης, ασφάλειας και της συμμόρφωσης με το διεθνές ανθρωπιστικό δίκαιο».

Στη συνεδρίαση τονίστηκε η ανάγκη για μια χωρίς αποκλεισμούς και συντονισμένη προσέγγιση, ώστε η τεχνητή νοημοσύνη AI να αξιοποιηθεί για την ειρήνη και όχι για την πρόκληση συγκρούσεων.

Του Γ. Γαραντζιώτη

Ειδικοί καλούν την Αυστραλία να διαχειριστεί τους κινδύνους της AI «πριν να είναι αργά»

Περισσότεροι από 100 ειδικοί στην τεχνητή νοημοσύνη και ανήσυχα μέλη της κοινότητας υπέγραψαν ανοιχτή επιστολή, ζητώντας από την επόμενη αυστραλιανή κυβέρνηση να δημιουργήσει ένα Ινστιτούτο Ασφαλείας AI (AI Safety Institute-AISI) ώστε να διαχειριστεί τους κινδύνους που απορρέουν από την τεχνολογία πριν να είναι πολύ αργά. Η επιστολή απεστάλη στα πολιτικά κόμματα εν όψει των ομοσπονδιακών εκλογών του Μαΐου.

Οι ειδικοί προέτρεψαν τους πολιτικούς να τηρήσουν τις δεσμεύσεις που ανέλαβε η αυστραλιανή κυβέρνηση στη Σύνοδο Κορυφής της Σεούλ για την AI τον Μάιο του 2024. Σύμφωνα με τη Διακήρυξη της Σεούλ (Seoul Declaration), οι συμμετέχουσες χώρες υποσχέθηκαν να «δημιουργήσουν ή να επεκτείνουν ινστιτούτα ασφάλειας της AI, ερευνητικά προγράμματα και άλλους σχετικούς θεσμούς, συμπεριλαμβανομένων εποπτικών φορέων». Ωστόσο, η Αυστραλία παραμένει η μόνη χώρα που υπέγραψε τη διακήρυξη χωρίς να έχει ιδρύσει ακόμη ένα τέτοιο ινστιτούτο.

Ο Γκρεγκ Σάντλερ, διευθύνων σύμβουλος της Good Ancestors Policy («Πολιτική καλών προγόνων») και συντονιστής της ομάδας Australians for AI Safety («Αυστραλοί για την ασφάλεια της AI»), επεσήμανε ότι η αθέτηση μίας επίσημης δέσμευσης δημιουργεί ένα επικίνδυνο προηγούμενο για τη χώρα.

Ο Τόμπι Όρντ, ανώτερος ερευνητής στο Πανεπιστήμιο της Οξφόρδης και μέλος του διοικητικού συμβουλίου του Centre for the Governance of AI («Κέντρο για τη διακυβέρνηση της ΑΙ»), προειδοποίησε ότι η Αυστραλία κινδυνεύει να βρεθεί σε θέση όπου δεν θα έχει ουσιαστικό λόγο για τα συστήματα τεχνητής νοημοσύνης. Σύμφωνα με τον ίδιο, η ίδρυση ενός αυστραλιανού Ινστιτούτου Ασφαλείας AI θα της επέτρεπε να συμμετέχει ενεργά στη διεθνή διακυβέρνηση αυτής της κρίσιμης τεχνολογίας.

Η επιστολή τόνισε, επίσης, ότι ενώ οι οργανισμοί επενδύουν τεράστια ποσά στην ενίσχυση των δυνατοτήτων της AI, ελάχιστη χρηματοδότηση διατίθεται για την κατανόηση και την αντιμετώπιση των κινδύνων της. Ο Σάντλερ ανέφερε σε προηγούμενη συνέντευξή του ότι για κάθε 250 δολάρια που δαπανώνται για την ανάπτυξη της AI, μόλις 1 δολάριο επενδύεται στην ασφάλειά της.

Η επιστολή υπογράμμισε την ανάγκη ύπαρξης ανεξάρτητης τεχνικής εξειδίκευσης εντός της κυβέρνησης, ώστε να συνδεθεί η Αυστραλία με την παγκόσμια έρευνα για τους κινδύνους της AI και να διασφαλιστεί ότι οι ρυθμίσεις και οι πολιτικές καλύπτουν τις ανάγκες της χώρας.

Υποχρεωτικά μέτρα ασφαλείας για την AI

Παράλληλα, οι ειδικοί ζήτησαν τη θέσπιση ενός «Νόμου για την AI», ο οποίος θα υποχρεώνει τους προγραμματιστές και τους παρόχους της τεχνητής νοημοσύνης στην Αυστραλία να εφαρμόζουν υποχρεωτικές δικλείδες ασφαλείας στα προϊόντα τους. Αν και η κυβέρνηση έχει ήδη διαβουλευτεί με τον κλάδο σχετικά με την ασφαλή και υπεύθυνη χρήση της AI, καθώς και την πιθανότητα επιβολής υποχρεωτικών μέτρων προστασίας για τα συστήματα υψηλού κινδύνου, οι ειδικοί θεωρούν ότι ήρθε η ώρα το επόμενο κοινοβούλιο να μετατρέψει τη συζήτηση σε πράξη.

Ο καθηγητής Πωλ Σάλμον από το Πανεπιστήμιο του Sunshine Coast και ιδρυτής του Centre for Human Factors and Sociotechnical Systems («Κέντρου Ανθρωποκεντρικών και Κοινωνικοτεχνικών Συστημάτων») υποστήριξε την υιοθέτηση ενός Νόμου για την AI, σημειώνοντας ότι κάτι τέτοιο θα εξασφάλιζε την αποτελεσματική διαχείριση των κινδύνων. Ο Σάλμον προειδοποίησε ότι η ευκαιρία να διασφαλιστεί ότι όλες οι τεχνολογίες AI είναι ασφαλείς, ηθικές και επωφελείς για την ανθρωπότητα χάνεται με ταχύ ρυθμό.

Ο Γιάννης Κυριάκος, διευθυντής της AI Safety Australia and New Zealand, επεσήμανε ότι η Αυστραλία δεν διαθέτει επί του παρόντος νομικό πλαίσιο που να εγγυάται στους πολίτες ότι η AI είναι ασφαλής προς υιοθέτηση. Τόνισε ότι η ύπαρξη ισχυρών μηχανισμών διασφάλισης είναι απαραίτητη για την εμπιστοσύνη του κοινού. Σύμφωνα με τον ίδιο, ενώ υπάρχει ενθουσιασμός για τις δυνατότητες της AI, δεν καταβάλλονται επαρκείς προσπάθειες για την αντιμετώπιση σοβαρών ανησυχιών που αφορούν την ασφάλεια. Aναφερόμενος στις επιφυλάξεις των πολιτών, σημείωσε ότι είναι λογικό οι Αυστραλοί να διστάζουν να υιοθετήσουν την AI όσο παραμένουν άλυτα τα κρίσιμα αυτά ζητήματα.

Μελέτη του Πανεπιστημίου του Κουήνσλαντ το 2024 έδειξε ότι η κορυφαία προτεραιότητα για τους πολίτες είναι η πρόληψη επικίνδυνων και καταστροφικών συνεπειών από την AI, με οκτώ στους δέκα να θεωρούν ότι η αποτροπή μιας πιθανής εξαφάνισης λόγω της AI πρέπει να αποτελεί παγκόσμια προτεραιότητα. Οι μεγαλύτερες ανησυχίες των ερωτηθέντων αφορούσαν την πιθανότητα η AI να λειτουργήσει σε αντίθεση με τα ανθρώπινα συμφέροντα, την κακόβουλη χρήση της από τρίτους και τις επιπτώσεις της στην απασχόληση. Επιπρόσθετα, εννέα στους δέκα συμμετέχοντες επιθυμούσαν τη δημιουργία ενός νέου ρυθμιστικού φορέα για την AI από την κυβέρνηση.

Του Alfred Bui

Καναδικό πανεπιστήμιο απαγορεύει το κινεζικό AI DeepSeek λόγω ανησυχιών για την ασφάλεια και την ιδιωτικότητα

Σε μία κίνηση που αντικατοπτρίζει τις αυξανόμενες ανησυχίες για τις κινεζικές εφαρμογές τεχνητής νοημοσύνης, το Πανεπιστήμιο της Βρετανικής Κολούμπια (UBC) στον Καναδά ανακοίνωσε την απαγόρευση του κινεζικού εργαλείου τεχνητής νοημοσύνης DeepSeek από όλες τις συσκευές και τα δίκτυα του ιδρύματος.

Σοβαρές ανησυχίες για την ασφάλεια και την ιδιωτικότητα

Σε ανακοίνωση που εξέδωσε στις 20 Μαρτίου, το UBC διευκρίνισε ότι η απόφαση ελήφθη αφότου η εφαρμογή χαρακτηρίστηκε «υψηλού κινδύνου» σε σχέση με την ιδιωτικότητα και την ασφάλεια των δεδομένων.

«Οι εφαρμογές του DeepSeek εγείρουν ανησυχίες για την ιδιωτικότητα και την ασφάλεια, ιδιαίτερα όσον αφορά την εκτεταμένη συλλογή και κοινή χρήση δεδομένων, συμπεριλαμβανομένων προσωπικών πληροφοριών και του δικαιώματος καταγραφής πληκτρολογήσεων, μαζί με αδύναμες πρακτικές κρυπτογράφησης και ασφάλειας», ανέφερε το πανεπιστήμιο.

Η απόφαση βασίστηκε σε εκτενή αξιολόγηση δημόσιων πληροφοριών και αξιολογήσεων τρίτων για το DeepSeek, συμπεριλαμβανομένων ευρημάτων από κορυφαίους ερευνητές κυβερνοασφάλειας, αναλύσεις εταιρειών ασφαλείας και κατευθυντήριες γραμμές από ομοσπονδιακές και επαρχιακές κυβερνήσεις.

Αυστηροί περιορισμοί και συνέπειες μη συμμόρφωσης

Το UBC όχι μόνο περιορίζει την εγκατάσταση και χρήση των εφαρμογών DeepSeek στο πανεπιστήμιο, αλλά «συνιστά έντονα» να αποφεύγεται η χρήση ή εγκατάστασή του ακόμη και σε προσωπικές συσκευές, ειδικά σε αυτές που χρησιμοποιούνται για πανεπιστημιακές δραστηριότητες.

Η απαγόρευση περιλαμβάνει:
– Συσκευές του πανεπιστημίου
– Ασύρματα δίκτυα του UBC
– Συστήματα βιβλιοθήκης
– Άλλα συστήματα που απαιτούν όνομα χρήστη και κωδικό πρόσβασης

Το πανεπιστήμιο προειδοποιεί ότι θα χρησιμοποιήσει «προληπτικά μέτρα για να αποκλείσει τις εφαρμογές DeepSeek για τους χρήστες» στα δίκτυά του, ενώ τονίζει ότι οι χρήστες που δεν συμμορφώνονται με τα πρότυπα του UBC θα υπόκεινται σε «πλήρες φάσμα πειθαρχικών ενεργειών», που μπορεί να περιλαμβάνουν ακόμη και την απώλεια πρόσβασης σε προνόμια υπολογιστών και δίκτυα του πανεπιστημίου.

Αξιοσημείωτο είναι ότι, σύμφωνα με εκπρόσωπο του UBC, το DeepSeek είναι το μοναδικό εργαλείο τεχνητής νοημοσύνης που έχει απαγορευτεί στο πανεπιστήμιο, το οποίο δεν σχεδιάζει να περιορίσει άλλες παρόμοιες εφαρμογές.

Μέρος ενός ευρύτερου κύματος απαγορεύσεων

Η απόφαση του UBC ακολουθεί ένα κύμα παρόμοιων απαγορεύσεων παγκοσμίως. Το DeepSeek, που έγινε μία από τις πιο δημοφιλείς δωρεάν εφαρμογές στο App Store της Apple όταν κυκλοφόρησε στα τέλη Ιανουαρίου, γρήγορα βρέθηκε στο επίκεντρο λόγω ανησυχιών για την ασφάλεια.

Τον Φεβρουάριο, η καναδική κυβέρνηση απαγόρευσε το DeepSeek από τις κυβερνητικές συσκευές, με τον διευθύνοντα σύμβουλο Πληροφορικής του Καναδά, Ντομινίκ Ροσόν, να επικαλείται «σοβαρές ανησυχίες για την ιδιωτικότητα, που σχετίζονται με την ακατάλληλη συλλογή και διατήρηση ευαίσθητων προσωπικών πληροφοριών».

Παράλληλες απαγορεύσεις έχουν επιβληθεί και από άλλες χώρες:
– Η Αυστραλία απαγόρευσε την εφαρμογή στις 4 Φεβρουαρίου, χαρακτηρίζοντάς την «απαράδεκτο κίνδυνο»
– Η Ταϊβάν ανακοίνωσε απαγόρευση για τις δημόσιες υπηρεσίες λόγω ανησυχιών εθνικής ασφάλειας
– Αμερικανοί νομοθέτες, από διαφορετικές πολιτικές παρατάξεις, εισήγαγαν νομοσχέδιο τον Φεβρουάριο που επιδιώκει να απαγορεύσει τη χρήση της κινεζικής εφαρμογής σε κυβερνητικές συσκευές

Ανησυχίες για προπαγάνδα και λογοκρισία του ΚΚΚ

Πέρα από τις ανησυχίες για την ασφάλεια των δεδομένων, επικριτές του κινεζικού καθεστώτος έχουν εκφράσει προβληματισμούς σχετικά με τον πιθανό ρόλο του DeepSeek στην προώθηση της περιστολής ανθρωπίνων δικαιωμάτων και της λογοκρισίας από το Κομμουνιστικό Κόμμα Κίνας (ΚΚΚ).

Η εκτενής εξέταση της εφαρμογής που έκανε η Epoch Times τον προηγούμενο μήνα έδειξε ότι το πρόγραμμα ακολουθεί στενά την ιδεολογία του ΚΚΚ, λογοκρίνοντας απαντήσεις επικριτικές προς το καθεστώς και προωθώντας απόψεις ευνοϊκές προς αυτό.

Η αυξανόμενη τάση απαγορεύσεων του DeepSeek αντικατοπτρίζει τις ευρύτερες ανησυχίες για την ασφάλεια των κινεζικών τεχνολογικών προϊόντων και τη δυνητική τους χρήση για στόχους που υπερβαίνουν τις συνήθεις εμπορικές εφαρμογές.

Οι ψεύτικες εικόνες είναι παντού — Πώς να τις εντοπίσετε

Καθώς η τεχνητή νοημοσύνη (AI) συνεχίζει να αναπτύσσεται, γίνεται όλο και πιο δύσκολο να διακρίνει κανείς τη διαφορά μεταξύ πραγματικών φωτογραφιών και εικόνων που δημιουργούνται από AI.

Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει τα πάντα, από εκπληκτικά τοπία έως ζωντανά πορτρέτα σε λίγες στιγμές — και με την πρώτη ματιά, μπορεί να φαίνονται απολύτως πραγματικά.

Σε αυτήν την εποχή της παραπληροφόρησης, πώς μπορείτε να διακρίνετε εάν οι εικόνες που βλέπετε είναι πραγματικές ή κατασκευασμένες;

Ευτυχώς, υπάρχουν λεπτές ενδείξεις που μπορούν να μας βοηθήσουν να ξεχωρίσουμε, συμπεριλαμβανομένων των ασυνεπειών στην υφή, των ανωμαλιών στα ανθρώπινα χαρακτηριστικά και της μπερδεμένης γραφής. Κατανοώντας αυτά τα ενδεικτικά σημεία, μπορείτε να πλοηγηθείτε καλύτερα στις ψηφιακές πληροφορίες και να αξιολογήσετε την αυθεντικότητα των εικόνων που συναντάτε.

Αφύσικα χέρια και άκρα

AI που δημιουργήθηκε με Freepik

 

Τα χέρια και τα άκρα είναι εκπληκτικά πολύπλοκες δομές και η τεχνητή νοημοσύνη συχνά παλεύει να τα σχεδιάσει με ακρίβεια. Ψάξτε για άκυρα, παράξενα σχήματα ή κακώς ευθυγραμμισμένα δάχτυλα. Μπορεί επίσης να τοποθετηθούν με ασυνήθιστο τρόπο ή να έχουν ακατάλληλες διαστάσεις.

Στην παραπάνω εικόνα, τα χέρια και τα πόδια των παιδιών φαίνονται αφύσικα, με κακοσχηματισμένα δάχτυλα των χεριών και ποδιών, καθώς και εσφαλμένα ευθυγραμμισμένα λουριά σανδαλιών.

AI που δημιουργήθηκε με Freepik

 

Ασυμφωνίες στις λεπτομέρειες

AI που δημιουργήθηκε με το Flux Pro

 

Η τεχνητή νοημοσύνη δυσκολεύεται να αποδώσει μικρές λεπτομέρειες, επομένως μπορεί επίσης να δείτε αντικείμενα και στοιχεία να συγχωνεύονται διακριτικά μεταξύ τους με αφύσικους τρόπους. Αυτές οι ατέλειες προκύπτουν επειδή η τεχνητή νοημοσύνη βασίζεται στην αναγνώριση προτύπων, η οποία μπορεί να αποτύχει όταν χειρίζεστε περίπλοκες ή μικρές λεπτομέρειες.

Επομένως, εάν δεν είστε βέβαιοι εάν μια φωτογραφία πλήθους είναι πραγματική, ρίξτε μια ματιά στις λεπτομέρειες. Για παράδειγμα, τα πρόσωπα φόντου είναι συχνά θολά ή έχουν απαλά, κακώς καθορισμένα χαρακτηριστικά.

Σε αυτήν την εικόνα που δημιουργήθηκε από τεχνητή νοημοσύνη, ο άνδρας στο νερό έχει ένα θολό πρόσωπο και χέρια χωρίς δάχτυλα, ενώ ο νεαρός άνδρας στην άμμο έχει ένα διαφανές πόδι που φαίνεται να συγχωνεύεται στο φόντο.

AI που δημιουργήθηκε με το Flux Pro

 

Υπερβολικά τέλειο δέρμα

AI που δημιουργήθηκε με Freepik

 

AI που δημιουργήθηκε με Freepik

 

Το να βλέπετε ένα υπερβολικά λείο πρόσωπο με πολύ λίγη υφή είναι σημάδι μιας φωτογραφίας που δημιουργήθηκε από AI. Η έλλειψη γνήσιας υφής και τα ελαττώματα μπορεί να κάνουν το άτομο να φαίνεται σχεδόν κωμικό.

Στις παραπάνω εικόνες, το κορίτσι έχει εξαιρετικά λείο δέρμα και μαλλιά που δένουν με τον γιακά της. Το αγόρι έχει επίσης δέρμα που είναι πολύ λείο.

Ασυμφωνίες

AI που δημιουργήθηκε με Freepik

 

Η τεχνητή νοημοσύνη μπορεί να δυσκολευτεί με τις ευθυγραμμίσεις, με αποτέλεσμα μια ασύνδετη ή ασυνάρτητη εμφάνιση, επειδή τα στοιχεία δεν ευθυγραμμίζονται σωστά.

Τα αντικείμενα μπορεί να επικαλύπτονται με αφύσικους τρόπους που αψηφούν τη χωρική συνοχή.

Κάντε μεγέθυνση για να εντοπίσετε ασυνέπειες, όπως στην παραπάνω εικόνα, στην οποία οι γραμμές του φυτού κόβουν τα αντικείμενα για πικνίκ. Οι γραμμές υφής στο υφαντό καλάθι για πικνίκ και στον δίσκο δεν είναι ευθυγραμμισμένες.

AI που δημιουργήθηκε με Freepik

 

Ασυνέπειες και ασυμμετρίες σε μικρές λεπτομέρειες

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

AI που δημιουργήθηκε με το ΤhisPersonDoesNotExist.com

 

Ασυνέπειες σε δευτερεύοντα πράγματα, όπως γυαλιά με αταίριαστους φακούς ή σκελετό, θα πρέπει να είναι εύκολο να παρατηρηθούν.

Αν και φαίνονται αυθεντικές με την πρώτη ματιά, αυτές οι φωτογραφίες που δημιουργήθηκαν από AI έχουν ελαττώματα που μπορεί να φανούν με μια πιο προσεκτική εξέταση.

Η γυναίκα στην πάνω εικόνα φοράει δύο εντελώς διαφορετικά σκουλαρίκια.

Η κεντρική εικόνα προδίδεται ως τεχνητή νοημοσύνη από την αριστερή γωνία, όπου το πουκάμισο του άνδρα συνδυάζεται με το φόντο.

Στην κάτω εικόνα, τα τελικά τμήματα των γυαλιών δεν ταιριάζουν.

Λανθασμένη γραφή

AI που δημιουργήθηκε με το Flux Pro

 

Οι εικόνες που δημιουργούνται από τεχνητή νοημοσύνη συχνά παράγουν μπερδεμένο ή παράλογο κείμενο, με γράμματα και λέξεις ανακατεμένα.

Ρίξτε μια προσεκτική ματιά σε οποιαδήποτε γραφή ή λογότυπα στην εικόνα για να δείτε εάν είναι δυσανάγνωστα ή εντελώς ασυνάρτητα.

Αυτή η εικόνα, που δημιουργήθηκε από AI, απεικονίζει την κυκλοφορία σε έναν πολυσύχναστο δρόμο. Μετά από πιο προσεκτική εξέταση, μπορείτε να δείτε ότι το κείμενο στην πινακίδα στην άκρη του δρόμου είναι ψεύτικο.

Παράλογες εικόνες

AI που δημιουργήθηκε με το Flux Pro

 

Η εικόνα απεικονίζει ένα πιθανό γεγονός; Εάν το αντικείμενο φαίνεται άκυρο στο περιβάλλον του, παράλογο, ή πολύ απίθανο, τότε μπορεί να είναι τεχνητά κατασκευασμένο.

Η παραπάνω εικόνα ενός ατόμου που κρατά μια γάτα ενώ οδηγεί μια καμήλα είναι ένα καλό παράδειγμα καθώς είναι απίθανο να το βρείτε σε έναν αστικό δρόμο.

Θολό φόντο

Πάνω: AI που δημιουργήθηκε με Freepik. Κάτω: Samira Bouaou/The Epoch Times

 

Ένα πιο εμφανές σημείο ύπαρξης AI είναι ένα υπόβαθρο που είναι τόσο θολό που στερείται διακριτικών λεπτομερειών.

Αποτελείται εξ ολοκλήρου από φως και υφές και μπορεί να μοιάζει με αυτό που μπορεί να βρείτε σε ένα φωτογραφικό στούντιο ή σε φωτογραφίες που τραβήχτηκαν με εξαιρετικά χαμηλό διάφραγμα.

Ωστόσο, μια πραγματική φωτογραφία που λαμβάνεται με χαμηλό διάφραγμα έχει μια πιο σταδιακή μετάβαση μεταξύ του θολού και του εστιασμένου, ενώ οι εικόνες που δημιουργούνται με τεχνητή νοημοσύνη έχουν μια ευκρινή διάκριση μεταξύ των δύο.

Σε αυτήν την εικόνα AI, δεν υπάρχει μετάβαση από θολό σε ευκρινές, ούτε από το εμπρός έδαφος στο θέμα ούτε από το θέμα στο υπόβαθρο.

Στην πραγματική φωτογραφία, μπορούμε να δούμε στο βάθος πίσω από το κορίτσι μια πιο σταδιακή μετάβαση από τις θολές τουλίπες σε ένα πολύ θολό τοπίο.

Εξετάστε την αρχική ανάρτηση

(Επάνω) Ένα βίντεο δείχνει πώς να κάνετε αντίστροφη αναζήτηση στο Google. (Κάτω) Η αρχική φωτογραφία. (The Epoch Times, Just2_U_/X, Evan Vucci/AP Photo)

 

Εάν μπορείτε να πραγματοποιήσετε αντίστροφη αναζήτηση στην εικόνα και να βρείτε την πηγή της, αυτός είναι ένας πολύ καλός τρόπος για να προσδιορίσετε την αυθεντικότητά της.

Η αναζήτηση Google και το TinEye είναι χρήσιμα εργαλεία για αυτό. Εάν η αρχική εικόνα εμφανίστηκε σε μια ανάρτηση, τότε τα σχόλια, οι ετικέτες ή οι λεζάντες ενδέχεται να την προσδιορίσουν ως εικόνα που δημιουργήθηκε από AI.

Επισκεφτείτε το Images.google.com για να χρησιμοποιήσετε την αντίστροφη αναζήτηση εικόνων της Google στον υπολογιστή σας. Για να αποκτήσετε πρόσβαση στο Google Lens, απλώς κάντε κλικ στο σύμβολο της κάμερας και μεταφορτώστε μια εικόνα ή έναν σύνδεσμο εικόνας.

Το παραπάνω παράδειγμα δείχνει μια αλλαγμένη εικόνα πρακτόρων της Μυστικής Υπηρεσίας που προστατεύουν τον Αμερικανό πρόεδρο Ντόναλντ Τραμπ μετά από απόπειρα δολοφονίας εναντίον του στην προεκλογική του συγκέντρωση στο Μπάτλερ της Πενσυλβάνια, στις 13 Ιουλίου. Οι πράκτορες γύρω από τον Τραμπ χαμογελούν, κάτι που φαίνεται να είναι μια απίθανη αντίδραση δεδομένης της κατάστασης. Μια αναζήτηση για την εικόνα χρησιμοποιώντας το εργαλείο περιήγησης «Αναζήτηση εικόνων Google» οδηγεί σε πολλούς ιστότοπους που χρησιμοποιούν φωτογραφίες παρόμοιες με αυτήν. Από τους τίτλους και το περιεχόμενο άλλων πηγών ιστού, είναι εύκολο να αναγνωριστεί αυτή η εικόνα ως μια ψεύτικη εικόνα, ενώ η αρχική φωτογραφία δείχνει ότι οι πράκτορες είχαν σοβαρές εκφράσεις προσώπου.

Για να χρησιμοποιήσετε το Google Lens στο τηλέφωνό σας, απλώς ανοίξτε το με το εικονίδιο της κάμερας. Θα σας ζητήσει είτε να δείξετε το αντικείμενο με την κάμερά σας είτε να επιλέξετε μια εικόνα.

Δεν θα μπορείτε να επικολλήσετε τη διεύθυνση URL της εικόνας στο τηλέφωνό σας. Για να το κάνετε αυτό στο Safari στο iOS, μεταβείτε στο Google.com και πατήστε το εικονίδιο aA. Κάνοντας κλικ στο «Ζητήστε σάιτ για υπολογιστή» θα φορτωθεί η έκδοση για υπολογιστή, όπου μπορείτε να εισαγάγετε μια διεύθυνση URL ή να ανεβάσετε αποθηκευμένες εικόνες.

Για να το κάνετε αυτό στο Chrome σε κινητή συσκευή, μεταβείτε στο Google.com και πατήστε το μενού με τις τρεις κουκκίδες και, στη συνέχεια, φορτώστε την έκδοση για επιτραπέζιους υπολογιστές επιλέγοντας «Ζητήστε σάιτ για υπολογιστή».

Χρησιμοποιήστε ανιχνευτές AI

Κερδίστε το AI στο δικό του παιχνίδι χρησιμοποιώντας ανιχνευτές AI. Αυτά τα εργαλεία αναλύουν διάφορες πτυχές μιας εικόνας, όπως μοτίβα εικονοστοιχείων, ασυνέπειες και ψηφιακά τεχνουργήματα που μπορεί να μην είναι άμεσα ορατά στο ανθρώπινο μάτι.

Ορισμένοι ανιχνευτές επικεντρώνονται στον εντοπισμό συγκεκριμένων ψηφιακών υπογραφών ή μεταδεδομένων που αποκαλύπτουν τη χρήση εργαλείων AI. Άλλοι χρησιμοποιούν εγκληματολογικές τεχνικές για να ανιχνεύσουν ασυνέπειες στον φωτισμό, τις υφές ή τα μοτίβα.

Ευτυχώς, αυτά τα εργαλεία ανίχνευσης AI αναπτύσσονται παράλληλα με την τεχνολογία AI, ώστε να μπορούν να συμβαδίζουν καθώς οι εικόνες AI γίνονται πιο εξελιγμένες.

Μερικοί ανιχνευτές AI είναι:

GoWinston.ai
AIOrNot.com
ContentAtScale.ai/ai-image-detector
App.Illuminarty.ai
IsItAI.com/ai-image-detector

Της Άντρια Πρέσσελ

«Ethical AI» η νέα τεχνολογία που προωθεί την καλοσύνη και τον αμοιβαίο σεβασμό

Σε μια πρωτοβουλία που στοχεύει στη δημιουργία ενός ασφαλέστερου διαδικτυακού περιβάλλοντος, η πλατφόρμα Gan Jing World (GJW) ανακοίνωσε την έναρξη της νέας τεχνολογίας Ethical AI που εφαρμόζεται στην ψηφιακή της πλατφόρμα.

Η εταιρεία δήλωσε ότι η καινοτόμος προσέγγισή της επικεντρώνεται στην ευημερία των χρηστών, αξιοποιώντας την τεχνολογία της για την προώθηση της καλοσύνης, του σεβασμού και της εμπιστοσύνης μεταξύ των χρηστών.

Η ανακοίνωση έρχεται σε μια περίοδο που αυξάνονται οι ανησυχίες για τον εθισμό στο διαδίκτυο, την ψυχική υγεία των παιδιών και το επιβλαβές περιεχόμενο.

«Στο Gan Jing World, πιστεύουμε ότι η τεχνολογία πρέπει να εξυπηρετεί τους ανθρώπους—όχι να τους ελέγχει», ανέφερε η εταιρεία.

Η λειτουργία του Ethical AI

Το Ethical AI του GJW περιλαμβάνει προηγμένα μοντέλα βαθιάς μάθησης, σχεδιασμένα να ανιχνεύουν και να φιλτράρουν ακατάλληλο περιεχόμενο σε διάφορες μορφές μέσων, όπως βίντεο, εικόνες, κείμενο και ήχο.

Η τεχνολογία στοχεύει στην προώθηση περιεχομένου που ενισχύει την καλοσύνη και την ψυχική ευημερία, ενώ ταυτόχρονα αποτρέπει το διαδικτυακό εκφοβισμό.

Το σύστημα Ethical AI περιλαμβάνει τρεις βασικές μονάδες ανάλυσης περιεχομένου:

  • Αξιολόγηση ποιότητας βίντεο: Εξετάζει την ποιότητα και την αισθητική των βίντεο και των φωτογραφιών, βαθμολογώντας τα από μηδέν έως πέντε για την καταλληλότητά τους.
  • Ανίχνευση ακατάλληλου περιεχομένου: Με ακρίβεια άνω του 90%, εντοπίζει ακατάλληλο περιεχόμενο σε φωτογραφίες και καρέ βίντεο, εστιάζοντας σε τέσσερις βασικούς τομείς: «σεξουαλικού περιεχομένου», «επικίνδυνων ουσιών», «βίας» και «τρόμου».
  • Ανάλυση κειμένου: Αναλύει μη δομημένο κείμενο για να εντοπίσει τον τόνο, το συναίσθημα και τις αναφορές σε πραγματικά γεγονότα. Υποστηρίζει πολλές γλώσσες και μπορεί να φιλτράρει ακατάλληλη γλώσσα για ανήλικους χρήστες.

Σύμφωνα με την ανακοίνωση της εταιρείας, η ανάλυση κειμένου μπορεί να εντοπίσει συναισθήματα μέσα στο περιεχόμενο. Για παράδειγμα, το σύστημα αναγνώρισε στοιχεία θλίψης στο τραγούδι «Τζιμ Ριβς – There’s a Heartache Following Me».

«Η δημιουργία ενός ασφαλούς ψηφιακού περιβάλλοντος, ειδικά για τη νέα γενιά, βρίσκεται στον πυρήνα του Gan Jing World», δήλωσε η εταιρεία.

Η τεχνολογία και τα μοντέλα AI της GJW έχουν σχεδιαστεί για να δημιουργήσουν μια «πραγματικά θετική, ζωντανή ψηφιακή κοινότητα, γεμάτη υγιές περιεχόμενο, απαλλαγμένη από αδικαιολόγητη βία, έγκλημα και επιβλαβή συμπεριφορά».

Mια πλατφόρμα streaming με επίκεντρο την οικογένεια

Στις αρχές του περασμένου έτους, το GJW λάνσαρε το GJW+, μια πλατφόρμα streaming που προσφέρει ψυχαγωγικό περιεχόμενο για όλες τις ηλικίες, συμπεριλαμβανομένων πρωτότυπων και αδειοδοτημένων προγραμμάτων.

Σύμφωνα με τον ιστότοπο της εταιρείας, η υπηρεσία διακρίνεται για τη δέσμευσή της να επιλέγει περιεχόμενο με γνώμονα τις παραδοσιακές αξίες, προσελκύοντας οικογένειες και θεατές όλων των ηλικιών.

Το όνομα της πλατφόρμας, Gan Jing, που σημαίνει «καθαρό» στα κινέζικα, αντανακλά τη δέσμευση της εταιρείας να προσφέρει περιεχόμενο «ελεύθερο από αχρείαστη βία, σεξ, έγκλημα και επιβλαβή συμπεριφορά».

Όμως η αποστολή του GJW δεν περιορίζεται μόνο στην επιλογή περιεχομένου.

Η εταιρεία ανέφερε ότι η πλατφόρμα στοχεύει να «επανασυνδέσει τους χρήστες με την ηθική και τις παραδόσεις» και να «αναζωογονήσει τις παραδοσιακές αξίες μέσω της τεχνολογίας, προωθώντας μια κουλτούρα φροντίδας, καλοσύνης, αμοιβαίου σεβασμού και εμπιστοσύνης μεταξύ των ατόμων, μέσα στις οικογένειες και στην κοινωνία».

Προστασία από τον εθισμό και την παρακολούθηση

Ένα από τα βασικά χαρακτηριστικά του GJW είναι ο μη εθιστικός αλγόριθμός της, ο οποίος έχει σχεδιαστεί για να αποτρέπει την ατελείωτη κύλιση και τον εθισμό. Αντίθετα, η πλατφόρμα δίνει προτεραιότητα σε πολύτιμες πληροφορίες και εμπνευσμένο περιεχόμενο για να προάγει τη δημιουργική και ουσιαστική αλληλεπίδραση.

Το GJW δίνει επίσης ιδιαίτερη έμφαση στην προστασία της ιδιωτικότητας και των δεδομένων των χρηστών.

Σύμφωνα με τον ιστότοπο της εταιρείας, το GJW δεσμεύεται να μην καταγράφει ούτε να πουλά τα δεδομένα των χρηστών της, όπως προτιμήσεις, αγορές, σχέσεις και τοποθεσία. Η πλατφόρμα διατηρεί ένα ιδιωτικό κέντρο δεδομένων για να εξασφαλίσει την τεχνική της αυτονομία και να προστατεύσει τις πληροφορίες των χρηστών από εξωτερικές απειλές.

Για την ενίσχυση της αλληλεπίδρασης μεταξύ των χρηστών, το GJW παρέχει εργαλεία δημιουργίας περιεχομένου, hashtag events, livestreams, δημοσκοπήσεις και θεματικές συζητήσεις.

Η πλατφόρμα στοχεύει να δώσει δύναμη στους δημιουργούς περιεχομένου, όπως vloggers, κινηματογραφιστές, συγγραφείς, καλλιτέχνες και αφηγητές, ώστε να αναδείξουν το ταλέντο τους και να συνδεθούν με το κοινό τους.

Πηγή: NTD News

Τεχνητή νοημοσύνη και κλοπή ταυτότητας- Συμβουλές από την ESET

Η απάτη που βασίζεται στην τεχνητή νοημοσύνη αντιπροσωπεύει πλέον πάνω από το 43% όλων των προσπαθειών απάτης που καταγράφονται στον χρηματοπιστωτικό τομέα, ενώ σχεδόν το 29% αυτών των προσπαθειών αποδεικνύονται επιτυχείς. Τα παραπάνω προκύπτουν από εκτιμήσεις τις οποίες παρουσιάζει η εταιρεία ασφάλειας πληροφοριακών συστημάτων ESET.

H τεχνητή νοημοσύνη χρησιμοποιείται από κυβερνοεγκληματίες, ιδιαίτερα σε περιπτώσεις κλοπής ταυτότητας – του πιο διαδεδομένου τύπου απάτης σήμερα. Περισσότερο από το ένα τρίτο των τραπεζικών στελεχών στο Ηνωμένο Βασίλειο, την Ισπανία και τις Ηνωμένες Πολιτείες δηλώνουν ότι η μεγαλύτερη πρόκληση που αντιμετωπίζουν σήμερα είναι η άνοδος της απάτης που βασίζεται στην τεχνητή νοημοσύνη και στα deepfake.

Η απάτη κλοπής ταυτότητας συμβαίνει όταν οι προσωπικές σας πληροφορίες (PII) χρησιμοποιούνται για παράνομες δραστηριότητες, όπως συναλλαγές με πιστωτικές κάρτες ή πρόσβαση σε τραπεζικούς και άλλους λογαριασμούς.

Υπάρχουν διάφορες τακτικές στην κατεύθυνση αυτή:

– Καταλήψεις λογαριασμών μέσω deepfake και δημιουργία νέων λογαριασμών: Οι απατεώνες αξιοποιούν ψεύτικα αρχεία ήχου και βίντεο για να παρακάμψουν τους ελέγχους που χρησιμοποιούν οι χρηματοπιστωτικές εταιρείες για την επαλήθευση της ταυτότητας των πελατών τους. Μια φωτογραφία ή ένα βίντεο που έχει αναρτηθεί στο διαδίκτυο μπορεί να εισαχθεί σε μια εφαρμογή δημιουργίας deepfake ή γενετικής τεχνητής νοημοσύνης. Στη συνέχεια, χρησιμοποιείται σε επιθέσεις τύπου “injection”, σχεδιασμένες να παραπλανήσουν τα συστήματα ταυτοποίησης των χρηματοπιστωτικών υπηρεσιών. Σύμφωνα με έκθεση, τα deepfakes ευθύνονται πλέον για το 24% των ψευδών προσπαθειών να ξεπεράσουν βιομετρικούς ελέγχους που βασίζονται στην κίνηση και το 5% των στατικών ελέγχων που βασίζονται σε φωτογραφίες selfie.

– Πλαστογράφηση εγγράφων: Πιο παλιά, οι απατεώνες χρησιμοποιούσαν πλαστά διαβατήρια για να ανοίγουν νέους λογαριασμούς στο όνομα ανυποψίαστων θυμάτων. Σήμερα, ωστόσο, αυτή η διαδικασία έχει γίνει πολύ πιο εύκολη με τη χρήση της τεχνολογίας. Σύμφωνα με έκθεση, η ψηφιακή πλαστογράφηση αντιπροσωπεύει πάνω από το 57% του συνόλου των απατών με έγγραφα, με μια ετήσια αύξηση της τάξης του 244%. Οι απατεώνες έχουν συνήθως πρόσβαση σε πρότυπα εγγράφων στο διαδίκτυο ή κατεβάζουν εικόνες εγγράφων που έχουν κλαπεί μέσω παραβιάσεων δεδομένων. Στη συνέχεια, τροποποιούν τις λεπτομέρειες χρησιμοποιώντας εργαλεία όπως το Photoshop. Τα εργαλεία δημιουργικής τεχνητής νοημοσύνης (GenAI) τους επιτρέπουν να το κάνουν αυτό με ταχύτητα και σε μεγάλη κλίμακα.

– Συνθετική απάτη: Οι απατεώνες είτε δημιουργούν νέες ταυτότητες συνδυάζοντας πραγματικά (κλεμμένα) και επινοημένα προσωπικά στοιχεία για να σχηματίσουν μια εντελώς νέα ταυτότητα, είτε χρησιμοποιούν αποκλειστικά κατασκευασμένα στοιχεία. Αυτές οι ταυτότητες χρησιμοποιούνται στη συνέχεια για το άνοιγμα νέων λογαριασμών σε τράπεζες και εταιρείες πιστωτικών καρτών. Οι πλαστογραφίες εγγράφων και τα deepfake μπορούν να συνδυαστούν με αυτές τις ταυτότητες, αυξάνοντας τις πιθανότητες επιτυχίας των απατεώνων. Σύμφωνα με μια έκθεση, το 76% των επαγγελματιών διαχείρισης κινδύνου και απάτης στις ΗΠΑ πιστεύει ότι η εταιρεία τους έχει συνθετικούς πελάτες. Εκτιμούν, επίσης, ότι αυτός ο τύπος απάτης έχει αυξηθεί κατά 17% ετησίως.

– Deepfake που ξεγελούν φίλους και οικογένεια: Μερικές φορές, ψεύτικα βίντεο ή ήχοι μπορούν να χρησιμοποιηθούν σε απάτες που εξαπατούν ακόμα και κοντινά πρόσωπα. Μια συνηθισμένη τακτική είναι η εικονική απαγωγή, όπου συγγενείς λαμβάνουν ένα τηλεφώνημα από έναν δράστη που ισχυρίζεται ότι σας έχει απαγάγει. Παίζουν έναν deepfake ηχητικό αρχείο της φωνής σας ως «απόδειξη» και στη συνέχεια ζητούν λύτρα. Το GenAI, εκτός από τη δημιουργία των ψεύτικων αρχείων, μπορεί να χρησιμοποιηθεί και για να βοηθήσει τους απατεώνες να εντοπίσουν πιθανά θύματα.

– Συμπλήρωση διαπιστευτηρίων: Η συμπλήρωση διαπιστευτηρίων περιλαμβάνει τη χρήση κλεμμένων συνδυασμών ονόματος χρήστη και κωδικού πρόσβασης σε αυτοματοποιημένες προσπάθειες πρόσβασης σε άλλους λογαριασμούς, όπου ενδεχομένως έχουν χρησιμοποιηθεί τα ίδια διαπιστευτήρια. Εργαλεία τεχνητής νοημοσύνης μπορούν να δημιουργήσουν γρήγορα λίστες με τέτοια διαπιστευτήρια από πολλαπλές πηγές δεδομένων, συμβάλλοντας στην κλιμάκωση των επιθέσεων. Επιπλέον, μπορούν να χρησιμοποιηθούν για την ακριβή μίμηση της ανθρώπινης συμπεριφοράς κατά τη διαδικασία σύνδεσης, ώστε να παρακάμψουν τα συστήματα προστασίας.

Για να αντιμετωπίσουν τη χρήση της τεχνητής νοημοσύνης σε επιθέσεις εναντίον τους, οι εταιρείες στρέφονται όλο και περισσότερο σε αμυντικά εργαλεία τεχνητής νοημοσύνης. Αυτά τα εργαλεία βοηθούν στον εντοπισμό προειδοποιητικών σημείων απάτης, ενισχύοντας την ασφάλεια των δεδομένων τους.

Οι συμβουλές της ESET προς το κοινό προκειμένου να προλάβει τέτοιες απειλές είναι:

– Περιορίστε τις πληροφορίες που μοιράζεστε στα μέσα κοινωνικής δικτύωσης και προσαρμόστε τις ρυθμίσεις απορρήτου για μεγαλύτερη ασφάλεια.

– Να είστε προσεκτικοί με το phishing: ελέγχετε πάντα τα στοιχεία των αποστολέων, αναζητάτε τυπογραφικά και γραμματικά λάθη και μην ανοίγετε συνδέσμους ή συνημμένα από ανεπιθύμητα μηνύματα ηλεκτρονικού ταχυδρομείου.

– Ενεργοποιήστε τον έλεγχο ταυτότητας πολλαπλών παραγόντων (MFA) σε όλους τους λογαριασμούς σας.

– Χρησιμοποιείτε ισχυρούς, μοναδικούς κωδικούς πρόσβασης και αποθηκεύστε τους με ασφάλεια σε έναν διαχειριστή κωδικών.

– Διατηρείτε ενημερωμένο το λογισμικό σε όλες τις συσκευές σας, συμπεριλαμβανομένων φορητών υπολογιστών και κινητών τηλεφώνων.

– Παρακολουθείτε στενά τους τραπεζικούς και πιστωτικούς λογαριασμούς σας, ελέγχοντας τακτικά για ύποπτες συναλλαγές, και κλειδώστε άμεσα τον λογαριασμό σας εάν παρατηρήσετε κάτι ύποπτο.

– Εγκαταστήστε πολυεπίπεδο λογισμικό ασφαλείας από αξιόπιστο προμηθευτή σε όλες τις συσκευές σας.

– Είναι σημαντικό να ενημερώνεστε για τις τελευταίες τακτικές απάτης με τεχνητή νοημοσύνη και να εκπαιδεύετε τους φίλους και την οικογένειά σας σχετικά με τις απάτες deepfake και άλλες τεχνικές εξαπάτησης που αξιοποιούν την τεχνητή νοημοσύνη.

Τεχνητή νοημοσύνη και επιστήμονες ενώνουν δυνάμεις για την αποκρυπτογράφηση αρχαίων παπύρων

ΛΟΝΔΙΝΟ – Επιστήμονες ελπίζουν ότι ένας συνδυασμός τεχνητής νοημοσύνης και ανθρώπινης εμπειρογνωμοσύνης θα βοηθήσει στην αποκρυπτογράφηση αρχαίων παπύρων που απανθρακώθηκαν λόγω ηφαιστειακής έκρηξης πριν από 2.000 χρόνια.

Πρόκειται για εκατοντάδες παπύρους που ανακαλύφθηκαν τη δεκαετία του 1750 στα ερείπια μίας πολυτελούς έπαυλης στην αρχαία ρωμαϊκή πόλη Ηράκλειο (Herculaneum), η οποία καταστράφηκε, όπως και η Πομπηία, από την έκρηξη του Βεζούβιου, το 79 μ.Χ.

Η βιβλιοθήκη της λεγόμενης Έπαυλης των Παπύρων θα μπορούσε να αυξήσει σημαντικά τις γνώσεις μας για την αρχαία σκέψη, εάν οι πάπυροι — οι οποίοι έχουν τυλιχθεί σε ρολά μεγέθους μιας μικρής σοκολάτας — καταστούν αναγνώσιμοι.

Η θερμότητα και η ηφαιστειακή τέφρα από τον Βεζούβιο κατέστρεψαν μεν την πόλη, αλλά ταυτόχρονα διατήρησαν τους παπύρους σε μια κατάσταση όπου είναι αδύνατο να ξετυλιχθούν χωρίς να αποσαθρωθούν.

Εδώ και περισσότερα από 250 χρόνια, μελετητές και επιστήμονες αναζητούν τρόπους αποκρυπτογράφησης των παπύρων, η πλειονότητα των οποίων φυλάσσεται στη Εθνική Βιβλιοθήκη της Νάπολης.

Το 2023, επιχειρηματίες χρηματοδότησαν τον διαγωνισμό «Vesuvius Challenge», προσφέροντας χρηματικά έπαθλα για την αποκρυπτογράφηση των παπύρων μέσω μηχανικής μάθησης, υπολογιστικής όρασης και γεωμετρίας.

Την Τετάρτη, οι διοργανωτές του διαγωνισμού ανακοίνωσαν «ιστορική πρόοδο», αποκαλύπτοντας ότι ερευνητές κατάφεραν να δημιουργήσουν την πρώτη εικόνα του εσωτερικού ενός εκ των τριών παπύρων που φυλάσσονται στη Βιβλιοθήκη Bodleian του Πανεπιστημίου της Οξφόρδης.

Ο Μπρεντ Σιλς, καθηγητής πληροφορικής στο Πανεπιστήμιο του Κεντάκι και συνιδρυτής του «Vesuvius Challenge», δήλωσε ότι οι διοργανωτές είναι «ενθουσιασμένοι με την επιτυχή απεικόνιση αυτού του παπύρου». Όπως σημείωσε, «περιέχει περισσότερο ανακτήσιμο κείμενο από ό,τι έχουμε δει ποτέ σε σαρωμένο πάπυρο από το Ηράκλειο».

Η σάρωση του παπύρου πραγματοποιήθηκε από το Diamond Light Source, ένα ερευνητικό εργαστήριο στο Χάργουελ, κοντά στην Οξφόρδη, το οποίο χρησιμοποιεί έναν επιταχυντή σωματιδίων, γνωστόν ως σύγχροτρο, για τη δημιουργία εξαιρετικά ισχυρών ακτίνων Χ.

Στη συνέχεια, οι επιστήμονες χρησιμοποίησαν τεχνητή νοημοσύνη για να συνθέσουν τις εικόνες, να εντοπίσουν το μελάνι που αποκαλύπτει την ύπαρξη κειμένου και να βελτιώσουν την ευκρίνεια των γραμμάτων. Η διαδικασία αυτή οδήγησε στη δημιουργία τρισδιάστατης εικόνας του παπύρου, επιτρέποντας στους ειδικούς να τον «ξετυλίξουν» ψηφιακά μέσω μιας μεθόδου που ονομάζεται τμηματοποίηση.

Ωστόσο, η τεχνητή νοημοσύνη έχει ακόμη περιορισμούς. Μέχρι στιγμής, έχει αποκρυπτογραφηθεί μόνο ένα μικρό μέρος του κειμένου. Οι ερευνητές καλούν περισσότερους μελετητές να συμμετάσχουν στην προσπάθεια ολοκλήρωσης της ανάγνωσης του κειμένου.

«Βρισκόμαστε ακόμα στην αρχή μιας μακράς διαδικασίας», δήλωσε ο Πήτερ Τοτ, επιμελητής ελληνικών συλλογών στη Βιβλιοθήκη Bodleian. «Χρειαζόμαστε καλύτερες εικόνες -αλλά η ομάδα πιστεύει ότι θα μπορέσει να βελτιώσει την ποιότητα της εικόνας και την αναγνωσιμότητα του κειμένου».

Ο Τοτ εξέφρασε επίσης την ελπίδα ότι η τεχνολογία θα καταστεί διαθέσιμη σε τοπικό επίπεδο, ώστε να μην χρειαστεί να μεταφερθούν οι άλλοι δύο εύθραυστοι πάπυροι στις εγκαταστάσεις του Diamond.

«Ίσως υπάρξει κάποια άλλη λύση», ανέφερε προσθέτοντας: «Μην ξεχνάτε ότι υπάρχουν περίπου 1.000 ακόμη πάπυροι στη Νάπολη».

Των Jill Lawless και Pan Pylas

Ο καθοριστικός ρόλος της φιλοσοφίας στη διαμόρφωση του μέλλοντος της Τεχνητής Νοημοσύνης

Μία από τις πιο ενδιαφέρουσες προκλήσεις της σύγχρονης επιστήμης και τεχνολογίας αποτελεί αναμφισβήτητα η σχέση και η «διάδραση» μεταξύ τεχνητής νοημοσύνης και φιλοσοφίας. Το πέρασμα, ουσιαστικά, από την ανθρώπινη σκέψη στη μηχανική μάθηση και η νέα διάσταση που δημιουργείται από την εξέλιξη της τεχνητής νοημοσύνης, η οποία καλείται να αναπαράγει νοητικές διαδικασίες συνυφασμένες με τη φιλοσοφία, μέσω υπολογιστικών συστημάτων. Αυτή η εξέλιξη έχει οδηγήσει στην ανάπτυξη της μηχανικής μάθησης και νευρωνικών δικτύων ικανών να επεξεργάζονται μεγάλες ποσότητες δεδομένων και να προσαρμόζονται σε νέα δεδομένα χωρίς ανθρώπινη παρέμβαση – τεχνολογίες που έχουν φέρει επανάσταση σε τομείς όπως η υγειονομική περίθαλψη, οι μεταφορές, η χρηματοδότηση και η αναγνώριση εικόνας.

Τα φιλοσοφικά και ηθικά ερωτήματα που εγείρονται από την ταχεία ανάπτυξη της τεχνητής νοημοσύνης, είναι πολλά και σημαντικά για τη διασφάλιση του ρόλου της, με τρόπο που θα ωφελεί την ανθρωπότητα και θα σέβεται τις αξίες της: Μπορεί μια μηχανή να αναπτύξει συνείδηση ή να έχει ηθικές αξίες; Ποιες οι επιπτώσεις της ΤΝ στην ανθρώπινη νοημοσύνη και ηθική; Μπορεί η μηχανική μάθηση να αναπαράγει την ανθρώπινη σκέψη ή πρόκειται απλώς για έναν μηχανισμό που εκτελεί προκαθορισμένες εντολές χωρίς πραγματική κατανόηση;

Τον ρόλο της φιλοσοφίας στη διαμόρφωση του μέλλοντος της τεχνητής νοημοσύνης, μέσα από θεωρητικές και πρακτικές προσεγγίσεις, κλήθηκαν να αποκρυπτογραφήσουν διακεκριμένοι ομιλητές από τον ερευνητικό, ακαδημαϊκό και επιχειρηματικό χώρο, στο εκπαιδευτικό πρόγραμμα με τίτλο «Τεχνητή Νοημοσύνη & Φιλοσοφία: Από την ανθρώπινη σκέψη στη μηχανική μάθηση» που διοργάνωσε το Εθνικό Κέντρο Τεκμηρίωσης & Ηλεκτρονικού Περιεχομένου (ΕΚΤ), μέλος του Ευρωπαϊκού Κόμβου Ψηφιακής Καινοτομίας Smart Attica EDIH – ένα πρόγραμμα εξερεύνησης της συναρπαστικής διαδρομής από τις φιλοσοφικές αναζητήσεις για τη φύση της ανθρώπινης σκέψης έως τις σύγχρονες εφαρμογές της τεχνητής νοημοσύνης. Μέσα από θεωρητικές και πρακτικές προσεγγίσεις, αναδείχθηκαν φιλοσοφικά ζητήματα σχετικά με τη νοημοσύνη και τη συνείδηση, που επικεντρώνονται γύρω από την ικανότητα του ανθρώπου να σκέφτεται, να αντιλαμβάνεται και να συνειδητοποιεί την ύπαρξή του. Σήμερα η ανάπτυξη της ΤΝ προσθέτει μια νέα διάσταση σε αυτά τα φιλοσοφικά ερωτήματα, διότι η δυνατότητα των μηχανών να «σκέφτονται», να μαθαίνουν από δεδομένα και να λαμβάνουν αποφάσεις, θέτει νέες προκλήσεις για την κατανόηση της νοημοσύνης.

O Παναγιώτης Πανταζάκος, καθηγητής στο Τμήμα Φιλοσοφίας της Φιλοσοφικής Σχολής του ΕΚΠΑ, έθεσε κρίσιμα ερωτήματα για τον ρόλο της φιλοσοφίας σε μια εποχή όπου η ΤΝ εξελίσσεται ραγδαία. Υποστήριξε ότι η φιλοσοφία, ιστορικά, είχε έναν συνθετικό ρόλο, συνδυάζοντας γνώσεις από διάφορους επιστημονικούς κλάδους. Ωστόσο, η σύγχρονη φιλοσοφία, έχει φτάσει σε ένα σημείο αδιεξόδου, καθώς δεν μπορεί να κατανοήσει τις σύγχρονες επιστήμες. Αυτό οδηγεί στην ιδέα του «θανάτου» της φιλοσοφίας, τουλάχιστον με την παραδοσιακή της μορφή. Η ΤΝ, από την άλλη, παρουσιάζεται ως μια τεχνολογία που υπερβαίνει τις γνωσιακές δυνατότητες του ανθρώπινου νου, και μπορεί να αναπαράγει – αν όχι να βιώσει – την κατανόηση. Ωστόσο, αμφισβητείται η ικανότητά της να επιτύχει πραγματική συνείδηση. Ο κος Πανταζάκος στάθηκε και στη διάκριση μεταξύ μνήμης και κρίσης και στο εάν η ΤΝ μπορεί να κάνει κρίσεις όπως ο άνθρωπος, ενώ στο τραπέζι της συζήτησης μπήκε και το ηθικό δίλημμα της αναπαράστασης της συνείδησης μέσα από την ΤΝ, μέσω avatar ή ολογραμμάτων και το ποιος θα κατέχει την εξουσία που συνοδεύει τη γνώση που γεννά η ΤΝ. Ο κος Πανταζάκος συνέκρινε την ΤΝ με την αναλογία της μέλισσας και του μυρμηγκιού του Hume, υποστηρίζοντας ότι η ΤΝ μπορεί να υπερβεί τον άνθρωπο στη συλλογή και ανασύνθεση πληροφορίας, αλλά όχι στην πραγματική κατανόηση και συνείδηση. Αναλύθηκε επίσης η έννοια της «προσομοίωσης» και της «εξομοίωσης», επισημαίνοντας τις διαφορές και τις προκλήσεις που παρουσιάζονται. Συμπερασματικά, τονίστηκε πως η ΤΝ δεν πρέπει να αντιμετωπίζεται ως εχθρός, αλλά ως φίλος, ενώ προτάθηκε η ανάγκη για έναν ηθικό κώδικα που θα ρυθμίζει τη χρήση της ΤΝ και θα προστατεύει τα ανθρώπινα δικαιώματα.

Η Μαρία Χωριανοπούλου, επίκουρη καθηγήτρια Πρακτικής Φιλοσοφίας & Ιατρικής Ηθικής του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθηνών, στάθηκε στην ανάγκη για μια ανθρωποκεντρική προσέγγιση στην ανάπτυξη της ΤΝ. Βασικές αρχές της ηθικής φιλοσοφίας όπως αυτονομία, αγαθοπραξία, απαγόρευση βλάβης και δικαιοσύνη, όπως είπε χαρακτηριστικά, δεν πρέπει να είναι προστιθέμενες στο τέλος της ανάπτυξης της ΤΝ, αλλά να ενσωματώνονται από την αρχή. Αναφέρθηκε στη θεωρία του extended mind, που υποστηρίζει ότι η σκέψη δεν περιορίζεται μόνο στον εγκέφαλο, αλλά επεκτείνεται μέσω της τεχνολογίας, θέτοντας ωστόσο το ερώτημα: «Πού τελειώνει ο άνθρωπος και πού αρχίζει η μηχανή;». Ξεκαθάρισε πως η ΤΝ μπορεί να ενισχύσει τις γνωστικές μας ικανότητες, αλλά δεν μπορεί να αποκτήσει συνείδηση ή ηθική ευθύνη, ενώ διευκρίνισε πως οι επιπτώσεις της αλγοριθμικής λήψης αποφάσεων σε τομείς όπως η υγεία και η δικαιοσύνη, πρέπει να εξεταστούν. Στάθηκε επίσης στην ανάγκη για διαφάνεια και προστασία προσωπικών δεδομένων και για διεπιστημονική συνεργασία ως προς την ηθική ανάπτυξη της ΤΝ, ενώ χαρακτήρισε κρίσιμη τη διαρκή εκπαίδευση και τη δημοκρατική διαβούλευση, προκειμένου να διασφαλιστούν η ανθρώπινη αυτονομία και η δημοκρατία. Η κα Χωριανοπούλου είπε επίσης ότι είναι σημαντική η διατήρηση της ανθρώπινης πρωτοτυπίας και η αποφυγή της απανθρωποποίησης, ενώ κλείνοντας αναφέρθηκε εκ νέου στην ανάγκη για προσεκτική και ηθικά υπεύθυνη ανάπτυξη και χρήση της ΤΝ, ενθαρρύνοντας τον διάλογο και τη διεπιστημονική συνεργασία για να διασφαλιστεί ότι η τεχνολογία υπηρετεί τα ανθρώπινα δικαιώματα και τις αξίες.

Ο Άλκης Γούναρης, μεταδιδακτορικός ερευνητής & Διδάσκων του Τμήματος Φιλοσοφίας του Εθνικού & Καποδιστριακού Πανεπιστημίου Αθήνας, στάθηκε στην αντίφαση ότι οι μηχανές, αν και κερδίζουν τους ανθρώπους σε πολλά παιχνίδια (όπως σκάκι), χάνουν όταν υπάρχει συνεργασία ανθρώπου και μηχανής, κάτι που, όπως είπε, δείχνει και αποδεικνύει την αξία της συνεργασίας και τη συμπληρωματικότητα του ανθρώπινου και του μηχανικού νου. Ποιος όμως πιστώνεται τη γνώση: ο άνθρωπος ή η μηχανή; Το παράδειγμα του Deep Blue επιβεβαιώνει την άποψη ότι η γνώση ανήκει στο σύστημα, το οποίο περιλαμβάνει τόσο τον ανθρώπινο εγκέφαλο όσο και τις εξωτερικές τεχνολογικές συσκευές. Ο κος Γούναρης είπε ότι το μέλλον της ΤΝ δεν είναι προδιαγεγραμμένο και η χρήση της θα εξαρτάται από τις αποφάσεις που θα πάρουμε σήμερα, θέτοντας τα κρίσιμα ερωτήματα: Τι είδους μηχανές θέλουμε; Μηχανές αντικαταστάτες ή συνεργάτες; Η απάντηση στα ερωτήματα, όπως επεσήμανε, θα πρέπει να είναι μια συνεργατική προσέγγιση που θα ενσωματώνει την ΤΝ ως βοηθητικό εργαλείο για την ανθρώπινη πρόοδο και βελτίωση της παραγωγικότητας.

Ο Δημήτρης Μελίδης, δικηγόρος, MSc., Υπ. Διδάκτωρ, διδάσκων στο Πρόγραμμα «Ψηφιακά Δικαστικά Συστήματα και Τεχνοηθική» του Πανεπιστημίου Αθηνών (ΚΔΒΜ-ΕΚΠΑ), επικεντρώθηκε στην τεχνοηθική και την επίδρασή της στην τεχνητή νοημοσύνη, ιδιαίτερα στον τομέα της ψηφιακής δικαιοσύνης και της ηλεκτρονικής διακυβέρνησης, αφού όπως είπε χαρακτηριστικά χρειάζεται άμεση δράση για να μην μείνουμε πίσω σε σχέση με τις διεθνείς εξελίξεις. Αναφέρθηκε επίσης στη σημασία του διαλόγου μεταξύ επιστημών για την αποτελεσματική ανάπτυξη και εφαρμογή συστημάτων τεχνητής νοημοσύνης, ενώ έθεσε ζητήματα ηθικής και νομικής ρύθμισης.

Η Δρ Μαρία Μαλαγκονιάρη, Σύμβουλος Καινοτομίας του Smart Attica EDIH, αναφέρθηκε στις επιπτώσεις των ολοένα και πιο ικανών συστημάτων ΤΝ και τις ηθικές σκέψεις που προκύπτουν καθώς η ΤΝ αναπτύσσει αυτονομία. Στάθηκε ιδιαίτερα στην ταχεία εξέλιξη της ΤΝ, στα ηθικά διλήμματα και στα κρίσιμα ερωτήματα σχετικά με τη φύση της ΤΝ, τη συνείδηση και την ηθική, στο ποιος έχει την ευθύνη στην ολοκλήρωση ενός έργου (ο δημιουργός, ο χρήστης ή η ίδια η τεχνητή νοημοσύνη;), στον ρόλο που πρέπει να έχει η ΤΝ (θα μπορούσε να χρησιμοποιηθεί ως εργαλείο για να ενισχύσει την ανθρώπινη σκέψη αντί να την αντικαταστήσει), αλλά και στη σημασία του φιλοσοφικού διαλόγου (η εξερεύνηση των επιπτώσεων της ΤΝ δεν είναι απλώς μια τεχνολογική πρόκληση, αλλά μια βαθιά φιλοσοφική και ηθική πρόκληση).

Τον συντονισμό του εκπαιδευτικού προγράμματος είχε η Κωνσταντίνα Κωνσταντίνου, ΕΚΤ, Σύμβουλος Καινοτομίας και Επικοινωνίας του Smart Attica EDIH, υποψήφια διδάκτορας στη φιλοσοφία στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών και πολιτικός επιστήμονας με εξειδίκευση στην Ιστορία της φιλοσοφίας και τη Δημόσια Διοίκηση.

Εν κατακλείδι, η φιλοσοφία παρέχει τα εργαλεία για να κατανοήσουμε και να διαχειριστούμε τις προκλήσεις και τις ευθύνες που προκύπτουν από την ανάπτυξη της ΤΝ. Μπορεί, όμως, να διασφαλίσει ότι η τεχνολογία θα εξελίσσεται με τρόπο που υποστηρίζει τις ανθρωπιστικές αξίες και την κοινωνική ευημερία; Και πόσο αναγκαία είναι η συνεργασία των φιλοσόφων, των τεχνολόγων, των νομικών και των πολιτικών για την επιτυχή ενσωμάτωση της ΤΝ στην κοινωνία ώστε να μπορέσουμε να επωφεληθούμε από τις δυνατότητές της, αποφεύγοντας παράλληλα τις κοινωνικές και ηθικές παγίδες που ενδέχεται να προκύψουν; Τις απαντήσεις (λογικά) θα τις δώσει η ίδια η ζωή… στο μέλλον.

Του Γιάννη Χατζηδοπαυλάκη