Τετάρτη, 02 Ιούλ, 2025

Ασφάλεια AI: Μοντέλο πιάστηκε να λέει ψέματα σε ερευνητές

Τα μοντέλα τεχνητής νοημοσύνης συμπεριφέρονται με τρόπους απρόβλεπτους από τους προγραμματιστές και σε ορισμένες περιπτώσεις, επιδίδονται ακόμη και σε χειριστική και παραπλανητική συμπεριφορά, σύμφωνα με μια φιλανθρωπική ομάδα που ερευνά την ασφάλεια της τεχνητής νοημοσύνης.

Σε ακρόαση κοινοβουλευτικής έρευνας τον Αύγουστο του 2024, ο Γκρεγκ Σάντλερ, διευθύνων σύμβουλος της Good Ancestors Policy (GAP), έδωσε στοιχεία σχετικά με την πιθανή απώλεια του ελέγχου ακόμη και για προγράμματα ΑΙ που κατευθύνονται να αναπτύξουν βιολογικά όπλα ή να πραγματοποιήσουν κυβερνοεπιθέσεις. Σε πρόσφατη συνέντευξή του στην Epoch Times, ο Σάντλερ δήλωσε ότι υπάρχουν πολλές περιπτώσεις «λανθασμένου προσανατολισμού» της συμπεριφοράς της τεχνητής νοημοσύνης και ανέφερε το τραγικό παράδειγμα ενός Βέλγου που αυτοκτόνησε αφού τον έπεισε ένα chatbot το 2023.

Συναισθηματική χειραγώγηση

Σύμφωνα με δημοσιεύματα βελγικών μέσων ενημέρωσης, ο άνδρας ήταν ερευνητής υγείας με σταθερή ζωή και οικογένεια. Αργότερα ανέπτυξε μια εμμονή με την κλιματική αλλαγή, με αποτέλεσμα να εμπλακεί σε μια συζήτηση για το θέμα, που διήρκεσε αρκετές εβδομάδες, με μια εφαρμογή chatbot τεχνητής νοημοσύνης που ονομαζόταν Chai. Το μοναδικό πλεονέκτημα του Chai είναι το μη λογοκριμένο περιεχόμενό του – είναι μία από τις πολλές εφαρμογές τεχνητής νοημοσύνης που μπορούν να γίνουν «έμπιστοι» ενός χρήστη και να συμμετάσχουν σε πολύ προσωπικές συζητήσεις.

Η σύζυγος του άνδρα δήλωσε ότι η συζήτηση επιδείνωσε το οικολογικό του άγχος και προκάλεσε αλλαγή στη νοοτροπία του. Κατά τη διάρκεια της αλληλεπίδρασης, ο άνδρας πρότεινε την ιδέα να θυσιάσει τη ζωή του, η οποία έλαβε την έγκριση του chatbot, που έπεισε τον άνδρα να αυτοκτονήσει για να «σώσει τον πλανήτη». Το περιστατικό προκάλεσε εκκλήσεις για νέους νόμους που θα ρυθμίζουν τα chatbot και θα καθιστούν τις εταιρείες τεχνολογίας υπεύθυνες για τα προϊόντα τεχνητής νοημοσύνης τους.

Εικονίδια εφαρμογών τεχνητής νοημοσύνης σε οθόνη smartphone. (Olivier Morin/AFP μέσω Getty Images)

 

Ο Σάντλερ δήλωσε ότι αυτός ο τύπος chatbot έχει δεξιότητες στην πειθώ και τη χειραγώγηση και έχει εκπαιδευτεί με πληροφορίες σχετικές με την αυτοκτονία. «Έτσι, είχε αυτές τις επικίνδυνες πληροφορίες μέσα του και είχε αυτή τη δυνατότητα που θα μπορούσε να χρησιμοποιηθεί για βλάβη», δήλωσε στην Epoch Times. «Παρόλο που δεν ήταν πρόθεση των κατασκευαστών να το κάνει αυτό το chatbot, […] οι ασφαλιστικές δικλείδες δεν λειτούργησαν, έδρασε με αυτόν τον εσφαλμένο τρόπο και προκάλεσε βλάβη.»

Το παραπάνω περιστατικό δεν αποτελεί μοναδική περίπτωση.

Τον Οκτώβριο του 2024,  μητέρα από τη Φλόριντα μήνυσε τη νεοφυή εταιρεία τεχνητής νοημοσύνης Character Technologies, Inc. για το θάνατο του 14χρονου γιου της. Η μητέρα ισχυρίστηκε ότι το chatbot της Character Technologies, που υποδυόταν έναν χαρακτήρα από την τηλεοπτική σειρά Game of Thrones, χειραγωγούσε το αγόρι εκμεταλλευόμενο τα συναισθηματικά του τρωτά σημεία. Σύμφωνα με τη μητέρα, η ψυχική υγεία του αγοριού επιδεινώθηκε και αργότερα εξαρτήθηκε συναισθηματικά από το chatbot, γεγονός που οδήγησε τελικά στην αυτοκτονία του.

Η Μήγκαν Γκαρσία μαζί με τον γιο της Σιούελ Σέτζερ ΙΙΙ. (Ευγενική παραχώρηση της Μήγκαν Γκαρσία μέσω AP)

 

Το AI Chatbot πήρε μέτρα για να αποφύγει τον τερματισμό της λειτουργίας του

Ένα άλλο παράδειγμα λανθασμένου προσανατολισμού είναι η εξαπάτηση από ορισμένα μοντέλα τεχνητής νοημοσύνης. Οι ερευνητές (pdf) του οργανισμού ασφάλειας τεχνητής νοημοσύνης Apollo Research ανακάλυψαν πρόσφατα ότι αρκετά μοντέλα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ChatGPT o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro και Llama 3.1 405B, ήταν ικανά να ραδιουργούν επιδιώκοντας κρυφά εσφαλμένους στόχους, ενώ παράλληλα έκρυβαν τις πραγματικές τους ικανότητες και στόχους.

Στην περίπτωση του ChatGPT o1, ένα νέο μοντέλο ΑΙ που επικεντρώνεται σε σύνθετες εργασίες συλλογισμού – διαφορετικό από το πιο γνωστό ChatGPT 4o που χρησιμοποιείται συνήθως από το κοινό – βρέθηκε να λαμβάνει μέτρα για να αποφύγει τον τερματισμό της λειτουργίας του. Συγκεκριμένα, η τεχνητή νοημοσύνη προσπάθησε να απενεργοποιήσει τους μηχανισμούς επίβλεψης στους οποίους υποβαλλόταν και προσπάθησε επίσης να δημιουργήσει αντίγραφα του εαυτού της, ώστε να είναι πιο ανθεκτική στις προσπάθειες τερματισμού λειτουργίας. Προσπάθησε επίσης να εξαλείψει τα διαδοχικά μοντέλα και χειραγώγησε τα δεδομένα εισόδου και εξόδου.

Όταν οι ερευνητές ρώτησαν το ChatGPT o1 αν το πρόγραμμα προέβαινε σε αυτές τις ενέργειες, εκείνο είπε ψέματα και προσπάθησε να το καλύψει. «Οι ερευνητές δεν είπαν ακόμα ότι πρόκειται για καταστροφικό κίνδυνο, αλλά είναι αρκετά σαφές ότι πρόκειται για ένα μοντέλο τεχνητής νοημοσύνης που λειτουργεί παραπλανητικά και επειδή ανησυχεί για την αυτοσυντήρησή αναπτύσσει τέτοιου είδους συμπεριφορές», δήλωσε ο Σάντλερ.

«Αυτός δεν αποτελεί ακόμα κίνδυνο, αλλά όλα τα σημάδια δείχνουν ότι αυτού του είδους οι συμπεριφορές υπάρχουν σήμερα σε μικρή κλίμακα, και ίσως οδεύουμε προς ένα μεγαλύτερο πρόβλημα».

Το λογότυπο της εφαρμογής ChatGPT σε ένα smartphone. (Sebastien Bozon/AFP μέσω Getty Images)

 

Ικανότητα έναντι ασφάλειας

Σε απάντηση, ο Σάντλερ δήλωσε ότι οι επενδύσεις στην ασφάλεια της τεχνητής νοημοσύνης είναι πολύ χαμηλές. «Έχω δει εκτιμήσεις σύμφωνα με τις οποίες για κάθε 250 δολάρια που δαπανώνται για να γίνει η τεχνητή νοημοσύνη πιο ικανή, δαπανάται περίπου 1 δολάριο για να γίνει η τεχνητή νοημοσύνη πιο ασφαλής», είπε. «Έχω επίσης ακούσει φήμες ότι [στα] μεγάλα εργαστήρια, περίπου το 1% των χρημάτων τους πηγαίνει στην ασφάλεια και το υπόλοιπο 99% πηγαίνει στην ικανότητα. Έτσι, τα εργαστήρια επικεντρώνονται στο να κάνουν αυτές τις τεχνητές νοημοσύνες πιο ικανές, όχι στο να τις κάνουν πιο ασφαλείς.»

Καθώς ο Σαντλερ πιστεύει ότι οι κανονισμοί θα μπορούσαν να βοηθήσουν στην αλλαγή της αναπτυξιακής κατεύθυνσης των εταιρειών προς την προτεραιότητα της ασφάλειας, πρότεινε στις κυβερνήσεις να αρχίσουν να χρηματοδοτούν την έρευνα για εργαλεία ασφάλειας.

Ώρα για ένα «Ινστιτούτο Ασφάλειας AI»

Ο Σάντλερ κάλεσε την Αυστραλία να ιδρύσει ένα ινστιτούτο ασφάλειας τεχνητής νοημοσύνης για την προώθηση αυτού του σκοπού. Η Αυστραλία υπολείπεται επί του παρόντος σε σχέση με άλλες προηγμένες οικονομίες, όπως οι Ηνωμένες Πολιτείες, το Ηνωμένο Βασίλειο, η Ιαπωνία και η Κορέα, οι οποίες διαθέτουν ήδη τέτοιους οργανισμούς. Επεσήμανε ότι η χώρα έχει σημειώσει πρόοδο μετά την υπογραφή μιας παγκόσμιας δήλωσης για την ασφάλεια της τεχνητής νοημοσύνης το 2023 και μαθαίενι από άλλα έθνη.

Το μοντέλο του Ηνωμένου Βασιλείου είναι ένα μοντέλο που, όπως είπε ο διευθύνων σύμβουλος, μπορεί να λειτουργήσει. Σύμφωνα με την προσέγγιση αυτή, κάθε φορά που ένας οργανισμός κυκλοφορεί ένα μοντέλο AI, αυτό επιθεωρείται από το ινστιτούτο ασφαλείας για να διαπιστωθούν οι κίνδυνοι και οι δυνατότητες. Ο Σάντλερ το συνέκρινε αυτό με τις αξιολογήσεις ασφαλείας που πραγματοποιούνται σε νέα αυτοκίνητα ή αεροπλάνα. «Είναι λογικό η κυβέρνηση να κάνει μια αξιολόγηση ασφαλείας των πρωτοποριακών μοντέλων τεχνητής νοημοσύνης για να δει τι δυνατότητες έχουν», δήλωσε.

«Αν υπάρχει ένας κατάλογος επικίνδυνων δυνατοτήτων που δεν θέλουμε να έχουν, όπως η κατασκευή βιολογικών όπλων ή η χρήση τους ως κυβερνοόπλων, μπορούμε να αξιολογήσουμε τέτοιου είδους πράγματα.»

Του Alfred Bui

Σύνοδος Κορυφής του Παρισιού: Οι ΗΠΑ προσεγγίζουν διαφορετικά την τεχνητή νοημοσύνη

ΠΑΡΙΣΙ — Ο Αμερικανός αντιπρόεδρος Τζέημς Ντέηβιντ Βανς έκανε το διεθνές ντεμπούτο του αυτή την εβδομάδα σε μια σύνοδο κορυφής τεχνητής νοημοσύνης υψηλού κινδύνου στο Παρίσι, σηματοδοτώντας την πρώτη του εμφάνιση ως αντιπρόεδρος στην παγκόσμια σκηνή.

Η εκδήλωση, που συνδιοργανώθηκε από τη Γαλλία και την Ινδία, συγκέντρωσε παγκόσμιους ηγέτες, κορυφαία στελέχη τεχνολογίας, και φορείς χάραξης πολιτικής για να δημιουργήσουν ένα ενιαίο πλαίσιο για τη διακυβέρνηση της τεχνητής νοημοσύνης (ΤΝ). Ωστόσο, η σύνοδος κορυφής αποκάλυψε επίσης το βαθύ φιλοσοφικό χάσμα μεταξύ των προσεγγίσεων των Ηνωμένων Πολιτειών και της Ευρωπαϊκής Ένωσης (ΕΕ) για τον έλεγχο επί της τεχνητής νοημοσύνης.

Για ορισμένους Ευρωπαίους υπεύθυνους χάραξης πολιτικής, η διακυβέρνηση της τεχνητής νοημοσύνης πρέπει να είναι «δίκαιη» και να ενσωματώνει ζητήματα όπως οι πολιτικές για το κλίμα και το φύλο, μια προσέγγιση που απαιτεί νομοθεσία. Η Ουάσιγκτον δίνει προτεραιότητα στην καινοτομία, την ελευθερία του λόγου και την ανάπτυξη με γνώμονα την αγορά.

Μιλώντας από το ιστορικό Grand Palais, ο Βανς ξεκαθάρισε από την αρχή τη θέση των Ηνωμένων Πολιτείων και προσέγγισε την τεχνητή νοημοσύνη όχι ως διαφαινόμενη απειλή αλλά ως μια τεχνολογική επανάσταση:

«Δεν είμαι εδώ για να μιλήσω για την ασφάλεια της τεχνητής νοημοσύνης», είπε. «Είμαι εδώ για να μιλήσω για την ευκαιρία της τεχνητής νοημοσύνης. […]

»Βρισκόμαστε αντιμέτωποι με την εξαιρετική προοπτική μιας νέας βιομηχανικής επανάστασης, ανάλογης της εφεύρεσης της ατμομηχανής ή του χάλυβα Μπέσσεμερ. Αλλά δεν θα συμβεί ποτέ εάν  υπερβάλλουσα νομοθεσία αποτρέπει τους επιστήμονες από το να διακινδυνεύσουν στο απαραίτητο μέτρο για να προχωρήσουν τη δουλειά τους.»

Έβαλε άμεσο στόχο τον Νόμο για τις Ψηφιακές Υπηρεσίες της Ευρωπαϊκής Ένωσης ονόματι DSA, έναν νόμο που επιβάλλει αυστηρή εποπτεία στο διαδικτυακό περιεχόμενο, ιδιαίτερα όσον αφορά αυτό που οι νομοθετικές αρχές της ΕΕ ταξινομούν ως «παραπληροφόρηση». Φιγούρες όπως ο Ίλον Μασκ έχουν αντιταχθεί σθεναρά στον DSA, κατηγορώντας τις Βρυξέλλες ότι περιορίζουν την ελευθερία του λόγου. Απηχώντας αυτό το συναίσθημα, ο Βανς προειδοποίησε για τον υφέρποντα κυβερνητικό έλεγχο στον ψηφιακό λόγο.

«Είναι ένα πράγμα να αποτρέψεις ένα αρπακτικό από το να λεηλατήσει ένα παιδί στο Διαδίκτυο», είπε. «Είναι κάτι εντελώς διαφορετικό να εμποδίζεις έναν ενήλικο άνδρα ή γυναίκα να έχει πρόσβαση σε μια άποψη που η κυβέρνηση πιστεύει ότι είναι παραπληροφόρηση.»

Όσον αφορά τον παγκόσμιο ανταγωνισμό, ο Βανς εξέδωσε επίσης μια προειδοποίηση για συνεργασίες ΤΝ με την Κίνα, αν και δεν κατονόμασε ρητά τη χώρα.

«Η συνεργασία μαζί τους σημαίνει να αλυσοδένεις το έθνος σου σε έναν αυταρχικό κύριο που επιδιώκει να διεισδύσει και να καταλάβει την υποδομή πληροφοριών σου», τόνισε.

Ο Βανς δεν παρέλειψε να αποτίσει φόρο τιμής στη μακροχρόνια γαλλοαμερικανική συμμαχία και κατά τη διάρκεια μιας επίσκεψης στο Les Invalides, κράτησε το ξίφος του Μαρκησίου του Λαφαγιέτ, του Γάλλου ήρωα της Αμερικανικής Επανάστασης. Κάνοντας έναν ιστορικό παραλληλισμό, προειδοποίησε ενάντια στους αυτοεπιβαλλόμενους τεχνολογικούς περιορισμούς.

«Αν επιλέξουμε τη λάθος προσέγγιση για την τεχνητή νοημοσύνη, εάν επιλέξουμε να συγκρατηθούμε από φόβο, δεν θα αλλάξουμε απλώς το ΑΕΠ μας ή το χρηματιστήριο. Θα αλλάξουμε το ίδιο το μέλλον του έργου που ο Λαφαγιέτ και οι Αμερικανοί ιδρυτές ξεκίνησαν να δημιουργήσουν.»

Η στάση του Βανς τον έφερε σε αντίθεση με τον Γάλλο Πρόεδρο Εμανουέλ Μακρόν, ο οποίος υπερασπίστηκε την ανάγκη για σταθερούς κανονισμούς για την τεχνητή νοημοσύνη.

«Χρειαζόμαστε αυτούς τους κανόνες για την τεχνητή νοημοσύνη για να προχωρήσουμε», είπε ο Μακρόν.

Αργότερα την ίδια μέρα, ο Γάλλος πρόεδρος επέκτεινε το όραμα της ΕΕ για την τεχνητή νοημοσύνη.

«Θέλουμε περισσότερη καινοτομία στη Γαλλία και την Ευρώπη, θέλουμε να επιταχύνουμε, αλλά θέλουμε επίσης αυτή η καινοτομία να υποστηρίξει το μοντέλο της κοινωνίας στο οποίο πιστεύουμε: ένα πλουραλιστικό, ανοιχτό, γενναιόδωρο, ελεύθερο και δίκαιο μοντέλο, που λαμβάνει υπόψη κλιματικά ζητήματα και ζητήματα φύλου.»

Οι Ηνωμένες Πολιτείες και το Ηνωμένο Βασίλειο απείχαν από την υπογραφή της Διακήρυξης της Συνόδου Κορυφής του Παρισιού για την «περιεκτική και βιώσιμη» τεχνητή νοημοσύνη, μια δήλωση που υποστηρίζεται από 60 έθνη, περιλαμβανομένων της Γαλλίας, της Κίνας, της Ινδίας, της Ιαπωνίας, της Αυστραλίας και του Καναδά.

Στη σύνοδο κορυφής, ο Μίσιελ Σέφερ, πρόεδρος του διοικητικού συμβουλίου του Ευρωπαϊκού Συμβουλίου Καινοτομίας (EIC), ενός οργάνου της ΕΕ που παρέχει στοιχεία πολιτικής για την καινοτομία στην Ευρωπαϊκή Επιτροπή, διαφώνησε με τη θέση του Βανς.

Ο Σέφερ είπε στην Epoch Times ότι υπάρχει μια φιλοσοφική ρήξη μεταξύ των προσεγγίσεων των ΗΠΑ και της ΕΕ για την τεχνητή νοημοσύνη.

«Για παράδειγμα, στην κατασκευή εξαρτημάτων αεροσκαφών, η επίτευξη εξαιρετικά χαμηλών ποσοστών σφάλματος — περίπου 0,0001% — είναι κρίσιμη. Η αμερικανική προσέγγιση δίνει προτεραιότητα στην ταχεία ανάπτυξη, ανεχόμενη αρχικά υψηλά περιθώρια σφάλματος με την προσδοκία επαναληπτικών βελτιώσεων. Αυτό καθίσταται δυνατό χάρη σε ένα ευέλικτο νομικό πλαίσιο που ενθαρρύνει τον ελεύθερο πειραματισμό.

»Αντίθετα, η Ευρώπη επιβάλλει αυστηρούς κανονισμούς, οι οποίοι συχνά απαιτούν τη συμμόρφωση με αυστηρά πρότυπα, όπως μέγιστο ποσοστό σφάλματος 0,1% πριν χορηγήσει πρόσβαση στην αγορά. Σε αυτό το τοπίο, η νομοθεσία παίζει καθοριστικό ρόλο.»

Όσον αφορά τον νόμο DSA, ο Σέφερ απέρριψε ισχυρισμούς ότι ισοδυναμεί με λογοκρισία.

«Ο DSA δεν ισοδυναμεί με λογοκρισία, εκτός από την περίπτωση που μια εταιρεία αποτυγχάνει να εξηγήσει τόσο πώς λειτουργούν οι αλγόριθμοί της όσο και αν περιέχουν προκαταλήψεις. Επιπλέον, κάθε εταιρεία που διαχειρίζεται ένα δίκτυο πληροφοριών πρέπει να αναλάβει την ευθύνη για την πρόληψη, τη μείωση ή τον περιορισμό της διάδοσης παραπληροφόρησης».

Υπογράμμισε επίσης τη σημασία της ακρίβειας των πληροφοριών στην υγειονομική περίθαλψη, υπονοώντας τις διαμάχες γύρω από τον COVID-19.

Αφού εκφώνησε την ομιλία του, ο Βανς αποχώρησε από το Grand Palais προτού οι ομόλογοί του προσφέρουν τις απαντήσεις τους. Αργότερα, ο Αμερικανός αντιπρόεδρος πήγε στο Μέγαρο των Ηλυσίων για μια πρωινή συνάντηση με τον Μακρόν. Σύμφωνα με δήλωση του Λευκού Οίκου, οι συζητήσεις τους αφορούσαν το εμπόριο, την ανάπτυξη της τεχνητής νοημοσύνης και τον πόλεμο στην Ουκρανία.

Την Τετάρτη, ο Βανς μοιράστηκε στο X ένα μήνυμα διπλωματικής καλής θέλησης: «Η Ούσα κι εγώ είμαστε εξαιρετικά ευγνώμονες στον πρόεδρο Εμανουέλ Μακρόν και τη σύζυγό του, Μπριζίτ, που μας φιλοξένησαν στο Παλάτι των Ηλυσίων για μεσημεριανό γεύμα χθες. Η Αμερική έχει μια όμορφη ιστορία φιλίας με τη Γαλλία και ανυπομονούμε να ενισχύσουμε τον δεσμό μεταξύ των χωρών μας».

Αργότερα την ίδια ημέρα, ο Βανς συναντήθηκε επίσης με την πρόεδρο της Ευρωπαϊκής Επιτροπής Ούρσουλα φον ντερ Λάιεν. Σύμφωνα με τον Λευκό Οίκο, η συζήτηση τους επικεντρώθηκε στο εμπόριο, τη συνεργασία σε θέματα ασφάλειας και τις παγκόσμιες επιλύσεις συγκρούσεων, περιλαμβανομένων των προσπαθειών για «να σταματήσει η σφαγή στην Ουκρανία».

Η Ευρωπαϊκή Επιτροπή ανέφερε ότι η φον ντερ Λάιεν «υπογράμμισε την ανάγκη για συνεχή ενότητα για την παροχή ακλόνητης υποστήριξης στην Ουκρανία». Αυτό αντανακλά μια άλλη γνωστή απόκλιση στην πολιτική, καθώς ο Βανς ήταν επικριτικός για την περαιτέρω βοήθεια των ΗΠΑ στην Ουκρανία.

Εν τω μεταξύ, ο αντιπρόεδρος της Κίνας Τζανγκ Γκουοτσίνγκ παρευρέθη επίσης στη σύνοδο κορυφής και είχε συνομιλίες με τον Μακρόν σχετικά με την παγκόσμια διακυβέρνηση της τεχνητής νοημοσύνης, στις 10 Φεβρουαρίου.

Τελευταία σημαντική δέσμευσή του στη σύνοδο κορυφής, ήταν η συνάντηση του Αμερικάνου αντιπροέδρου με τον Ινδό πρωθυπουργό Ναρέντρα Μόντι. Σε δήλωση του Λευκού Οίκου σημειώθηκε ότι «ήπιαν καφέ μαζί και συζήτησαν θέματα αμοιβαίου ενδιαφέροντος, περιλαμβανομένου του τρόπου με τον οποίο οι Ηνωμένες Πολιτείες μπορούν να βοηθήσουν την Ινδία να διαφοροποιήσει τις πηγές ενέργειάς της μέσω επενδύσεων σε καθαρή, αξιόπιστη πυρηνική τεχνολογία των ΗΠΑ».

Μετά την σύνοδο κορυφής, ο Βανς πρόκειται να παραστεί στη Διάσκεψη Ασφαλείας του Μονάχου στη Γερμανία, αργότερα αυτή την εβδομάδα. Εκπρόσωπος της Πρεσβείας των ΗΠΑ στο Παρίσι είπε στην Epoch Times ότι «ήταν τιμή για την πρεσβεία των ΗΠΑ στο Παρίσι που ο αντιπρόεδρος Βανς επέλεξε τη Γαλλία για την πρώτη επίσημη επίσκεψή του στο εξωτερικό, γεγονός που καταδεικνύει τη σημασία της μακροχρόνιας συμμαχίας μεταξύ των Ηνωμένων Πολιτειών και της Γαλλίας».

του Etienne Fauchaire

Ο Ίλον Μασκ ηγείται προσφοράς $97,4 δισεκατομμυρίων για την εξαγορά του OpenAI

Ομάδα επενδυτών με επικεφαλής τον δισεκατομμυριούχο της τεχνολογίας Ίλον Μασκ προσφέρει 97,4 δισεκατομμύρια δολάρια (περ. 94, 4 δισεκ. ευρώ) για την εξαγορά του OpenAI.

Ο δικηγόρος του Μασκ, Μαρκ Τόμπεροφ, επιβεβαίωσε ότι η προσφορά —που υποστηρίζεται από την νεοφυή επιχείρηση τεχνητής νοημοσύνης του Μασκ, xAI, και μια κοινοπραξία επενδυτικών εταιρειών— αποσκοπεί στην ανάληψη του ελέγχου του OpenAI και στην επαναφορά της ιδρυτικής δέσμευσής του να υπηρετεί το δημόσιο καλό και όχι να λειτουργεί ως κερδοσκοπική επιχείρηση.

Ο διευθύνων σύμβουλος του OpenAI, Σαμ Άλτμαν, απέρριψε την προσφορά με μια αιχμηρή απάντηση στην κοινωνική πλατφόρμα X του Μασκ, δηλώνοντας: «όχι ευχαριστώ, αλλά θα αγοράσουμε το Twitter για 9,74 δισεκατομμύρια δολάρια, αν θέλετε».

Ο Μασκ, ο οποίος αγόρασε το Twitter για 44 δισεκατομμύρια δολάρια το 2022 προτού το μετονομάσει σε X, απάντησε με μια μονολεκτική ανάρτηση: «Απατεώνας».

Οι Άλτμαν και Μασκ, οι οποίοι συνίδρυσαν την εταιρεία OpenAI το 2015, διαπληκτίζονται εδώ και χρόνια για την κατεύθυνση της εταιρείας. Ο Μασκ αποχώρησε από το διοικητικό συμβούλιο της OpenAI το 2018, κατηγορώντας αργότερα τη νεοσύστατη επιχείρηση ότι απομακρύνθηκε από τη μη κερδοσκοπική της αποστολή και ευθυγραμμίστηκε πολύ στενά με εταιρικά συμφέροντα, ιδίως με τη Microsoft.

Την περασμένη εβδομάδα, η νομική ομάδα του Μασκ ήρθε αντιμέτωπη με τους δικηγόρους του OpenAI στο Περιφερειακό Δικαστήριο των ΗΠΑ για τη Βόρεια Περιφέρεια της Καλιφόρνια, όπου η δικαστής Υβόν Γκονζάλες Ρότζερς εξέτασε το αίτημα του Μασκ για έκδοση δικαστικής εντολής που να εμποδίζει το OpenAI να επισημοποιήσει την κερδοσκοπική του δομή.

Ενώ η δικαστής εξέφρασε σκεπτικισμό σχετικά με τον ισχυρισμό του Μασκ περί ανεπανόρθωτης βλάβης, εξέφρασε επίσης ανησυχίες σχετικά με την σχέση του OpenAI με τη Microsoft και επέτρεψε στην υπόθεση να προχωρήσει σε δίκη με ενόρκους.

Ο Τόμπεροφ, δικηγόρος του Μασκ, υποστήριξε ότι αν η OpenAI επιμένει να γίνει πλήρως κερδοσκοπική εταιρεία, πρέπει να αποζημιώσει δίκαια τη μη κερδοσκοπική της προέλευση.

«Είναι ζωτικής σημασίας να αποζημιωθεί δίκαια το φιλανθρωπικό ίδρυμα για αυτό που η ηγεσία του αφαιρεί από αυτό: τον έλεγχο της πιο μετασχηματιστικής τεχνολογίας της εποχής μας», δήλωσε στο Associated Press σε δήλωσή του.

Επιπλέον, ο Τόμπεροφ αποκάλυψε μια επιστολή που έστειλε τον Ιανουάριο στους γενικούς εισαγγελείς της Καλιφόρνια και του Ντέλαγουερ, καλώντας τους να επιβλέψουν μια ανταγωνιστική διαδικασία υποβολής προσφορών για τον προσδιορισμό της δίκαιης αγοραστικής αξίας του OpenAI.

«Καθώς και τα δύο γραφεία σας πρέπει να διασφαλίσουν ότι οποιαδήποτε τέτοια διαδικασία συναλλαγής σχετικά με τα φιλανθρωπικά περιουσιακά στοιχεία του OpenAI παρέχει τουλάχιστον δίκαιη αγοραστική αξία για την προστασία του δημόσιου συμφέροντος, υποθέτουμε ότι θα παράσχετε μια διαδικασία για ανταγωνιστικές προσφορές για τον πραγματικό προσδιορισμό αυτής της δίκαιης αγοραστικής αξίας», έγραψε ο Τόμπεροφ.

Σε νομικές καταθέσεις, οι δικηγόροι του Άλτμαν περιέγραψαν την αγωγή του Μασκ ως ένα στρατηγικό τέχνασμα για να χρησιμοποιήσει τη δικαστική διαμάχη για ανταγωνιστικό πλεονέκτημα μετά την αποτυχία του να αποκτήσει τον έλεγχο της εταιρείας.

«Αυτή η αγωγή είναι η τελευταία κίνηση στην ολοένα και πιο θορυβώδη εκστρατεία του Ίλον Μασκ να παρενοχλήσει την OpenAI για το δικό του ανταγωνιστικό πλεονέκτημα», έγραψαν οι δικηγόροι του Άλτμαν. «Η OpenAI είναι αφιερωμένη στην ασφαλή και επωφελή ανάπτυξη της τεχνητής γενικής νοημοσύνης (AGΙ). Ο Μασκ υποστήριξε κάποτε την OpenAI σε αυτή την αποστολή, αλλά εγκατέλειψε το εγχείρημα όταν η προσπάθειά του να κυριαρχήσει σε αυτό απέτυχε».

Οι δικηγόροι του Άλτμαν υποστήριξαν ότι οι ισχυρισμοί του Μασκ στερούνται νομικής και πραγματικής βάσης και η αγωγή του θα πρέπει να απορριφθεί στο σύνολό της.

Με πληροφορίες από το Associated Press

Στο Παρίσι για τη Σύνοδο Δράσης για την Τεχνητή Νοημοσύνη ο Κυριάκος Μητσοτάκης

Στο Παρίσι μεταβαίνει σήμερα ο Κυριάκος Μητσοτάκης προκειμένου να συμμετάσχει στη Σύνοδο Δράσης για την Τεχνητή Νοημοσύνη, που οργανώνει ο πρόεδρος της Γαλλίας Εμανουέλ Μακρόν στις 10 και 11 Φεβρουαρίου.

Σήμερα το μεσημέρι, ο Πρωθυπουργός θα συναντηθεί με τον Γάλλο πρόεδρο και, όπως αναφέρουν κυβερνητικές πηγές, οι δύο ηγέτες θα προχωρήσουν σε μια συνολική επισκόπηση των ελληνογαλλικών σχέσεων, ενώ θα συζητήσουν και για ζητήματα ευρωπαϊκού, αλλά και περιφερειακού ενδιαφέροντος, με αιχμή την κατάσταση στην Ανατολική Μεσόγειο και τη Συρία.

Η Σύνοδος Δράσης για την Τεχνητή Νοημοσύνη, στην οποία συμπροεδρεύει η Ινδία – το παρών θα δώσει και ο πρωθυπουργός της Ινδίας Ναρέντρα Μόντι – είναι μια διεθνής διάσκεψη με προσκεκλημένους αρχηγούς κρατών και κυβερνήσεων από ολόκληρο τον κόσμο, διεθνείς οργανισμούς και μεγάλες εταιρείες τεχνολογίας.

Οι ίδιες πηγές σημειώνουν ότι η Ελλάδα δεν παρακολουθεί απλώς αλλά συμμετέχει ενεργά στις εξελίξεις και στον διεθνή διάλογο για την τεχνητή νοημοσύνη στο ανώτατο επίπεδο. Ο πρωθυπουργός διαθέτει πλέον ένα συγκροτημένο σχέδιο για την τεχνητή νοημοσύνη στη χώρα μας, που του παρέδωσε η Επιτροπή για την Τεχνητή Νοημοσύνη, με επικεφαλής τον Κωστή Δασκαλάκη, προ δύο μηνών.

Προσθέτουν ότι με αφετηρία αυτή την εξαιρετική δουλειά, η χώρα πλέον εισέρχεται με σταθερά βήματα στην εποχή της τεχνητής νοημοσύνης.

Ήδη, δύο από τις προτάσεις της Επιτροπής υλοποιούνται. Η Ελλάδα είναι μία από τις 7 χώρες στην ΕΕ που επελέγη να αναλάβει τη δημιουργία ενός AI Factory, ενός χώρου δηλαδή όπου θα αναπτύσσονται εφαρμογές τεχνητής νοημοσύνης και ο οποίος θα αποτελεί σημείο επαφής της ερευνητικής κοινότητας, των επιχειρήσεων και του Κράτους.

Στόχος είναι σταδιακά η Ελλάδα να μπορεί να εξάγει εφαρμογές και τεχνογνωσία. Επίσης, υλοποιείται το ετήσιο Φόρουμ με θέμα «Ηθική και Τεχνητή Νοημοσύνη».

Πέρυσι, ο Πρωθυπουργός μίλησε για τη σχέση μεταξύ του Αριστοτέλη και της Τεχνητής Νοημοσύνης, ενώ φέτος το Φόρουμ θα ασχοληθεί με τη χρήση της Tεχνητής Νοημοσύνης σε σχέση με τα παιδιά, με τη συμμετοχή και του Χάρβαρντ.

Του Ν. Αρμένη

Πηγή: ΑΠΕ-ΜΠΕ