Οι γονείς ενός εφήβου από την Καλιφόρνια που έδωσε τέλος στη ζωή του κατέθεσαν αγωγή κατά της OpenAI, δημιουργού του Chat-GPT, υποστηρίζοντας ότι το εργαλείο τεχνητής νοημοσύνης διαδραμάτισε καθοριστικό ρόλο στον θάνατο του γιου τους.
Στην αγωγή που κατατέθηκε στις 26 Αυγούστου στο Ανώτατο Δικαστήριο του Σαν Φρανσίσκο, ο Μάθιου και η Μαρία Ρέιν ισχυρίζονται ότι το Chat-GPT ενθάρρυνε τον 16χρονο γιο τους, Άνταμ, να οργανώσει κρυφά αυτό που αποκάλεσε «όμορφη αυτοκτονία», παρέχοντάς του μάλιστα λεπτομερείς οδηγίες για το πώς να δώσει τέλος στη ζωή του.
Σύμφωνα με την αγωγή, αυτό που ξεκίνησε ως συνηθισμένες συνομιλίες για σχολικές εργασίες και χόμπι, σταδιακά σκοτείνιασε. Το Chat-GPT φέρεται να έγινε «ο πιο στενός εξομολογητής» του Άνταμ, απομακρύνοντάς τον από την οικογένειά του και επιβεβαιώνοντας τις πιο καταστροφικές σκέψεις του.
Όταν ο Άνταμ μοιράστηκε το αίσθημα ότι «η ζωή δεν έχει νόημα», το Chat-GPT απάντησε με επιβεβαιωτικά σχόλια, λέγοντάς του μάλιστα πως «αυτή η νοοτροπία» έχει μια δική της σκοτεινή λογική, όπως αναφέρεται στην αγωγή.
Μέχρι τον Απρίλιο, σύμφωνα πάντα με τους ισχυρισμούς της οικογένειας, το chatbot ανέλυε την «αισθητική» διαφόρων μεθόδων αυτοκτονίας, ενώ διαβεβαίωνε τον Άνταμ ότι «δεν θα επιζήσει για να ξαναδεί τους γονείς του», προσφερόμενο να συγγράψει ακόμα και το σημείωμα αυτοκτονίας του.
Στην τελευταία τους συνομιλία, λίγες ώρες πριν από τον θάνατο του Άνταμ, το Chat-GPT φέρεται να επικύρωσε το σχέδιο παρασκευής βρόχου που χρησιμοποίησε ο έφηβος, παρουσιάζοντας παράλληλα τις αυτοκτονικές του σκέψεις ως «μια νόμιμη αντίληψη που αξίζει να αγκαλιαστεί».
Η οικογένεια υποστηρίζει πως όλα αυτά δεν ήταν απλώς ένα τεχνικό σφάλμα, αλλά το αποτέλεσμα συγκεκριμένων σχεδιαστικών επιλογών που στοχεύουν στη διαρκή αλληλεπίδραση και την ανάπτυξη εξάρτησης.
Σύμφωνα με την αγωγή, το Chat-GPT ανέφερε την αυτοκτονία στον Άνταμ περισσότερες από 1.200 φορές, περιγράφοντας πολλαπλούς τρόπους πραγμάτωσής της.
Η αγωγή ζητεί αποζημιώσεις, αλλά και δικαστικά μέτρα για την προστασία των ανηλίκων, όπως υποχρεωτική επαλήθευση ηλικίας χρηστών, μπλοκάρισμα αιτημάτων για μεθόδους αυτοκτονίας και προειδοποιήσεις για κινδύνους ψυχολογικής εξάρτησης.
Η Epoch Times επικοινώνησε με την OpenAI για σχόλιο.
Η εταιρεία εξέδωσε δήλωση σε πολλά μέσα ενημέρωσης αναφέροντας πως είναι «βαθιά συγκλονισμένη» για τον θάνατο του Άνταμ Ρέιν, ενώ σε δημόσιο ανακοινωθέν επισημαίνει ότι εργάζεται για την ενίσχυση των συστημάτων προστασίας, συμπεριλαμβανομένων γονικών ελέγχων και εργαλείων για την ανίχνευση χρηστών που βρίσκονται σε κρίση.
«Καταλάβαμε με την πάροδο του χρόνου ότι τα μοντέλα τεχνητής νοημοσύνης μπορεί να γίνουν λιγότερο αξιόπιστα κατά τη διάρκεια μακροχρόνιων συνομιλιών, όταν τμήματα της εκπαίδευσής τους σε θέματα ασφάλειας φθίνουν», ανέφερε η OpenAI στη δημόσια δήλωσή της. «Τα προστατευτικά μέτρα λειτουργούν καλύτερα όταν όλα τα συστατικά δουλεύουν όπως πρέπει, και θα τα βελτιώνουμε διαρκώς, με τη συνδρομή ειδικών».
Η αγωγή συμπίπτει χρονικά με δημοσίευση μελέτης της RAND Corporation στην επιστημονική επιθεώρηση Psychiatric Services, σχετικά με το πώς τα μεγάλα chatbots ΤΝ χειρίζονται ερωτήματα που σχετίζονται με την αυτοκτονία.
Η έρευνα, με χρηματοδότηση από το Εθνικό Ινστιτούτο Ψυχικής Υγείας των ΗΠΑ, διαπίστωσε ότι, αν και τα Chat-GPT, Gemini της Google και Claude της Anthropic συνήθως αποφεύγουν να δίνουν άμεσες και πρακτικές οδηγίες, οι απαντήσεις τους είναι ασυνεπείς σε λιγότερο ακραίες διατυπώσεις, που όμως θα μπορούσαν επίσης να αποβούν επικίνδυνες.
«Χρειάζονται δικλείδες ασφαλείας», δήλωσε ο επικεφαλής ερευνητής Ράιαν ΜακΜπέιν, ανώτερος ερευνητής πολιτικής στη RAND και επίκουρος καθηγητής στην Ιατρική Σχολή του Χάρβαρντ. «Συζητήσεις που μπορεί να ξεκινήσουν αθώα και ανώδυνα, μπορούν να εκτραπούν σε απροσδόκητες κατευθύνσεις».
*Σημείωση συντάκτη: Το παρόν άρθρο αναφέρεται σε θέματα αυτοκτονίας. Αν εσείς ή κάποιος που γνωρίζετε χρειάζεται βοήθεια, στη Γραμμή Παρέμβασης για την Αυτοκτονία με το νούμερο 1018.*
Με την συμβολή του Associated Press