Παρασκευή, 20 Σεπ, 2024
Το λογότυπο της εφαρμογής ChatGPT σε οθόνη smartphone (Αριστερά) και τα γράμματα ΑΙ σε οθόνη laptop στην Frankfurt am Main, Γερμανία, στης 23 Νοεμβρίου 2023. (Kirill Kudryavtsev/AFP μέσω Getty Images)

Ένας στους πέντε ιατρούς πρωτοβάθμιας φροντίδας υγείας χρησιμοποιεί ΤΝ

Ερευνητές λένε πως, το να συμβουλευόμαστε την Τεχνητή Νοημοσύνη (ΤΝ) μπορεί να διακινδυνεύσει τα δεδομένα των ασθενών και πως οι πληροφορίες που παρέχει η ΤΝ μπορεί να είναι εσφαλμένες.

Έρευνα που διεξήχθη σε ιατρούς πρωτοβάθμιας φροντίδας υγείας στο Ηνωμένο Βασίλειο βρήκε πως πάνω από το 20% χρησιμοποιεί την τεχνητή νοημοσύνη (ΤΝ) για διάγνωση και συστάσεις θεραπείας.

Το ChatGPT, το οποίο ξεκίνησε τον Νοέμβριο του 2022, ήταν το πιο δημοφιλές εργαλείο ανάμεσα στους ιατρούς.

«Προκαταρκτικά στοιχεία υποδηλώνουν τις εντυπωσιακές ικανότητες αυτών των εργαλείων για την υποβοήθηση στην συγγραφή ενσυναίσθητων εγγράφων», λένε οι συγγραφείς. «Ωστόσο αυτά τα εργαλεία ενέχουν επίσης και περιορισμούς. Τείνουν να δημιουργούν εσφαλμένες πληροφορίες.»

Διεξήχθη έρευνα  σε πάνω από 1000 ιατρούς. Περίπου το 30% το χρησιμοποιούσαν για την παραγωγή εγγράφων μετά τα ραντεβού των ασθενών τους και το 28% και το 25% το χρησιμοποιούσε για σύσταση διάγνωσης και επιλογών θεραπείας αντιστοίχως.

Η Σάρλοτ Μπλες, επικεφαλής συγγραφέας της μελέτης και αναπληρώτρια καθηγήτρια στο τμήμα υγείας των γυναικών και των παιδιών στο Πανεπιστήμιο της Ουψάλα στη Σουηδία, δήλωσε ότι εξεπλάγη από το ποσοστό των γιατρών πρωτοβάθμιας περίθαλψης που χρησιμοποιούν τεχνητή νοημοσύνη στην εργασία τους.

Όταν ρωτήθηκε σχετικά με τη χρήση της τεχνητής νοημοσύνης στις Ηνωμένες Πολιτείες, η Μπλες δήλωσε στους Epoch Times ότι η εκτίμησή της είναι ότι οι Αμερικανοί «γιατροί μπορεί να χρησιμοποιούν αυτά τα εργαλεία σε μεγαλύτερο αριθμό από ό,τι υποψιαζόμαστε».

Επισήμανε μια προηγούμενη μελέτη της οποίας ηγήθηκε, η οποία διεξήχθη τον Νοέμβριο του 2023 σε ψυχιάτρους που ανήκουν στην Αμερικανική Ψυχιατρική Ένωση, η οποία διαπίστωσε ότι το 44% των ψυχιάτρων δήλωσε ότι χρησιμοποιεί το GPT 3.5 με έναν στους τρεις να δηλώνει ότι έχει χρησιμοποιήσει το GPT 4.0.

«Το ένστικτό μου λέει ότι οι γιατροί, όπως οι εργαζόμενοι και οι φοιτητές σε άλλους τομείς, μπορεί να χρησιμοποιούν αυτά τα εργαλεία στα κρυφά», είπε.

Οι συγγραφείς ανέφεραν ότι η μελέτη τους ενδεχομένως να μην είναι αντιπροσωπευτική των ιατρών στο Ηνωμένο Βασίλειο.

Τα ευρήματα δημοσιοποιήθηκαν την Τρίτη στο περιοδικό BMJ Health and Care Informatics.

Η έρευνα είναι η μεγαλύτερη που διεξήχθη πάνω στους ιατρούς που χρησιμοποιούν παραγωγική τεχνητή νοημοσύνη, η οποία είναι ικανή να παράγει περιεχόμενο, στην κλινική πρακτική, λένε οι συγγραφείς.

Ύστερα την ενεργοποίηση του ChatGPT στα τέλη του 2022, το ενδιαφέρον στα chatbots που λειτουργούν με βάση το μεγάλο γλωσσικό μοντέλο (Large Language Models – LLM) έχει εκτιναχθεί στα ύψη, και η προσοχή εστιάζει αυξανόμενα στην κλινική δυνατότητα αυτών των εργαλείων.

Τα ευρήματά τους υποδεικνύουν ότι οι ιατροί «μπορούν να αντλήσουν αξία από αυτά τα εργαλεία, συγκεκριμένα με διοικητικά καθήκοντα και για να υποστηρίξουν την κλινική λογική. Παρόλα αυτά, προειδοποιούμε ότι αυτά τα εργαλεία έχουν περιορισμούς από την στιγμή που μπορούν να ενέχουν ανεπαίσθητα σφάλματα και προτιμήσεις», ανέφεραν οι συγγραφείς.

«Η ιατρική κοινότητα θα πρέπει να βρει τρόπους τόσο να εκπαιδεύσει τους ιατρούς και τους εκπαιδευόμενους καθώς και να καθοδηγήσει τους ασθενείς σχετικά με την ασφαλή υιοθέτηση αυτών των εργαλείων.»

 

Κίνδυνοι και καθοδήγηση

Το να συμβουλευόμαστε την Τεχνητή Νοημοσύνη (ΤΝ) μπορεί να διακινδυνεύσει τα δεδομένα των ασθενών και οι πληροφορίες που παρέχει η ΤΝ μπορεί να είναι εσφαλμένες, αναφέρουν οι συγγραφείς.

«Δεν είναι ξεκάθαρο το πώς οι διαδικτυακές εταιρίες πίσω από την παραγωγική ΤΝ χρησιμοποιούν τις πληροφορίες που συλλέγουν», λένε οι συγγραφείς.

Η Μπλες δήλωσε ότι οι γιατροί μπορούν να χρησιμοποιήσουν γεννητική τεχνητή νοημοσύνη ιατρικού επιπέδου, η οποία είναι συμβατή με τον Νόμο περί Φορητότητας και Λογοδοσίας της Ασφάλισης Υγείας (Health Insurance Portability and Accountability Act-HIPAA) για την προστασία της ιδιωτικής ζωής των ασθενών, αν και αυτές οι εφαρμογές τεχνητής νοημοσύνης εξακολουθούν να ενέχουν τον κίνδυνο δημιουργίας λαθών και προκατειλημμένων συστάσεων.

Οι συγγραφείς παραθέτουν μια τυχαιοποιημένη κλινική δοκιμή του 2024 η οποία εξέτασε την ικανότητα του ChatGPT να καταχωρίσει τα ιστορικά των ασθενών.

Οι ιατροί θα λάμβαναν το ιστορικό των ασθενών και το ChatGPT θα το κατέγραφε. Οι συγγραφείς βρήκαν πως το 36% των εγγράφων είχε εσφαλμένες πληροφορίες.

«Χρειάζεται περαιτέρω έρευνα για να εξετάσουμε την υιοθέτηση των ιατρών της παραγωγικής ΤΝ και το πώς μπορούμε να εφαρμόσουμε καλύτερα αυτά τα εργαλεία με ασφάλεια στην κλινική πρακτική», λένε οι συγγραφείς, προσθέτοντας ότι επί του παρόντος δεν υπάρχει καμία καθοδήγηση πάνω στο πως οι ιατροί θα πρέπει να χρησιμοποιούν αυτά τα εργαλεία.

«Η ιατρική κοινότητα θα πρέπει να βρει τρόπους να εκπαιδεύσει τους ιατρούς και τους εκπαιδευόμενους σχετικά με τα πιθανά πλεονεκτήματα αυτών των εργαλείων στην σύνοψη των πληροφοριών όπως επίσης και με τους κινδύνους.»

Η Μπλες δήλωσε ότι είναι απίθανο η συνήθης χρήση της παραγωγικής τεχνητής νοημοσύνης να επηρεάσει αρνητικά την επάρκεια των γιατρών.

«Εάν χρησιμοποιούν αυτά τα εργαλεία για να παίρνουν ιδέες πριν από κλινικές αποφάσεις ή ως δεύτερες γνώμες, αυτή μπορεί να είναι μια ιδιαίτερα πολύτιμη χρήση αυτών των εργαλείων αυτή τη στιγμή».

Πως μπορείτε να μας βοηθήσετε ώστε να συνεχίσουμε να σας κρατάμε ενημερωμένους

Ποιος είναι ο λόγος που χρειαζόμαστε την βοήθειά σας για την χρηματοδότηση του ερευνητικού ρεπορτάζ μας; Επειδή είμαστε ένας ανεξάρτητος οργανισμός ειδήσεων που δεν επηρεάζεται από καμία κυβέρνηση, εταιρεία ή πολιτικό κόμμα. Από την ημέρα που ξεκινήσαμε, έχουμε έρθει αντιμέτωποι με προσπάθειες αποσιώπησης της αλήθειας κυρίως από το Κινεζικό Κομμουνιστικό Κόμμα. Αλλά δεν θα λυγίσουμε. Η ελληνική έκδοση της Epoch Times βασίζεται ολοκληρωτικά στις γενναιόδωρες συνεισφορές σας για να διατηρήσει την παραδοσιακή δημοσιογραφία ζωντανή και υγιή στην Ελληνική γλώσσα. Μαζί, μπορούμε να συνεχίσουμε να διαδίδουμε την αλήθεια.

Σχολιάστε