Εκατομμύρια άνθρωποι στρέφονται στα chatbot τεχνητής νοημοσύνης (AI) για συμβουλές σχετικά με τα πάντα, από τη μαγειρική μέχρι τις φορολογικές τους δηλώσεις. Επίσης, όλο και περισσότερο, τα ρωτούν και για θέματα υγείας.
Όμως, όπως προειδοποίησε πρόσφατα ο επικεφαλής ιατρικός σύμβουλος του Ηνωμένου Βασιλείου, αυτό ίσως δεν είναι σοφό όταν πρόκειται για ιατρικές αποφάσεις. Σε μια πρόσφατη μελέτη, οι συνεργάτες μου κι εγώ εξετάσαμε πόσο καλά βοηθούν τα chatbot μεγάλων γλωσσικών μοντέλων (LLM) το κοινό να αντιμετωπίσει συνηθισμένα προβλήματα υγείας. Τα αποτελέσματα ήταν εντυπωσιακά.
Τα chatbot που δοκιμάσαμε δεν ήταν έτοιμα να λειτουργήσουν ως γιατροί. Μια συνηθισμένη αντίδραση σε τέτοιες μελέτες είναι ότι η AI εξελίσσεται ταχύτερα από τις ακαδημαϊκές δημοσιεύσεις. Μέχρι να δημοσιευτεί μια εργασία, τα μοντέλα που εξετάστηκαν μπορεί ήδη να έχουν ενημερωθεί. Ωστόσο, μελέτες που χρησιμοποιούν νεότερες εκδόσεις αυτών των συστημάτων για την αρχική αξιολόγηση ασθενών δείχνουν ότι τα ήδη γνωστά προβλήματα παραμένουν.
Δώσαμε στους συμμετέχοντες σύντομες περιγραφές συνηθισμένων ιατρικών καταστάσεων. Τους αναθέσαμε τυχαία είτε να χρησιμοποιήσουν ένα από τρία ευρέως διαθέσιμα chatbot είτε να βασιστούν στις πηγές που θα χρησιμοποιούσαν κανονικά στο σπίτι. Μετά την αλληλεπίδραση με το chatbot, θέσαμε δύο ερωτήματα: ποια πάθηση θα μπορούσε να εξηγεί τα συμπτώματα; Και πού θα έπρεπε να αναζητήσουν βοήθεια;
Όσοι χρησιμοποίησαν chatbot είχαν μικρότερη πιθανότητα να εντοπίσουν τη σωστή πάθηση σε σχέση με εκείνους που δεν τα χρησιμοποίησαν. Επίσης, δεν ήταν καλύτεροι στον προσδιορισμό του κατάλληλου μέρους για να αναζητήσουν φροντίδα σε σύγκριση με την ομάδα ελέγχου. Με άλλα λόγια, η αλληλεπίδραση με chatbot δεν βοήθησε τους ανθρώπους να λάβουν καλύτερες αποφάσεις για την υγεία τους.
Ισχυρή γνώση, αδύναμα αποτελέσματα: Αυτό δεν σημαίνει ότι τα μοντέλα στερούνται ιατρικής γνώσης, καθώς τα LLM μπορούν εύκολα να περάσουν ιατρικές εξετάσεις πιστοποίησης. Όταν αφαιρέσαμε τον ανθρώπινο παράγοντα και δώσαμε τα ίδια σενάρια απευθείας στα chatbot, η απόδοσή τους βελτιώθηκε θεαματικά. Χωρίς ανθρώπινη παρέμβαση, τα μοντέλα εντόπιζαν σχετικές παθήσεις στη μεγάλη πλειονότητα των περιπτώσεων και συχνά πρότειναν κατάλληλα επίπεδα φροντίδας.
Γιατί λοιπόν τα αποτελέσματα επιδεινώθηκαν όταν οι άνθρωποι χρησιμοποιούσαν πραγματικά τα συστήματα; Όταν εξετάσαμε τις συνομιλίες, τα προβλήματα έγιναν εμφανή. Τα chatbot συχνά ανέφεραν τη σχετική διάγνωση κάπου στη συζήτηση, όμως οι συμμετέχοντες δεν την πρόσεχαν πάντα ή δεν τη θυμούνταν όταν συνοψίζαν την τελική τους απάντηση.
Σε άλλες περιπτώσεις, οι χρήστες παρείχαν ελλιπείς πληροφορίες ή το chatbot παρερμήνευε βασικές λεπτομέρειες. Το πρόβλημα δεν ήταν απλώς έλλειψη ιατρικής γνώσης – ήταν αποτυχία επικοινωνίας μεταξύ ανθρώπου και μηχανής.
Η μελέτη δείχνει ότι οι υπεύθυνοι χάραξης πολιτικής χρειάζονται στοιχεία για την πραγματική απόδοση της τεχνολογίας πριν την εισαγάγουν σε κρίσιμα περιβάλλοντα όπως η πρωτοβάθμια υγειονομική περίθαλψη. Τα ευρήματά μας αναδεικνύουν έναν σημαντικό περιορισμό πολλών σύγχρονων αξιολογήσεων της AI στην ιατρική. Τα γλωσσικά μοντέλα συχνά αποδίδουν εξαιρετικά καλά σε δομημένες ερωτήσεις εξετάσεων ή σε προσομοιωμένες αλληλεπιδράσεις «μοντέλο προς μοντέλο».
Όμως η πραγματική χρήση είναι πολύ πιο χαοτική. Οι ασθενείς περιγράφουν τα συμπτώματα με ασαφή ή ελλιπή τρόπο και μπορεί να παρερμηνεύσουν τις εξηγήσεις. Κάνουν ερωτήσεις με απρόβλεπτη σειρά. Ένα σύστημα που εντυπωσιάζει σε δοκιμές μπορεί να συμπεριφέρεται πολύ διαφορετικά όταν αρχίζουν να το χρησιμοποιούν πραγματικοί άνθρωποι.
Αυτό υπογραμμίζει και ένα ευρύτερο σημείο σχετικά με την κλινική φροντίδα. Ως γενικός ιατρός, η δουλειά μου περιλαμβάνει πολύ περισσότερα από την απλή ανάκληση γνώσεων. Η ιατρική συχνά περιγράφεται ως τέχνη και όχι μόνο ως επιστήμη. Μια επίσκεψη δεν αφορά απλώς τον εντοπισμό της σωστής διάγνωσης. Περιλαμβάνει την ερμηνεία της ιστορίας του ασθενούς, τη διαχείριση της αβεβαιότητας και τη συνδιαμόρφωση αποφάσεων.
Οι ιατρικοί εκπαιδευτές αναγνωρίζουν εδώ και καιρό αυτή την πολυπλοκότητα. Για δεκαετίες, οι μελλοντικοί γιατροί εκπαιδεύονταν με το μοντέλο Calgary–Cambridge. Αυτό περιλάμβανε τη δημιουργία σχέσης εμπιστοσύνης με τον ασθενή, τη συλλογή πληροφοριών μέσω προσεκτικών ερωτήσεων, την κατανόηση των ανησυχιών και προσδοκιών του ασθενούς, την σαφή εξήγηση των ευρημάτων και τη συμφωνία σε ένα κοινό σχέδιο αντιμετώπισης.
Όλες αυτές οι διαδικασίες βασίζονται στην ανθρώπινη σύνδεση, την προσαρμοσμένη επικοινωνία, τη διευκρίνιση, τη διακριτική διερεύνηση, την κρίση που διαμορφώνεται από το πλαίσιο και την εμπιστοσύνη. Αυτά τα χαρακτηριστικά δεν μπορούν εύκολα να περιοριστούν σε αναγνώριση προτύπων.
Ένας διαφορετικός ρόλος για την AI: Ωστόσο, το συμπέρασμα της μελέτης δεν είναι ότι η AI δεν έχει θέση στην υγειονομική περίθαλψη. Κάθε άλλο. Το κλειδί είναι να κατανοήσουμε σε τι είναι σήμερα καλή και ποιοι είναι οι περιορισμοί της.
Ένας χρήσιμος τρόπος να σκεφτούμε τα σημερινά chatbot είναι ότι λειτουργούν περισσότερο σαν γραμματείς παρά σαν γιατροί. Είναι εξαιρετικά αποτελεσματικά στην οργάνωση πληροφοριών, στη σύνοψη κειμένων και στη δομή σύνθετων εγγράφων. Αυτές είναι εργασίες όπου τα γλωσσικά μοντέλα ήδη αποδεικνύονται χρήσιμα στα συστήματα υγείας, για παράδειγμα στη σύνταξη ιατρικών σημειώσεων, στη σύνοψη φακέλων ασθενών ή στη δημιουργία παραπεμπτικών επιστολών.
Η υπόσχεση της AI στην ιατρική παραμένει πραγματική, αλλά ο ρόλος της πιθανότατα θα είναι πιο υποστηρικτικός παρά επαναστατικός στο άμεσο μέλλον. Τα chatbot δεν πρέπει να θεωρούνται η «πρώτη είσοδος» στο σύστημα υγείας. Δεν είναι ακόμη έτοιμα να διαγνώσουν παθήσεις ή να κατευθύνουν τους ασθενείς στο κατάλληλο επίπεδο φροντίδας.
Η τεχνητή νοημοσύνη μπορεί να περάσει ιατρικές εξετάσεις. Όμως, όπως το να περάσει κανείς το θεωρητικό μέρος για δίπλωμα οδήγησης δεν τον καθιστά ικανό οδηγό, έτσι και η άσκηση της ιατρικής απαιτεί πολύ περισσότερα από το να απαντά κανείς σωστά σε ερωτήσεις. Απαιτεί κρίση, ενσυναίσθηση και την ικανότητα να διαχειρίζεται την πολυπλοκότητα που κρύβεται πίσω από κάθε κλινική συνάντηση. Προς το παρόν, τουλάχιστον, αυτό απαιτεί ανθρώπους και όχι μηχανές.
H Ρεμπέκα Πέιν είναι λέκτορας στο Πανεπιστήμιο του Μπανγκόρ και στο Πανεπιστήμιο της Οξφόρδης. Πηγές: The Conversation, Infowar.gr