Θα ζητούσες από το AI να “διαβάσει” μία αξονική τομογραφία ή να σου πει τι φάρμακα να πάρεις;

 Θα ζητούσες από το AI να “διαβάσει” μία αξονική τομογραφία ή να σου πει τι φάρμακα να πάρεις;
💡 AI Summary by Libre

Η τεχνητή νοημοσύνη βοηθά πολλούς ασθενείς να κατανοήσουν ιατρικά αποτελέσματα μέσω μεγάλων γλωσσικών μοντέλων, διευκολύνοντας την επικοινωνία με τους γιατρούς τους.

Παρά τα οφέλη, τα LLMs μπορεί να δώσουν λανθασμένες ή παραπλανητικές απαντήσεις, προκαλώντας σοβαρούς κινδύνους για την υγεία των χρηστών.

Ειδικοί προτείνουν προσεκτική χρήση, επαναξιολόγηση απαντήσεων και προστασία προσωπικών δεδομένων για την ασφαλή ενσωμάτωση της AI στην ιατρική ενημέρωση των ασθενών.

Παρά τις προκλήσεις, η τεχνητή νοημοσύνη θεωρείται σημαντικό εργαλείο ενδυνάμωσης των ασθενών, εφόσον χρησιμοποιείται με κριτική σκέψη και κατάλληλες στρατηγικές ασφαλείας.

Η τεχνητή νοημοσύνη αλλάζει τον τρόπο που οι ασθενείς κατανοούν τις εξετάσεις τους, αλλά οι ειδικοί προειδοποιούν για πιθανούς κινδύνους.

Όταν η Judith Miller, 77 ετών από το Ουισκόνσιν, έλαβε τα αποτελέσματα μιας απεικονιστικής εξέτασης πέρυσι, έκανε αυτό που πλέον συνηθίζουν πολλοί ασθενείς: απευθύνθηκε στην τεχνητή νοημοσύνη για να της τα εξηγήσει. Το Claude, ένα μεγάλο γλωσσικό μοντέλο της εταιρείας Anthropic, ανέλυσε τα ευρήματα και παρουσίασε πιθανές ερμηνείες.

Με τις πληροφορίες του chatbot στα χέρια της, η Miller ένιωσε προετοιμασμένη για μια πιο ουσιαστική συζήτηση με τον γιατρό της. Όπως λέει η ίδια, οι απαντήσεις του Claude «με βοήθησαν να κατανοήσω καλύτερα την υγεία μου και να συμμετέχω ενεργά στις αποφάσεις».

Ανάλογες σκηνές επαναλαμβάνονται πλέον σε ιατρεία σε όλη τη ΗΠΑ. Δύο πρόσφατες έρευνες διαπίστωσαν ότι το ένα τρίτο των Αμερικανών ενηλίκων έχει στραφεί σε μεγάλα γλωσσικά μοντέλα (LLMs) για ιατρική πληροφόρηση—είτε για να ερμηνεύσουν εργαστηριακά αποτελέσματα, είτε για να διαγνώσουν συμπτώματα, να ερευνήσουν θεραπευτικές επιλογές ή να ρωτήσουν για φάρμακα.

«Η χρήση τέτοιων εργαλείων έχει διπλασιαστεί μέσα σε έναν χρόνο», αναφέρει ο Robert Wachter, γιατρός στο Πανεπιστήμιο της Καλιφόρνια, Σαν Φρανσίσκο. «Υποψιάζομαι ότι θα διπλασιαστεί ξανά του χρόνου».

Υποσχέσεις και κίνδυνοι στη χρήση της AI στην υγεία

Ωστόσο, αυτά τα chatbots μπορούν επίσης να παρέχουν παραπλανητικές ή λανθασμένες συμβουλές, με τους ειδικούς να συστήνουν προσοχή. Η ίδια η Anthropic παραδέχεται ότι το Claude «δεν έχει σχεδιαστεί ή προωθείται για κλινικές διαγνώσεις». Ο σωστός του ρόλος είναι «να βοηθά τους ανθρώπους να προετοιμαστούν για συζητήσεις με τους γιατρούς τους, όχι να τους αντικαθιστά».

Για πολλούς ασθενείς, η τεχνητή νοημοσύνη αποτελεί λύση στην πληθώρα προσωπικών ιατρικών δεδομένων που παρέχει ο νόμος 21st Century Cures Act, ο οποίος επιβάλλει άμεση διαδικτυακή πρόσβαση σε ιατρικά αρχεία όπως αποτελέσματα εξετάσεων και κλινικές σημειώσεις. «Αν έχετε δει ποτέ αυτά τα δεδομένα», λέει ο Dave deBronkart, blogger και ακτιβιστής στον χώρο της υγείας, «ξέρετε πόσο μεγάλο ερωτηματικό προκαλούν: Τι σημαίνουν όλα αυτά;».

Μέχρι πρόσφατα, η ερμηνεία των δεδομένων αυτών ήταν αποκλειστικό προνόμιο των γιατρών λόγω της εξειδικευμένης ορολογίας. Πλέον όμως, οι ασθενείς μπορούν να δουν τα αποτελέσματά τους διαδικτυακά πριν μιλήσουν με τον γιατρό, γεγονός που συχνά προκαλεί άγχος και αβεβαιότητα.

Σήμερα, γενικής χρήσης chatbots αλλά και εξειδικευμένα μοντέλα υγείας μεταφράζουν την ιατρική ορολογία σε απλή γλώσσα μέσα σε δευτερόλεπτα, συχνά καθησυχάζοντας αδικαιολόγητες ανησυχίες.

 Το ένα τρίτο των Αμερικανών ενηλίκων έχει στραφεί σε μεγάλα γλωσσικά μοντέλα (LLMs) για ιατρική πληροφόρηση—είτε για να ερμηνεύσουν εργαστηριακά αποτελέσματα, είτε για να διαγνώσουν συμπτώματα, να ερευνήσουν θεραπευτικές επιλογές ή να ρωτήσουν για φάρμακα.

Λανθασμένες απαντήσεις και σοβαρά περιστατικά

Παρά τα πλεονεκτήματα, τα LLMs παραμένουν επιρρεπή σε λάθη. Μπορούν να παρουσιάσουν ανακρίβειες ως γεγονότα ή ακόμη και να ενισχύσουν λανθασμένες πεποιθήσεις των χρηστών. Παρότι αυτά τα προβλήματα ίσως μειωθούν με την εξέλιξη των μοντέλων, πολλοί ειδικοί εκφράζουν ανησυχίες για τους κινδύνους της σημερινής χρήσης στην υγεία.

«Δεν υπάρχουν πολλά προστατευτικά μέτρα ώστε να αποτρέπονται οι παραπλανητικές απαντήσεις», τονίζει η Cait DesRoches, εκτελεστική διευθύντρια του μη κερδοσκοπικού οργανισμού OpenNotes, που προωθεί την πρόσβαση των ασθενών στα ιατρικά αρχεία. Επιπλέον, όπως σημειώνει, υπάρχει ελάχιστη έρευνα σχετικά με το τι συμβαίνει όταν κάποιος εμπιστεύεται ένα LLM ως αυθεντία υγείας: «Δεν γνωρίζουμε κατά πόσο λειτουργεί καλά για τον μέσο ασθενή».

Έχουν ήδη καταγραφεί ακραίες περιπτώσεις. Τον Δεκέμβριο, ένας 75χρονος από το Σιάτλ πέθανε από θεραπεύσιμη μορφή λευχαιμίας επειδή αρνήθηκε θεραπεία βασιζόμενος σε λάθος συμπέρασμα που του παρείχε η AI. Προκαταρκτικές μελέτες είναι ανησυχητικές: Σε έρευνα του περιοδικού Nature Medicine, συμμετέχοντες διαγνώρισαν σωστά μια υποθετική πάθηση με τη βοήθεια LLMs μόνο στο ένα τρίτο των περιπτώσεων.

Προτάσεις ειδικών: Χρήση με μέτρο και στρατηγικές ασφαλείας

Παρόλα αυτά, οι περισσότεροι ειδικοί συμφωνούν ότι τα chatbots μπορούν να είναι χρήσιμα στους ασθενείς που αναζητούν πληροφορίες υγείας—αρκεί να χρησιμοποιούνται με κριτική σκέψη. «Δεν πιστεύω ότι πρέπει να αποφεύγουμε τη χρήση τους», αναφέρει η DesRoches, «αλλά πρέπει να έχουμε τα μάτια μας ανοιχτά».

Ο Adam Rodman, παθολόγος στο Beth Israel Deaconess Medical Center, πηγαίνει ένα βήμα παραπέρα: «Θεωρώ ότι τα LLMs—εφόσον χρησιμοποιούνται σωστά—είναι το καλύτερο εργαλείο ενδυνάμωσης των ασθενών που έχει υπάρξει ποτέ».

Για να αξιοποιηθεί η τεχνολογία χωρίς συμβιβασμούς στην ασφάλεια, ερευνητές έχουν αναπτύξει στρατηγικές αντιμετώπισης των αδυναμιών της AI. Προτείνουν, για παράδειγμα, να ζητούμε από το chatbot να υιοθετήσει τον ρόλο του γιατρού ώστε το μοντέλο να συλλέγει δεδομένα με πιο επιστημονικό τρόπο. Άλλες τακτικές περιλαμβάνουν την επαναξιολόγηση των απαντήσεων ή τη λήψη «δεύτερης γνώμης» από άλλο μοντέλο.

Ο Rodman τονίζει επίσης τη σημασία αφαίρεσης προσωπικών δεδομένων—όπως όνομα και αριθμός κοινωνικής ασφάλισης—από κάθε εισαγωγή στο chatbot για προστασία της ιδιωτικότητας.

 

Σχετικά Άρθρα