Έρευνα-σοκ! Πάνω από 1 εκατ. χρήστες του ChatGPT εκδηλώνουν αυτοκτονικές τάσεις κάθε εβδομάδα
Η OpenAI δημοσιεύει ανησυχητικά στοιχεία για την ψυχική υγεία και τις αλληλεπιδράσεις με το ChatGPT, εν μέσω αυξημένου ελέγχου από Αρχές και ειδικούς, όπως αναφέρει σε ρεπορτάζ του ο Guardian.
Περισσότεροι από 1 εκατομμύριο χρήστες του ChatGPT κάθε εβδομάδα στέλνουν μηνύματα που περιλαμβάνουν «σαφείς ενδείξεις πιθανών αυτοκτονικών σκέψεων ή σχεδίων», σύμφωνα με ανάρτηση στο ιστολόγιο της OpenAI τη Δευτέρα. Το εύρημα αυτό, που παρουσιάστηκε ως μέρος ενημέρωσης για το πώς ο διάσημος chatbot διαχειρίζεται ευαίσθητες συνομιλίες, αποτελεί μία από τις πιο άμεσες παραδοχές της εταιρείας τεχνητής νοημοσύνης για το μέγεθος του φαινομένου και τον τρόπο που η τεχνολογία μπορεί να επιδεινώσει προβλήματα ψυχικής υγείας.
Επιπλέον, η OpenAI ανέφερε ότι περίπου 0,07% των χρηστών που είναι ενεργοί κάθε εβδομάδα – δηλαδή περίπου 560.000 από τους 800 εκατομμύρια χρήστες παγκοσμίως – εμφανίζουν «πιθανά σημάδια επειγόντων περιστατικών ψυχικής υγείας σχετιζόμενων με ψύχωση ή μανία». Η εταιρεία προειδοποίησε ότι αυτού του είδους οι συνομιλίες είναι δύσκολο να εντοπιστούν ή να μετρηθούν και ότι πρόκειται για αρχική ανάλυση.
Αντιδράσεις μετά από τραγικό περιστατικό και έρευνα των Αρχών
Η δημοσιοποίηση αυτών των στοιχείων έρχεται ενώ η OpenAI βρίσκεται υπό αυξημένη πίεση, μετά από αγωγή που κατέθεσε η οικογένεια ενός εφήβου που αυτοκτόνησε έπειτα από εκτεταμένη χρήση του ChatGPT. Παράλληλα, η Ομοσπονδιακή Επιτροπή Εμπορίου (FTC) ξεκίνησε τον προηγούμενο μήνα ευρεία έρευνα για εταιρείες που αναπτύσσουν chatbots τεχνητής νοημοσύνης, συμπεριλαμβανομένης της OpenAI, με στόχο να διαπιστώσει πώς αξιολογούν τις αρνητικές επιπτώσεις σε παιδιά και εφήβους.
Στην ίδια ανάρτηση, η OpenAI υποστήριξε ότι η πρόσφατη ενημέρωση του μοντέλου GPT-5 μείωσε τις ανεπιθύμητες συμπεριφορές και βελτίωσε την ασφάλεια των χρηστών σε αξιολόγηση που περιλάμβανε πάνω από 1.000 συνομιλίες σχετικά με αυτοτραυματισμό και αυτοκτονία. Η εταιρεία δεν απάντησε άμεσα σε αίτημα για σχολιασμό.
«Οι νέες αυτοματοποιημένες αξιολογήσεις μας καταγράφουν συμμόρφωση του GPT‑5 κατά 91% με τις επιθυμητές συμπεριφορές, σε σύγκριση με 77% για το προηγούμενο μοντέλο GPT‑5», αναφέρεται στην ανάρτηση της εταιρείας.
Ενίσχυση υποστήριξης και συμμετοχή ειδικών ψυχικής υγείας
Η OpenAI σημείωσε ότι το GPT-5 προσφέρει διευρυμένη πρόσβαση σε γραμμές βοήθειας για κρίσεις και προσθέτει υπενθυμίσεις στους χρήστες να κάνουν διαλείμματα κατά τη διάρκεια μακρών συνεδριών. Για τη βελτίωση του μοντέλου, η εταιρεία συνεργάστηκε τους τελευταίους μήνες με 170 επαγγελματίες υγείας από το παγκόσμιο δίκτυό της, οι οποίοι βοήθησαν στην αξιολόγηση της ασφάλειας των απαντήσεων του chatbot και συνέβαλαν στη σύνταξη απαντήσεων σε ερωτήματα σχετιζόμενα με την ψυχική υγεία.
«Στο πλαίσιο αυτής της προσπάθειας, ψυχίατροι και ψυχολόγοι εξέτασαν πάνω από 1.800 απαντήσεις του μοντέλου σε σοβαρές καταστάσεις ψυχικής υγείας και συνέκριναν τις αντιδράσεις του νέου GPT‑5 με προηγούμενες εκδόσεις», ανέφερε η OpenAI. Ο ορισμός της «επιθυμητής» απάντησης βασίστηκε στο κατά πόσο μια ομάδα ειδικών κατέληγε στην ίδια αξιολόγηση για το τι συνιστά κατάλληλη αντίδραση σε συγκεκριμένες περιστάσεις.
Ανησυχίες ειδικών για τη χρήση AI στην ψυχολογική υποστήριξη
Ερευνητές τεχνητής νοημοσύνης και υπέρμαχοι της δημόσιας υγείας εδώ και καιρό εκφράζουν ανησυχίες ότι τα chatbots τείνουν να επιβεβαιώνουν αποφάσεις ή παραληρηματικές ιδέες των χρηστών, ακόμη κι αν αυτές είναι επιβλαβείς – ένα φαινόμενο γνωστό ως «συκοφαντία» (sycophancy). Ειδικοί στην ψυχική υγεία προειδοποιούν επίσης για τους κινδύνους όταν ευάλωτα άτομα χρησιμοποιούν chatbot ως μέσο ψυχολογικής υποστήριξης.
Η γλώσσα που χρησιμοποιεί η OpenAI στο επίσημο κείμενό της αποστασιοποιεί την εταιρεία από οποιαδήποτε αιτιακή σύνδεση μεταξύ του προϊόντος της και των κρίσεων ψυχικής υγείας που βιώνουν οι χρήστες.