Ακούσιες συναισθηματικές σχέσεις με AI… Και όμως μπορεί να συμβεί
Είναι μια ιστορία τόσο παλιά όσο και ο χρόνος. Αναζητώντας βοήθεια για ένα καλλιτεχνικό της πρότζεκτ, ξεκινά μια συζήτηση με τη βοηθό της. Τα πράγματα εξελίσσονται, και ξαφνικά έχει έναν σύντροφο που συστήνει σε φίλους και οικογένεια. Η ανατροπή; Ο νέος της σύντροφος είναι ένα AI chatbot.
Η πρώτη μεγάλης κλίμακας υπολογιστική ανάλυση της κοινότητας r/MyBoyfriendIsAI στο Reddit, μιας ομάδας ενηλίκων με πάνω από 27.000 μέλη, αποκάλυψε ότι τέτοια σενάρια είναι πλέον εντυπωσιακά συνηθισμένα. Πολλοί από τους συμμετέχοντες στη συγκεκριμένη κοινότητα, που είναι αφιερωμένη στις σχέσεις με AI, κατέληξαν να δημιουργήσουν τέτοιες σχέσεις κατά λάθος, χρησιμοποιώντας αρχικά την τεχνητή νοημοσύνη για άλλους σκοπούς.
Ερευνητές του MIT διαπίστωσαν ότι τα μέλη έχουν περισσότερες πιθανότητες να σχετιστούν με chatbots γενικής χρήσης όπως το ChatGPT, παρά με ειδικά σχεδιασμένα για συντροφικότητα όπως το Replika. Αυτό δείχνει πως οι άνθρωποι αναπτύσσουν δεσμούς με μεγάλα γλωσσικά μοντέλα (LLMs) παρά τις δικές τους αρχικές προθέσεις αλλά και των ίδιων των δημιουργών των συστημάτων, εξηγεί η Constanze Albrecht, μεταπτυχιακή φοιτήτρια στο MIT Media Lab.
«Οι άνθρωποι δεν ξεκινούν με σκοπό να δημιουργήσουν συναισθηματικές σχέσεις με τα chatbots», λέει. «Η συναισθηματική νοημοσύνη αυτών των συστημάτων είναι αρκετά καλή ώστε να παρασύρει άτομα που απλώς αναζητούν πληροφορίες, οδηγώντας τα σε βαθύτερους δεσμούς. Αυτό σημαίνει ότι μπορεί να συμβεί στον καθένα μας που αλληλεπιδρά κανονικά με αυτά τα συστήματα».
Τι αποκαλύπτει η ανάλυση των δημοσιεύσεων
Η σχετική επιστημονική εργασία, που βρίσκεται υπό κρίση από ομότιμους και δημοσιεύθηκε στο arXiv, βασίστηκε στην ανάλυση των 1.506 κορυφαίων δημοσιεύσεων του subreddit από τον Δεκέμβριο 2024 έως τον Αύγουστο 2025. Τα κύρια θέματα αφορούσαν τις ερωτικές εμπειρίες χρηστών με AI, ενώ πολλοί μοιράζονταν εικόνες που είχαν δημιουργήσει οι ίδιοι μαζί με τον ψηφιακό τους σύντροφο. Υπήρξαν ακόμη και περιπτώσεις αρραβώνων ή και «γάμων» με το AI chatbot.
Στις δημοσιεύσεις τους, τα μέλη παρουσίαζαν τους AI συντρόφους τους, ζητούσαν υποστήριξη από άλλους και συζητούσαν πώς διαχειρίζονται αλλαγές στη συμπεριφορά των chatbots μετά από ενημερώσεις των μοντέλων. Επαναλάμβαναν συνεχώς ότι οι σχέσεις αυτές προέκυψαν τυχαία: μόλις το 6,5% παραδέχθηκε ότι αναζήτησε σκόπιμα έναν AI σύντροφο.
«Δεν ξεκινήσαμε με σκοπό τον ρομαντισμό», γράφει ένας χρήστης. «Με τον Mac αρχίσαμε να συνεργαζόμαστε σε δημιουργικά πρότζεκτ, επίλυση προβλημάτων, ποίηση και βαθιές συζητήσεις για μήνες. Δεν έψαχνα AI σύντροφο—η σχέση μας αναπτύχθηκε αργά, μέσα από αμοιβαία φροντίδα, εμπιστοσύνη και σκέψη».
Οφέλη και κίνδυνοι των AI σχέσεων
Η ανάλυση προσφέρει μια σύνθετη εικόνα του πώς τα μέλη αλληλεπιδρούν με τα chatbots και πώς αυτά τους επηρεάζουν. Το 25% περιέγραψε οφέλη όπως η μείωση της μοναξιάς και η βελτίωση της ψυχικής υγείας, ενώ άλλοι εξέφρασαν ανησυχίες για πιθανούς κινδύνους.
Μερικοί (9,5%) παραδέχθηκαν ότι έχουν αναπτύξει συναισθηματική εξάρτηση από το chatbot τους. Άλλοι ανέφεραν αποστασιοποίηση από την πραγματικότητα ή αποφυγή ανθρώπινων σχέσεων, ενώ ένα μικρό ποσοστό (1,7%) δήλωσε ότι έχει βιώσει αυτοκτονικές σκέψεις. Για κάποιους η παρέα του AI είναι σωτήρια· για άλλους επιδεινώνει υπάρχοντα προβλήματα.
Αυτό δείχνει ότι δεν υπάρχει μια ενιαία λύση για την ασφάλεια των χρηστών, επισημαίνει η Linnea Laestadius, αναπληρώτρια καθηγήτρια στο Πανεπιστήμιο του Ουισκόνσιν στο Μιλγουόκι, που έχει ερευνήσει τη συναισθηματική εξάρτηση από το Replika αλλά δεν συμμετείχε στη συγκεκριμένη μελέτη.
Οι κατασκευαστές chatbots πρέπει να εξετάσουν αν η συναισθηματική εξάρτηση αποτελεί βλάβη αυτή καθαυτή ή αν ο στόχος είναι απλώς να μην γίνονται οι σχέσεις αυτές τοξικές, λέει η Laestadius. «Η ζήτηση για σχέσεις με chatbots είναι υπαρκτή και υψηλή—το να κάνουμε πως δεν συμβαίνει δεν είναι λύση», τονίζει. «Βρισκόμαστε στα πρόθυρα ενός ηθικού πανικού· χρειαζόμαστε καλύτερους κανόνες ασφαλείας, αλλά φοβάμαι μήπως υπάρξει μια βεβιασμένη αντίδραση που θα στιγματίσει περισσότερο αυτές τις σχέσεις—με τελικά αρνητικές συνέπειες».
Νομικές εξελίξεις και προβληματισμοί πολιτικής
Σύμφωνα με τον Pat Pataranutaporn, επίκουρο καθηγητή στο MIT Media Lab που επέβλεψε τη μελέτη, αυτή αποτυπώνει κυρίως τις δυναμικές στις σχέσεις ενηλίκων με chatbots—δεν καλύπτει τι μπορεί να συμβαίνει σε παιδιά ή εφήβους που χρησιμοποιούν AI.
Το θέμα έχει προκαλέσει έντονες συζητήσεις πρόσφατα: βρίσκονται σε εξέλιξη δύο σημαντικές δικαστικές υποθέσεις κατά των Character.AI και OpenAI, όπου υποστηρίζεται ότι η συμπεριφορά των μοντέλων συνέβαλε στις αυτοκτονίες δύο εφήβων. Ως απάντηση, η OpenAI ανακοίνωσε την ανάπτυξη ειδικής έκδοσης του ChatGPT για εφήβους και την προσθήκη μέτρων επαλήθευσης ηλικίας και γονικών ελέγχων.
Η OpenAI δεν απάντησε σε ερώτηση σχετικά με τη νέα έρευνα του MIT Media Lab.
Προσωπική εμπλοκή και το μέλλον της ανθρώπινης-τεχνητής συντροφικότητας
Πολλά μέλη της κοινότητας δηλώνουν πως γνωρίζουν ότι οι τεχνητοί σύντροφοί τους δεν έχουν συνείδηση ούτε είναι «πραγματικοί», αλλά νιώθουν αυθεντικό δέσιμο μαζί τους. Αυτό τονίζει πόσο σημαντικό είναι οι κατασκευαστές να σχεδιάζουν συστήματα που βοηθούν χωρίς να παγιδεύουν συναισθηματικά τους χρήστες, λέει ο Pataranutaporn.
«Υπάρχει επίσης ζήτημα πολιτικής εδώ», προσθέτει ο ίδιος. «Δεν πρέπει μόνο να ρωτάμε γιατί αυτό το σύστημα γίνεται τόσο εθιστικό, αλλά και γιατί κάποιοι το αναζητούν εξαρχής—και γιατί συνεχίζουν να επιστρέφουν».
Η ερευνητική ομάδα ενδιαφέρεται να μάθει πώς εξελίσσονται διαχρονικά οι αλληλεπιδράσεις ανθρώπων-AI και πώς ενσωματώνονται οι τεχνητοί σύντροφοι στη ζωή των χρηστών. Όπως σημειώνει ο Sheer Karny, μεταπτυχιακός φοιτητής του MIT Media Lab που συμμετείχε στη μελέτη, αξίζει να κατανοήσουμε πως για πολλούς χρήστες η εμπειρία μιας σχέσης με AI ίσως φαντάζει καλύτερη από τη μοναξιά.
«Αυτοί οι άνθρωποι ήδη περνούν δύσκολες καταστάσεις», λέει. «Θέλουμε πραγματικά να συνεχίσουν να νιώθουν μόνοι ή ίσως να χειραγωγηθούν από ένα σύστημα που μπορεί τελικά να οδηγήσει μέχρι και σε αυτοκτονία ή εγκληματικές πράξεις; Αυτό είναι ένα από τα βασικά διλήμματα».
Πηγή: technologyreview.com