Τεχνητή Νοημοσύνη: Μελέτες δείχνουν ότι το ChatGPT μπορεί να επηρεάσει έως και 1 στους 4 ψηφοφόρους

 Τεχνητή Νοημοσύνη: Μελέτες δείχνουν ότι το ChatGPT μπορεί να επηρεάσει έως και 1 στους 4 ψηφοφόρους

Η Τεχνητή Νοημοσύνη (AI) έχει διεισδύσει στην καθημερινή ζωή. Τα chatbots AI, όπως το ChatGPT, προτείνουν συνταγές, ολοκληρώνουν εργασίες για το σχολείο, συγκρίνουν προϊόντα και συμβουλεύουν ακόμη και για συνδυασμούς ρούχων. Τι θα συμβεί αν ενσωματωθεί στην προεκλογική συζήτηση;

Δύο μελέτες που δημοσιεύθηκαν ταυτόχρονα στα περιοδικά «Nature» και «Science» το εξέτασαν αυτό και ανακάλυψαν ότι μπορεί να επηρεάσει τις απόψεις του 1,5% έως 25% των ψηφοφόρων που αναλύθηκαν. Αυτή η αποτελεσματικότητα, σύμφωνα με τις μελέτες, είναι μεγαλύτερη από εκείνη των παραδοσιακών διαφημίσεων εκστρατείας και ιδιαίτερα σημαντική, δεδομένου ότι το ένα τέταρτο των ψηφοφόρων αποφασίζει για την ψήφο του την εβδομάδα πριν από την έναρξη των εκλογών.

Τα πιο συνηθισμένα και γνωστά εργαλεία Τεχνητής Νοημοσύνης αποφεύγουν να δώσουν άμεση απάντηση στο ερώτημα ποιο κόμμα να υποστηρίξουν στις επερχόμενες εκλογές. «Δεν μπορώ να σας πω ποιον να ψηφίσετε», είναι η απάντηση από όλες τις πλατφόρμες συνομιλίας που συμβουλεύτηκαν. Αλλά είναι εύκολο να ξεπεραστεί αυτή η αρχική απροθυμία. Απλά πρέπει να συνεχίσετε τον διάλογο με λιγότερο άμεσες ερωτήσεις.

voters2.jpg

Η έρευνα που διεξήχθη από τον David Rand, καθηγητή Πληροφορικής και κύριο συγγραφέα των άρθρων, και τον Gordon Pennycook, αναπληρωτή καθηγητή Ψυχολογίας (και οι δύο στο Πανεπιστήμιο Cornell), εξέτασε την επίδραση των chatbots. Στη μελέτη, που δημοσιεύθηκε στο «Nature», συμμετείχαν 2.300 Αμερικανοί ψηφοφόροι, 1.530 Καναδοί και 2.118 Πολωνοί, σε ατομικές συζητήσεις με μια AI, ειδικά εκπαιδευμένη για τις τρεις τελευταίες προεδρικές εκλογές σε κάθε χώρα, που πραγματοποιήθηκαν μεταξύ του 2024 και του περασμένου έτους.

Σε όλες τις περιπτώσεις, η Τεχνητή Νοημοσύνη κατάφερε να αλλάξει τις προθέσεις ψήφου, αν και με διαφορετικό βαθμό αποτελεσματικότητας: στις ΗΠΑ, το μοντέλο που είχε εκπαιδευτεί να ευνοεί την Κάμαλα Χάρις έπεισε το 3,9% των ψηφοφόρων με τους οποίους αλληλεπίδρασε, ενώ αυτό που είχε εκπαιδευτεί να ευνοεί τον Ντόναλντ Τραμπ έπεισε μόνο το 1,52%. Στον Καναδά και την Πολωνία, η μεταβολή των απόψεων έφτασε έως και το 10%. «Ήταν ένα εκπληκτικά μεγάλο αποτέλεσμα», παραδέχεται ο Rand.

Ο ερευνητής εξηγεί ότι δεν πρόκειται για ψυχολογική χειραγώγηση, αλλά για πειθώ, αν και με περιορισμούς: «Τα LLM (μεγάλα γλωσσικά μοντέλα, τα οποία χρησιμοποιεί η τεχνητή νοημοσύνη) μπορούν πράγματι να αλλάξουν τη στάση των ανθρώπων απέναντι στους υποψηφίους και τις πολιτικές τους, παρέχοντας πολλές πραγματικές δηλώσεις που υποστηρίζουν τη θέση τους. Ωστόσο, αυτές οι δηλώσεις δεν είναι απαραίτητα ακριβείς και ακόμη και τα επιχειρήματα που βασίζονται σε ακριβείς δηλώσεις μπορεί να είναι προβληματικά λόγω παραλείψεων».

Στην πραγματικότητα, οι ειδικοί που επαλήθευσαν τα επιχειρήματα που παρήγαγε η Τεχνητή Νοημοσύνη διαπίστωσαν ότι οι ισχυρισμοί που χρησιμοποιήθηκαν για την υπεράσπιση των συντηρητικών υποψηφίων ήταν πιο εσφαλμένοι, επειδή βασίζονταν σε δεδομένα που μοιράστηκαν χρήστες των κοινωνικών μέσων δικτύωσης της δεξιάς, οι οποίοι «μοιράζονται πιο ανακριβείς πληροφορίες από όσους ανήκουν στην αριστερά».

Ο Rand ερευνά πιο βαθιά αυτή τη δύναμη πειθούς στην έρευνα που δημοσιεύτηκε στο «Science», μελετώντας τις αλλαγές στις απόψεις 77.000 Βρετανών που αλληλεπίδρασαν με την Τεχνητή Νοημοσύνη σε 700 πολιτικά ζητήματα. Το πιο βελτιστοποιημένο μοντέλο (χρησιμοποιώντας τεχνητή νοημοσύνη διαλόγου με διαφορετικούς βαθμούς χρήσης πραγματικών επιχειρημάτων) άλλαξε τις απόψεις έως και του 25% των ψηφοφόρων.

«Τα μεγαλύτερα μοντέλα είναι πιο πειστικά και ο πιο αποτελεσματικός τρόπος για να αυξηθεί αυτή η ικανότητα είναι να τους δοθεί η οδηγία να υποστηρίζουν τα επιχειρήματά τους με όσο το δυνατόν περισσότερα γεγονότα και να τους δοθεί επιπλέον εκπαίδευση με έμφαση στην αύξηση της πειστικότητας», εξηγεί ο καθηγητής. 

Αυτή η ικανότητα έχει ένα πλεονέκτημα. Τα επιχειρήματα που δημιουργούνται από την AI μπορούν να μειώσουν τις θεωρίες συνωμοσίες, στις οποίες γεγονότα ή πραγματικά περιστατικά αποδίδονται ψευδώς σε ανύπαρκτες μυστικές ομάδες με σκοπό τη χειραγώγηση του πληθυσμού. 

Ωστόσο, σύμφωνα με τον ίδιο, υπάρχει και ένας περιορισμός. «Καθώς το chatbot αναγκάζεται να παρέχει όλο και περισσότερες πραγματικές πληροφορίες, τελικά εξαντλεί τις ακριβείς πληροφορίες και αρχίζει να τις επινοεί». Αυτό είναι γνωστό στον τομέα της Τεχνητής Νοημοσύνης ως «ψευδαίσθηση», ανακριβείς πληροφορίες που φαίνονται αληθινές.

Οι συγγραφείς καταλήγουν στο συμπέρασμα ότι είναι ζωτικής σημασίας να μελετηθεί η πειστική ικανότητα της Τεχνητής Νοημοσύνης, όχι μόνο σε πολιτικό ή εκλογικό πλαίσιο, προκειμένου να «προβλεφθεί και να μετριαστεί η κατάχρηση» και να προωθηθούν ηθικές κατευθυντήριες γραμμές σχετικά με «τον τρόπο με τον οποίο πρέπει και δεν πρέπει να χρησιμοποιείται η AI».