Κι’ όμως, σύντομα θα βλέπετε deepfake βίντεο, ακόμα και ειδήσεις με AI, που θα νομίζετε ότι είναι πραγματικά

 Κι’ όμως, σύντομα θα βλέπετε deepfake βίντεο, ακόμα και ειδήσεις με AI, που θα νομίζετε ότι είναι πραγματικά

Η νέα τεχνολογία της Google κάνει τα ψεύτικα ειδησεογραφικά βίντεο πιο ρεαλιστικά από ποτέ, προκαλώντας ανησυχία για τη μαζική παραπληροφόρηση. Στο κοντινό μέλλον είναι δυνατό να βλέπετε “ειδήσεις” ακόμα και από μεγάλα κανάλια που θα είναι προϊόν deepfake, ικανό, μάλιστα, να σας παραπλανήσει. Πρόκειται για δυστοπία…

Τα fake news έχουν πλέον περάσει σε ένα νέο, εξελιγμένο επίπεδο, καθώς γίνονται πιο ρεαλιστικά και, δυστυχώς, πιο επικίνδυνα από κάθε άλλη φορά. Μόλις λίγες ημέρες μετά την κυκλοφορία του Veo 3 από την Google, η τεχνητή νοημοσύνη στην παραγωγή βίντεο άρχισε να υλοποιεί τους χειρότερους φόβους μας.

Είναι διασκεδαστικό να βλέπεις βίντεο με τον Will Smith να τρώει μακαρόνια ή έναν ελέφαντα να παίζει στο νερό, αλλά όταν αυτές οι τεχνολογίες χρησιμοποιούνται για ενημερωτικούς σκοπούς, η κατάσταση γίνεται ανησυχητική. Πλέον, χρήστες δημιουργούν ειδησεογραφικά κλιπ που μοιάζουν εντελώς αληθινά.

Τα βίντεο αυτά, που προς το παρόν έχουν κυρίως χιουμοριστικό χαρακτήρα, παρουσιάζουν ψηφιακούς παρουσιαστές με φυσικές κινήσεις, πειστική φωνή και ροή λόγου, ενώ περιλαμβάνουν ακόμα και επαγγελματικού επιπέδου σκηνοθεσία και ήχους περιβάλλοντος. Πλέον, ακόμη και οι πιο προσεκτικοί θεατές μπορεί να πειστούν για την αυθεντικότητά τους.

Η νέα πρόκληση της παραπληροφόρησης

Το κρίσιμο ερώτημα δεν είναι πλέον αν κάποιος μπορεί να κατασκευάσει ψεύτικες ειδήσεις που φαίνονται αληθινές – αυτό ήδη συμβαίνει. Το ζήτημα είναι πώς θα αναγνωρίζουμε αυτά τα βίντεο, πώς θα προστατευτούμε και πώς θα διαφυλάξουμε την κοινωνία μας από τη μαζική παραπληροφόρηση.

Η συγκεκριμένη τεχνολογία, αν και εντυπωσιακή, ανοίγει τον δρόμο σε έναν κόσμο όπου η αλήθεια γίνεται εύκολα… προαιρετική. Η διαχωριστική γραμμή ανάμεσα στην πραγματικότητα και το ψηφιακό ψέμα γίνεται όλο και πιο δυσδιάκριτη. Και όσο τέτοια εργαλεία γίνονται προσβάσιμα σε όλους, ο κίνδυνος να χρησιμοποιηθούν για χειραγώγηση αντί για δημιουργία αυξάνεται δραματικά.

Διαβάστε το αρχικό άρθρο εδώ.