Ευρωκοινοβούλιο για AI: Νόμος για την προστασία των δικαιωμάτων από την κατάχρηση της τεχνητής νοημοσύνης- Τι αποφασίστηκε

 Ευρωκοινοβούλιο για AI: Νόμος για την προστασία των δικαιωμάτων από την κατάχρηση της τεχνητής νοημοσύνης- Τι αποφασίστηκε

Φωτογραφία από το αρχείο του Ευρωκοινοβουλίου/Alexander / Adobe Stock

Την Τετάρτη, το Κοινοβούλιο ενέκρινε τον νόμο περί τεχνητής νοημοσύνης που διασφαλίζει την ασφάλεια και τη συμμόρφωση με τα θεμελιώδη δικαιώματα, ενώ ενισχύει την καινοτομία. Ο κανονισμός, που συμφωνήθηκε στις διαπραγματεύσεις με τα κράτη μέλη τον Δεκέμβριο του 2023, εγκρίθηκε από τους ευρωβουλευτές με 523 ψήφους υπέρ, 46 κατά και 49 αποχές.

Στοχεύει στην προστασία των θεμελιωδών δικαιωμάτων, της δημοκρατίας, του κράτους δικαίου και της περιβαλλοντικής βιωσιμότητας από την τεχνητή νοημοσύνη υψηλού κινδύνου, ενισχύοντας παράλληλα την καινοτομία και καθιερώνοντας την Ευρώπη ως ηγέτη στον τομέα. Ο κανονισμός θεσπίζει υποχρεώσεις για την τεχνητή νοημοσύνη με βάση τους πιθανούς κινδύνους και το επίπεδο επιπτώσεών της.

Τα βασικά στοιχεία της απόφασης

Διασφαλίσεις για την τεχνητή νοημοσύνη γενικού σκοπού
-Όρια στη χρήση βιομετρικών συστημάτων ταυτοποίησης από τις αρχές επιβολής του νόμου
-Απαγορεύσεις για τη βαθμολογία κοινωνικής δικτύωσης και την τεχνητή νοημοσύνη που χρησιμοποιούνται για τη χειραγώγηση ή την εκμετάλλευση τρωτών σημείων των χρηστών
-Δικαίωμα των καταναλωτών να υποβάλλουν παράπονα και να λαμβάνουν ουσιαστικές εξηγήσεις

Απαγορευμένες εφαρμογές

Οι νέοι κανόνες απαγορεύουν ορισμένες εφαρμογές τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, συμπεριλαμβανομένων βιομετρικών συστημάτων κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και μη στοχευμένης απόξεσης εικόνων προσώπων από το διαδίκτυο ή πλάνα CCTV για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου. Η αναγνώριση συναισθημάτων στο χώρο εργασίας και στα σχολεία, η κοινωνική βαθμολογία, η προγνωστική αστυνόμευση (όταν βασίζεται αποκλειστικά στο προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων θα απαγορεύονται επίσης.

Η πρώτη στον πλανήτη νομοθεσία για την τεχνητή νοημοσύνη είναι ευρωπαϊκή, υπερψηφίστηκε στο Ευρωκοινοβούλιο και αναμένεται να εγκριθεί στη σύνοδο κορυφής τον Απρίλιο. Θεσπίζει κανόνες για την ανάπτυξη της τεχνητής νοημοσύνης, επιβάλλει διαφάνεια και θέτει περιορισμούς στη χρήση της για προληπτική αστυνόμευση ή διακρίσεις (αναγνώριση προσώπου, φύλο, ηλικία), συστήνει μια ρυθμιστική αρχή με ευρείες αρμοδιότητες. Σε πολλά σημεία του νόμου χρειάζονται εφαρμοστικές αποφάσεις για τις οποίες γίνεται έντονο lobbying από γίγαντες όπως Microsoft, Google, Mistral AI, Aleph Alpha, που θεωρούν το νόμο υπερβολικά περιοριστικό.

Εξαιρέσεις επιβολής του νόμου

Η χρήση βιομετρικών συστημάτων ταυτοποίησης (RBI) από τις αρχές επιβολής του νόμου απαγορεύεται κατ’ αρχήν, εκτός από περιπτώσεις που αναφέρονται εξαντλητικά και στενά καθορισμένες. Το RBI «σε πραγματικό χρόνο» μπορεί να αναπτυχθεί μόνο εάν πληρούνται αυστηρές διασφαλίσεις, π.χ. η χρήση του είναι περιορισμένη χρονικά και γεωγραφικά και υπόκειται σε συγκεκριμένη προηγούμενη δικαστική ή διοικητική άδεια. Τέτοιες χρήσεις μπορεί να περιλαμβάνουν, για παράδειγμα, στοχευμένη έρευνα ενός αγνοούμενου ή πρόληψη τρομοκρατικής επίθεσης. Η χρήση τέτοιων συστημάτων εκ των υστέρων («μετα-μακρυσμένη RBI») θεωρείται περίπτωση χρήσης υψηλού κινδύνου, που απαιτεί δικαστική εξουσιοδότηση που συνδέεται με ποινικό αδίκημα.

Υποχρεώσεις για συστήματα υψηλού κινδύνου

Προβλέπονται επίσης σαφείς υποχρεώσεις για άλλα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου (λόγω της σημαντικής πιθανής βλάβης στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου). Παραδείγματα χρήσεων τεχνητής νοημοσύνης υψηλού κινδύνου περιλαμβάνουν υποδομές ζωτικής σημασίας, εκπαίδευση και επαγγελματική κατάρτιση, απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. υγειονομική περίθαλψη, τράπεζες), ορισμένα συστήματα επιβολής του νόμου, μετανάστευση και διαχείριση συνόρων, δικαιοσύνη και δημοκρατικές διαδικασίες (π.χ. επηρεασμός των εκλογών) . Τέτοια συστήματα πρέπει να αξιολογούν και να μειώνουν τους κινδύνους, να διατηρούν αρχεία καταγραφής χρήσης, να είναι διαφανή και ακριβή και να διασφαλίζουν την ανθρώπινη εποπτεία. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν παράπονα για συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις σχετικά με αποφάσεις που βασίζονται σε συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου που επηρεάζουν τα δικαιώματά τους.

Απαιτήσεις διαφάνειας

Τα συστήματα AI γενικής χρήσης (GPAI) και τα μοντέλα GPAI στα οποία βασίζονται, πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσης με τη νομοθεσία της ΕΕ για τα πνευματικά δικαιώματα και τη δημοσίευση λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιείται για εκπαίδευση. Τα πιο ισχυρά μοντέλα GPAI που θα μπορούσαν να θέτουν συστημικούς κινδύνους θα αντιμετωπίσουν πρόσθετες απαιτήσεις, όπως η διενέργεια αξιολογήσεων μοντέλων, η αξιολόγηση και ο μετριασμός συστημικών κινδύνων και η αναφορά περιστατικών.

Επιπλέον, οι τεχνητές ή παραποιημένες εικόνες, το περιεχόμενο ήχου ή βίντεο (“deepfakes”) πρέπει να επισημαίνονται με σαφήνεια ως τέτοια.

Μέτρα για τη στήριξη της καινοτομίας και των ΜΜΕ

Ρυθμιστικά sandboxes και πραγματικές δοκιμές θα πρέπει να καθιερωθούν σε εθνικό επίπεδο και να καταστούν προσβάσιμα σε ΜΜΕ και νεοσύστατες επιχειρήσεις, για την ανάπτυξη και εκπαίδευση καινοτόμου τεχνητής νοημοσύνης πριν από την τοποθέτησή του στην αγορά.

Εισαγωγικά

Κατά τη διάρκεια της συζήτησης στην ολομέλεια την Τρίτη, ο συνεισηγητής της Επιτροπής Εσωτερικής Αγοράς Brando Benifei (S&D, Ιταλία) δήλωσε: «Έχουμε επιτέλους τον πρώτο δεσμευτικό νόμο στον κόσμο για την τεχνητή νοημοσύνη, για τη μείωση των κινδύνων, τη δημιουργία ευκαιριών, την καταπολέμηση των διακρίσεων και τη διαφάνεια. Χάρη στο Κοινοβούλιο, οι απαράδεκτες πρακτικές τεχνητής νοημοσύνης θα απαγορευτούν στην Ευρώπη και τα δικαιώματα των εργαζομένων και των πολιτών θα προστατεύονται. Το Γραφείο AI θα δημιουργηθεί τώρα για να υποστηρίζει τις εταιρείες να αρχίσουν να συμμορφώνονται με τους κανόνες πριν τεθούν σε ισχύ. Διασφαλίσαμε ότι οι άνθρωποι και οι ευρωπαϊκές αξίες βρίσκονται στο επίκεντρο της ανάπτυξης της τεχνητής νοημοσύνης».

Ο συνεισηγητής της Επιτροπής Πολιτικών Ελευθεριών Dragos Tudorache (Ανανέωση, Ρουμανία) δήλωσε: «Η ΕΕ τα κατάφερε. Έχουμε συνδέσει την έννοια της τεχνητής νοημοσύνης με τις θεμελιώδεις αξίες που αποτελούν τη βάση των κοινωνιών μας. Ωστόσο, υπάρχει πολλή δουλειά μπροστά που υπερβαίνει τον ίδιο τον νόμο AI. Η τεχνητή νοημοσύνη θα μας ωθήσει να ξανασκεφτούμε το κοινωνικό συμβόλαιο στην καρδιά των δημοκρατιών μας, των εκπαιδευτικών μας μοντέλων, των αγορών εργασίας και του τρόπου με τον οποίο διεξάγουμε τον πόλεμο. Ο νόμος AI είναι ένα σημείο εκκίνησης για ένα νέο μοντέλο διακυβέρνησης που βασίζεται στην τεχνολογία. Πρέπει τώρα να επικεντρωθούμε στην εφαρμογή αυτού του νόμου».

Επόμενα βήματα

Η ρύθμιση εξακολουθεί να υπόκειται σε οριστικό έλεγχο δικηγόρου-γλωσσολόγου και αναμένεται να εκδοθεί οριστικά πριν από το τέλος της νομοθετικής περιόδου (μέσω της λεγόμενης διαδικασίας του διορθωτικού ). Ο νόμος πρέπει επίσης να εγκριθεί επίσημα από το Συμβούλιο.

Θα τεθεί σε ισχύ είκοσι ημέρες μετά τη δημοσίευσή του στην επίσημη Εφημερίδα και θα ισχύει πλήρως 24 μήνες μετά την έναρξη ισχύος του, εκτός από: απαγορεύσεις απαγορευμένων πρακτικών, που θα ισχύουν έξι μήνες μετά την ημερομηνία έναρξης ισχύος. κώδικες πρακτικής (εννέα μήνες μετά την έναρξη ισχύος)· κανόνες τεχνητής νοημοσύνης γενικού σκοπού, συμπεριλαμβανομένης της διακυβέρνησης (12 μήνες μετά την έναρξη ισχύος)· και υποχρεώσεις για συστήματα υψηλού κινδύνου (36 μήνες).

Ιστορικό

Ο νόμος περί τεχνητής νοημοσύνης ανταποκρίνεται άμεσα στις προτάσεις των πολιτών από τη Διάσκεψη για το Μέλλον της Ευρώπης (COFE), πιο συγκεκριμένα στην πρόταση 12(10) για την ενίσχυση της ανταγωνιστικότητας της ΕΕ σε στρατηγικούς τομείς, πρόταση 33(5) για μια ασφαλή και αξιόπιστη κοινωνία, συμπεριλαμβανομένης της αντιμετώπισης της παραπληροφόρησης και της διασφάλισης ότι οι άνθρωποι έχουν τελικά τον έλεγχο, πρόταση 35 για την προώθηση της ψηφιακής καινοτομίας, (3) διασφαλίζοντας παράλληλα την ανθρώπινη εποπτεία και (8) αξιόπιστη και υπεύθυνη χρήση της τεχνητής νοημοσύνης, θέσπιση διασφαλίσεων και διασφάλιση της διαφάνειας και πρόταση 37 (3) για τη χρήση Τεχνητή νοημοσύνη και ψηφιακά εργαλεία για τη βελτίωση της πρόσβασης των πολιτών στις πληροφορίες, συμπεριλαμβανομένων των ατόμων με αναπηρία.

Πηγή: EUparliament

Σχετικά Άρθρα