Στην τελική ευθεία για την εφαρμογή του AI Act. Τι φέρνει ο νέος ευρωπαϊκός νόμος για την τεχνητή νοημοσύνη;

Συνεπή στην υπόσχεση που είχαν δώσει τον Ιούνιο του 2023 ήταν τα αρμόδια όργανα της Ευρωπαϊκής Ένωσης, ολοκληρώνοντας την ψήφιση και εφαρμογή του νόμου για την Τεχνητή Νοημοσύνη (AI Act) πριν τον χρονικό ορίζοντα των Ευρωεκλογών του 2024. Για ουσιαστικούς, αλλά και για λόγους γοήτρου, η Ευρώπη τήρησε κατά γράμμα τα χρονοδιαγράμματα, κινήθηκε πολύ γρήγορα για τα δικά της δεδομένα και μόλις χθες ο τελικός νόμος για το AI Act υπερψηφίστηκε με ευρεία πλειοψηφία από το Ευρωπαϊκό Κοινοβούλιο. Απομένoυν πλέον μόνο δύο τυπικά βήματα: ο κανονισμός να υποβληθεί σε τελικό έλεγχο από γλωσσομαθείς νομικούς της ΕΕ και να εγκριθεί οριστικά και να επικυρωθεί επίσημα και από το Συμβούλιο. Βήματα που αναμένεται να ολοκληρωθούν μέσα στο πρώτο δεκαήμερο του Απριλίου, ώστε από το Μάιο το AI Act να τεθεί σε ισχύ.

Με την ψήφιση του ΑΙ Act η Ευρωπαϊκή Ένωση γίνεται η πρώτη οντότητα κρατών στον κόσμο που υιοθετεί ένα ολοκληρωμένο πλαίσιο για τον περιορισμό των κινδύνων που πηγάζουν από την αλόγιστη ανάπτυξη συστημάτων τεχνητής νοημοσύνης. Η Κίνα έχει ήδη εισαγάγει ένα συνονθύλευμα ρυθμίσεων για το ΑΙ, η κυβέρνηση Μπάιντεν στις ΗΠΑ εξέδωσαν τον προηγούμενο Οκτώβριο ένα εκτελεστικό διάταγμα που απαιτεί από τους οργανισμούς που αναπτύσσουν συστήματα τεχνητής νοημοσύνης να μοιράζονται δεδομένα με την κυβέρνηση.

Η Ευρώπη όμως προχώρησε πολύ περισσότερο και η υιοθέτηση του νόμου για την τεχνητή νοημοσύνη σηματοδοτεί μια νέα εποχή στην αντιμετώπιση της τεχνητής νοημοσύνης. «Η τεχνητή νοημοσύνη είναι ήδη σε μεγάλο βαθμό μέρος της καθημερινότητάς μας. Τώρα, θα είναι και μέρος της νομοθεσίας μας» έγραψε σε ανάρτησή της στα social media η πρόεδρος του ΕΚ, Roberta Metsola.

Το ΑΙ Act τοποθετεί την Ευρώπη στην πρώτη γραμμή των παγκόσμιων προσπαθειών αντιμετώπισης των προκλήσεων (μαζί και των ευκαιριών) που συνδέονται με το ΑΙ, αφήνοντας τις άλλες αγορές να παίζουν ένα είδος κυνηγητού για να την προφτάσουν. «Έχουμε επιτέλους την πρώτη νομοθεσία στον κόσμο για την τεχνητή νοημοσύνη, για τη μείωση των κινδύνων, τη δημιουργία ευκαιριών, την καταπολέμηση των διακρίσεων και την επίτευξη διαφάνειας. Χάρη στο Κοινοβούλιο, η Ευρώπη απαγορεύει απαράδεκτες χρήσεις της τεχνητής νοημοσύνης και προστατεύει τα δικαιώματα εργαζομένων και πολιτών» ανέφερε χαρακτηριστικά ο Brando Benifei, συνεισηγητής του ΑΙ Act.

Παράλληλα -και κατά το παράδειγμα του Γενικού Κανονισμού για την Προστασία των Δεδομένων (GDPR)- η Ευρωπαϊκή Ένωση θέλει να αποτελέσει το παγκόσμιο πρότυπο για την ανάπτυξη αξιόπιστων συστημάτων τεχνητής νοημοσύνης. Άλλωστε, οι ρυθμίσεις που φέρνει το AI Act δεν αφορούν μόνο τις ευρωπαϊκές εταιρείες που αναπτύσσουν τέτοια συστήματα. Αφορά το σύνολο των εταιρειών, από όλο τον κόσμο, που παρέχουν τις υπηρεσίες τους σε ευρωπαϊκό έδαφος. Επομένως, έχει ένα παγκόσμιο αποτύπωμα, που θα αναγκάσει όλους τους Οργανισμούς να προσαρμοστούν αν θέλουν να δραστηριοποιούνται στη μεγάλη ευρωπαϊκή αγορά.

Ίσως, εκτός από τους νομοθέτες, να “πανηγυρίζουν” και οι εταιρείες ή οι οργανισμοί που αναπτύσσουν συστήματα ΑΙ, αφού πλέον έχουν έναν ολοκληρωμένο -θεσμικό και οδικό- χάρτη πάνω στον οποίο πρέπει να προσαρμοστούν οι ίδιες και να προσαρμόσουν τις λύσεις τους. Ενδεχομένως, να μην είναι τυχαίο ότι μέχρι στιγμής δεν έχουμε σημαντικές αντιδράσεις από μεγάλες, πολυεθνικές εταιρείες. Οι επιχειρήσεις χρειάζονται και θέλουν ασφάλεια και ένα ολοκληρωμένο θεσμικό πλαίσιο στο οποίο θα λειτουργούν. Δεν είναι τυχαίο ότι σε πολλές πρώτες δηλώσεις εταιρειών του κλάδου γίνεται λόγος για “ιστορική μέρα τόσο για την Ευρωπαϊκή Ένωση, όσο και για την Τεχνητή Νοημοσύνη“, όπως δήλωσε στο 2045 η Μαρία Παπουτσή Managing Associate, AI, Technology & Innovation, Tax & Legal, Deloitte Ελλάδος. Πολύ πιο θερμός ήταν ο Γιάννης Κανελλόπουλος, CEO and Founder της Code4Thought, εταιρείας που ελέγχει την αξιοπιστία λογισμικού AI. “Το χθεσινό ψήφισμα για το EU AI Act δίνει τόση ικανοποίηση όσο το να κερδίζει η αγαπημένη σου ομάδα derby με τον αιώνιο αντίπαλο. Ιστορικά, η Ευρώπη οδηγεί τις εξελίξεις σε ό,τι αφορά τη διακυβέρνηση των τεχνολογιών Τεχνητής Νοημοσύνης. Θεωρώ πως στο Act υπάρχει ισορροπία μεταξύ της καινοτομίας και της (σε λογικά πλαίσια) νομοθέτησης” μας ανέφερε χαρακτηριστικά.

Η βασική αρχή του ΑΙ Act: ρύθμιση ανάλογα με το ρίσκο

Η κύρια ιδέα πίσω από το AI Act και την υλοποίησή του είναι να ρυθμίζει την τεχνητή νοημοσύνη ανάλογα με το επίπεδο κινδύνου που (εκτιμάται ότι) προκαλεί στην κοινωνία. «Το ΑΙ Act έχει κατά βάση ανθρωποκεντρική προσέγγιση» σημειώνουν οι δημιουργοί του. Όσο μεγαλύτερο είναι το ρίσκο (για την κοινωνία) τόσο πιο αυστηροί είναι οι κανόνες και αντίστροφα.

“Το AI Act προβλέπει πρόστιμα έως και 35 εκατομμύρια ευρώ ή 7% του παγκόσμιου ακαθάριστου τζίρου για όσες επιχειρήσεις δεν συμμορφωθούν”

Χαρακτηριστικό παράδειγμα είναι η καθολική απαγόρευση συστημάτων τεχνητής νοημοσύνης που θέτουν σαφή κίνδυνο για θεμελιώδη ανθρώπινα δικαιώματα, όπως εκείνα που περιλαμβάνουν την επεξεργασία βιομετρικών δεδομένων. «Θα απαγορεύονται επίσης η αναγνώριση συναισθημάτων στον χώρο εργασίας και το σχολείο, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση (όταν βασίζεται αποκλειστικά στην κατάρτιση προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων» αναφέρει η επίσημη ανακοίνωση. Βέβαια, για τα συστήματα βιομετρικής ταυτοποίησης από τις αρχές επιβολής του νόμου προβλέπονται εξαιρέσεις σε συγκεκριμένες περιπτώσεις και υπό αυστηρές προϋποθέσεις, όπως η χρήση τους για περιορισμένο χρόνο και σε περιορισμένη γεωγραφική έκταση, με προηγούμενη ειδική άδεια από τις δικαστικές ή τις διοικητικές αρχές. Τέτοιες περιπτώσεις μπορεί να είναι η στοχευμένη αναζήτηση αγνοουμένου προσώπου ή η πρόληψη μιας τρομοκρατικής επίθεσης.

Αμέσως πιο κάτω συναντάμε  τα συστήματα τεχνητής νοημοσύνης «υψηλού κινδύνου», όπως εκείνα που χρησιμοποιούνται σε υποδομές ζωτικής σημασίας, εκπαίδευση, υγειονομική περίθαλψη, επιβολή του νόμου, διαχείριση συνόρων ή εκλογές. Τα συγκεκριμένα συστήματα θα πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις, «λόγω των σημαντικών επιβλαβών επιπτώσεων που ενδέχεται να έχουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου» σημειώνεται στο επίσημο κείμενο. Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για τα συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις για τυχόν αποφάσεις που βασίστηκαν σε συστήματα υψηλού κινδύνου και επηρεάζουν τα δικαιώματά τους.

Πνευματικά δικαιώματα, GenAI και lobbying

Η αμέσως επόμενη βαθμίδα αφορά τα συστήματα τεχνητής νοημοσύνης «γενικής χρήσης» και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσής τους με τη νομοθεσία της ΕΕ για τα δικαιώματα πνευματικής ιδιοκτησίας και της δημοσιοποίησης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιούν για την εκπαίδευση των μοντέλων τους. Για τα ισχυρότερα μοντέλα που μπορούν να δημιουργήσουν συστημικούς κινδύνους θα ισχύουν επιπλέον απαιτήσεις, όπως η αξιολόγησή τους, η εκτίμηση και ο περιορισμός των συστημικών κινδύνων και η υποβολή εκθέσεων σχετικά με περιστατικά και δυσλειτουργίες.

Επιπλέον, αν οποιοδήποτε οπτικοακουστικό υλικό είναι τεχνητό ή παραποιημένο (τα λεγόμενα «προϊόντα βαθυπαραποίησης» ή «deepfakes») θα πρέπει να επισημαίνεται σαφώς.

Ο Dragoş Turodache, o έτερος εκ των εισηγητών του ΑΙ Act, στη συνέντευξη Τύπου που ακολούθησε αμέσως μετά το ψήφισμα, σημείωσε ότι πριν την ψηφοφορία οι διατάξεις για τα πνευματικά δικαιώματα ήταν σ’ αυτές που έγιναν οι περισσότερες προσπάθειες επηρεασμού (heaviest lobbied parts of the bill). Μάλλον αναμενόμενο, αφού εταιρείες όπως οι OpenAI, Stability AI, Google/Alphabet και αρκετές ακόμα αναμένεται είτε να κληθούν να εξηγήσουν ή ακόμα και να αντιμετωπίσουν αγωγές για τα δεδομένα που χρησιμοποίησαν για την εκπαίδευση των συστημάτων τεχνητής νοημοσύνης.

Ο νόμος είναι μόνο η αρχή, τώρα αρχίζουν τα δύσκολα

Μπορεί η μεγάλη πλειονότητα των ευρωβουλευτών να πανηγύριζε χθες μετά την ευρεία υπερψήφιση του AI Act, όμως όλοι γνωρίζουν ότι ο νέος νόμος είναι μόνο η αρχή και οι μεγάλες δυσκολίες θα προκύψουν με την εφαρμογή του. Το παραδέχτηκε δημόσια και ο Dragoş Turodache, σημειώνοντας ότι το μεγαλύτερο εμπόδιο (για το ΑΙ Act) παραμένει η εφαρμογή του.

Άλλωστε, κατά τη διάρκεια των διαπραγματεύσεων των προηγούμενων ετών και μηνών αρκετά κράτη της Ένωσης είχαν υποστηρίξει την αυτορρύθμιση ανησυχώντας ότι μια ασφυκτική ρύθμιση θα μπορούσε να θέσει εμπόδια στην πρόοδο της Ευρώπης και στην προσπάθεια που κάνει να ανταγωνιστεί την Κίνα και τις ΗΠΑ στον τομέα της τεχνολογίας. Γερμανία και Γαλλία, στις οποίες στεγάζονται μερικές από τις πιο υποσχόμενες startups τεχνητής νοημοσύνης στην Ευρώπη, συμπεριλαμβάνονται σε αυτές τις χώρες.

Στο ίδιο κλίμα ήταν και η τοποθέτηση του Βαγγέλη Παπακωνσταντίνου, συνεργάτη μας και Καθηγητή Δικαίου Δεδομένων Προσωπικού Χαρακτήρα, στον οποίο απευθυνθήκαμε για μια πρώτη αντίδραση. “Ο νέος Νόμος για την Τεχνητή Νοημοσύνη καλείται να επιτύχει κάτι πολύ δύσκολο, να γεφυρώσει δηλαδή της υψηλές προσδοκίες, από νομική τουλάχιστον άποψη, και την πραγματικότητα. Οι υψηλές προσδοκίες, που δικαιολογημένα έχουν καλλιεργηθεί αφού αυτός είναι ο πρώτος νόμος παγκοσμίως για τη ρύθμιση της Τεχνητής Νοημοσύνης, αφορούν την επιτυχία της βασικής του νομοθετικής ιδέας, της διάκρισης δηλαδή όλων των εφαρμογών Τεχνητής Νοημοσύνης σε κατηγορίες αναλόγως του βαθμού επικινδυνότητάς τους. Μένει, με άλλα λόγια, να αποδειχτεί αν αυτή η διάκριση είναι πράγματι εφικτή στην πράξη. Μια πράξη που είναι αναμφίβολα σύνθετη, αφού ούτε η τεχνολογία έχει κατασταλάξει, ούτε οι συμμέτοχοι σε αυτή είναι καθορισμένοι, ούτε οι πιθανές μορφές εκμετάλλευσης είναι ήδη γνωστές. Το πρώτο βήμα έγινε, αυτό όμως είναι μόνο η αρχή” μας δήλωσε. “Η πρόκληση τώρα είναι να μην καταπέσει ο κανονισμός αυτός σε ένα αναγκαίο κακό στο οποίο οι οργανισμοί (Δημόσιου και Ιδιωτικού τομέα) πρέπει να απλά να δείξουν ότι συμμορφώνονται”, ανέφερε ο κ. Κανελλόπουλος της Code4Thought στην επικοινωνία μας, προσκαλώντας και τους πολίτες να συνειδητοποιήσουν τα δικαιώματα που αυτή η νομοθεσία τους κατοχυρώνει.

Το ΑΙ Act εκτός από απαγορεύσεις προβλέπει και μέτρα για τη στήριξη της καινοτομίας και των μικρών και μεσαίων επιχειρήσεων, όπως η δημιουργία sandboxes από τα κράτη-μέλη, στα οποία θα δοκιμάζονται σε πραγματικές συνθήκες τα συστήματα τεχνητής νοημοσύνης. «Οι δομές αυτές θα πρέπει να είναι προσβάσιμες στις μικρές και μεσαίες επιχειρήσεις, καθώς και στις νεοφυείς επιχειρήσεις, για να μπορούν να αναπτύσσουν και να εκπαιδεύουν καινοτόμα μοντέλα τεχνητής νοημοσύνης πριν από τη διάθεσή τους στην αγορά» αναφέρει το επίσημο κείμενο.

Το ΑΙ Act θα αρχίσει να εφαρμόζεται πλήρως 24 μήνες μετά την έναρξη της ισχύος του, δηλαδή την Άνοιξη του 2026. Εξαίρεση θα αποτελέσουν οι εξής διατάξεις του: η καθολική απαγόρευση ορισμένων πρακτικών που θα αρχίσει να εφαρμόζεται έξι μήνες μετά την έναρξη ισχύος του κανονισμού, οι κώδικες δεοντολογίας (εννέα μήνες μετά την έναρξη ισχύος), οι κανόνες για την τεχνητή νοημοσύνη γενικής χρήσης, συμπεριλαμβανομένων των κανόνων για τη διακυβέρνηση (12 μήνες μετά την έναρξη ισχύος), και οι υποχρεώσεις για συστήματα υψηλού κινδύνου (36 μήνες).

Μέχρι τα συγκεκριμένα χρονικά ορόσημα οι ενδιαφερόμενες εταιρείες και οργανισμοί θα πρέπει να έχουν ολοκληρώσει την προετοιμασία συμμόρφωσης με τον Κανονισμό. Και μάλλον έχουν ήδη (τουλάχιστον κάποιες) ξεκινήσει να το κάνουν. “Οι επιχειρήσεις θα πρέπει το συντομότερο να προβούν σε καταγραφή και αξιολόγηση ρίσκου των συστημάτων τεχνητής νοημοσύνης, ώστε να φτιάξουν ένα πλάνο συμμόρφωσης με τη νέα νομοθεσία” δήλωσε και σε εμάς η κα Παπουτσή της Deloitte. Για τον κ. Κανελλόπουλο οι εταιρείες που θα δουν το AI Act ως ευκαιρία θα έχουν το πλεονέκτημα. “Όσες το δουν ως αφορμή για να βελτιώσουν τα προϊόντα/υπηρεσίες τους που βασίζονται στις τεχνολογίες ΑΙ θα έχουν σαφές πλεονέκτημα έναντι του ανταγωνισμού τους” μας ανέφερε χαρακτηριστικά.