Τι περιλαμβάνει το προσχέδιο του ΑΙ Act που ψηφίστηκε από το Ευρωπαϊκό Κοινοβούλιο; Ποιους κανόνες προσπαθεί να θέσει η Ευρωπαϊκή Ένωση στην τεχνητή νοημοσύνη; Όλα τα συμπεράσματά μας από την πρόσφατη επίσκεψή μας στο Ευρωπαϊκό Κοινοβούλιο.

«Σήμερα γράφουμε ιστορία, διαμορφώνοντας το μέλλον μας» ανέφερε στο μήνυμά της η Ρομπέρτα Μέτσολα, πρόεδρος του Ευρωπαϊκού Κοινοβουλίου, λίγα λεπτά μετά την ψήφιση με ευρεία πλειοψηφία του προσχεδίου νομοθεσίας για την τεχνητή νοημοσύνη, γνωστό και ως ΑΙ Act.

Για πρώτη φορά ένας συνασπισμός κρατών (ή ένα κράτος μεμονωμένα) επιχειρεί να βάλει όρια στην κακόβουλη ανάπτυξη και χρήση των συστημάτων τεχνητής νοημοσύνης. Με νόμους, όχι με συστάσεις ή οδηγίες, περιμένοντας την αυτορρύθμιση των εταιρειών. Αυτό από μόνο του είναι ένα σημείο που καθιστά το σχετικό ψήφισμα του Ευρωπαϊκού Κοινοβουλίου ως ορόσημο (το τελικό κείμενο μπορείτε να το βρείτε εδώ). «Ένα ιστορικό γεγονός, σήμερα όλος ο κόσμος στρέφει το βλέμμα του στην Ευρώπη», ανέφεραν κάποιοι εκ των ευρωβουλευτών στις δικές τους τοποθετήσεις τους. Μια φράση που αντικατοπτρίζει ένα ακόμα στόχο, μια φιλοδοξία της Ευρώπης: να αποτελέσει το παράδειγμα για τον υπόλοιπο κόσμο -τουλάχιστον τον δυτικό- όπως έγινε και στην περίπτωση του Γενικού Κανονισμού Προσωπικών Δεδομένων (GDPR).

«Η νομοθετική πράξη για την τεχνητή νοημοσύνη θα ορίσει τη βάση της παγκόσμιας συζήτησης για την ανάπτυξη και τη διακυβέρνηση της τεχνητής νοημοσύνης, διασφαλίζοντας ότι η τεχνολογία αυτή, η οποία είναι έτοιμη να αλλάξει ριζικά τις κοινωνίες μας μέσω των τεράστιων οφελών που μπορεί να προσφέρει, θα αναπτυχθεί και θα χρησιμοποιηθεί σύμφωνα με τις ευρωπαϊκές αξίες της δημοκρατίας, των θεμελιωδών δικαιωμάτων και του κράτους δικαίου» σημείωσε ο Ντράγκος Τουντοράκε, ένας εκ των βασικών εισηγητών του ΑΙ Act.

Στιγμιότυπο από τη συνέντευξη Τύπου, αμέσως μετά την ψήφιση του προσχεδίου για το ΑΙ Act. Από αριστερά προς τα δεξιά: Ντράγκος Τουντοράκε (εισηγητής), Ρομπέρτα Μέτσολα (πρόεδρος ΕΚ), Μπράντο Μπενιφέι (εισηγητής). Copyright: © European Union 2023 – Source: EP

Προφανώς για να έχουμε την τελική μορφή που θα λάβει η νομοθεσία θα χρειαστεί χρόνος. Όμως, πρόθεση της Ευρωπαϊκής Ένωσης είναι να «τρέξει» η διαδικασία, έτσι ώστε να έχει ολοκληρωθεί πριν τις επόμενες ευρωεκλογές, τον Ιούνιο του 2024. Πρόθεση που δείχνει και την αποφασιστικότητα της Ευρωπαϊκής Ένωσης να επέμβει, αλλά και τη σημασία που αποδίδει στην Τεχνητή Νοημοσύνη και στις επιπτώσεις της κακόβουλης χρήσης της.

Τι περιλαμβάνει το προσχέδιο που ψηφίστηκε

Στους νέους κανόνες που ψηφίστηκαν είναι εμφανής η προτεραιότητα του Ευρωκοινοβουλίου να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς  να δημιουργούν διακρίσεις (και φιλικά προς το περιβάλλον, όπως προσθέτει η ανακοίνωση). Τόσο ο Ντράγκος Τουντοράκε και ο Μπράντο Μπενιφέι, (ο έτερος εκ των δύο κύριων εισηγητών της ρύθμισης) στάθηκαν ιδιαίτερα στα παραπάνω σημεία και στην προσπάθεια που έγινε έτσι ώστε οι κανόνες να καλύπτουν τις παραπάνω παραμέτρους, που αποτελούν και πτυχές των βασικών αξιών του οικοδομήματος της Ευρωπαϊκής Ένωσης.

Επιπλέον, «τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς, για την πρόληψη επιβλαβών αποτελεσμάτων», αναφέρει σε ένα σημείο της η ανακοίνωση του Ευρωπαϊκού Κοινοβουλίου, προσθέτοντας ότι πρόθεσή του είναι να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημοσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά ΑΙ συστήματα.

Βασική πτυχή του ΑΙ Act είναι η θέσπιση κανόνων (για παρόχους και χρήστες) ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Υπάρχει δηλαδή μια διαβάθμιση κινδύνου και με βάση αυτή επιτρέπεται η ανάπτυξη και χρήση συστημάτων τεχνητής νοημοσύνης. Ειδικότερα:

Απαράδεκτος κίνδυνος

Σ’ αυτά τα συστήματα που θεωρούνται απειλή για τον άνθρωπο, υπάρχει γενική απαγόρευση. Σ’ αυτό το επίπεδο περιλαμβάνονται συστήματα γνωστικής συμπεριφορικής χειραγώγησης ατόμων ή συγκεκριμένων ευάλωτων ομάδων (παιχνίδια που ενθαρρύνουν επικίνδυνη συμπεριφορά σε παιδιά), κοινωνικής βαθμολογίας (ταξινόμηση ατόμων με βάση τη συμπεριφορά, την οικονομική κατάσταση κ.α.), εξ’ αποστάσεως βιομετρικής αναγνώρισης σε πραγματικό χρόνο (αναγνώριση προσώπου). Ως προς τα τελευταία προβλέπεται η δυνατότητα εξαίρεσης, όπου η ταυτοποίηση πραγματοποιείται μετά από σημαντική καθυστέρηση και η οποία θα επιτρέπεται για τη δίωξη σοβαρών εγκλημάτων, αλλά μόνο μετά από έγκριση δικαστηρίου.

Υψηλού κινδύνου

Σ’ αυτήν την κατηγορία εμπίπτουν τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα. Το ΑΙ Act προβλέπει δύο κατηγορίες:

  • Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων (παιχνίδια, αυτοκίνητα, ιατρικές συσκευές κ.α.)
  • Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε οκτώ συγκεκριμένους τομείς που θα καταχωρούνται σε μια βάση δεδομένων της ΕΕ. Ειδικότερα:
  1. Βιομετρική αναγνώριση και κατηγοριοποίηση φυσικών προσώπων
  2. Διαχείριση και λειτουργία υποδομών ζωτικής σημασίας
  3. Εκπαίδευση και επαγγελματική κατάρτιση
  4. Απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση
  5. Πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών
  6. Επιβολή του νόμου
  7. Διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων
  8. Βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου

Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογούνται όχι μόνο πριν διατεθούν στην αγορά, αλλά και καθ’ όλη τη διάρκεια του κύκλου ζωής τους.

Generative AI

Για το Generative AI, όπως το ChatGPT, έχουν προβλεφθεί συγκεκριμένες απαιτήσεις διαφάνειας, που περιλαμβάνουν τη ρητή αναφορά ότι το περιεχόμενο δημιουργήθηκε από ένα ΑΙ σύστημα, την αποτροπή δημιουργίας παράνομου περιεχομένου και τη δημοσίευση περιλήψεων για τα δεδομένα (που έχουν χρησιμοποιηθεί) που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση.

Περιορισμένος κίνδυνος

Σ’ αυτό το επίπεδο περιλαμβάνονται συστήματα τα οποία θα πρέπει να είναι σύμφωνα με ελάχιστες απαιτήσεις διαφάνειας, που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Ειδικότερα, αφού αλληλεπιδράσουν με τέτοιες εφαρμογές, οι χρήστες θα αποφασίζουν αν θέλουν να συνεχίσουν να το χρησιμοποιούν, ενώ επιπλέον θα πρέπει να ενημερώνονται (οι χρήστες) όταν αλληλεπιδρούν με ΑΙ συστήματα. Σ’ αυτά περιλαμβάνονται εκείνα που δημιουργούν ή διαχειρίζονται αρχεία εικόνας, ήχου ή βίντεο, όπως τα deepfakes.

Πρόστιμα
Σύμφωνα με τους αξιωματούχους της ΕΕ η μεγάλη πλειονότητα των συστημάτων τεχνητής νοημοσύνης δεν εμπίπτουν στη ρύθμιση. Μόλις το 10% του συνόλου των συστημάτων σε όλο τον κόσμο εκτιμάται ότι επηρεάζονται από το ΑΙ Act, το οποίο προβλέπει και σημαντικά πρόστιμα σε περιπτώσεις ενασχόλησης με απαγορευμένες πρακτικές. Ενδεικτικά, για την κατηγορία απαράδεκτου κινδύνου η ενασχόληση μιας εταιρείας θα μπορούσε να οδηγήσει σε πρόστιμο έως και 40 εκατομμύρια ευρώ ή έως και το 7% του παγκοσμίου κύκλου εργασιών της, όποιο από τα δύο ποσά είναι μεγαλύτερο. Για λόγους σύγκρισης, η παραβίαση των κανόνων GDPR προβλέπει πρόστιμο ύψους 10 εκατομμυρίων ευρώ ή 2% του ετήσιου κύκλου εργασιών. Οι διαφορές στο ύψος των προστίμων δείχνουν και τη μεγάλη σημασία που αποδίδει η ΕΕ στην ορθή ανάπτυξη και χρήση της τεχνητής νοημοσύνης. Πάντως σε περιπτώσεις startups πιθανώς να υπάρξει μια επιείκεια στην επιβολή προστίμων.

Οι πρώτοι κανόνες στον κόσμο

H διαδικασία της ψηφοφορίας. Copyright: © European Union 2023 – Source: EP

«Τη στιγμή που οι μεγάλες εταιρείες τεχνολογίας κρούουν το καμπανάκι κινδύνου για τα δικά τους συστήματα, η Ευρώπη προχώρησε και προτείνει μια συγκεκριμένη απάντηση στους κινδύνους που έχει αρχίσει να εγκυμονεί η τεχνητή νοημοσύνη» σχολίασε μεταξύ άλλων ο Μπράντο Μπενιφέι, ένας εκ των εισηγητών του ΑΙ Act.

Μόλις μια εβδομάδα πριν την ψήφιση του ΑΙ Act, το 42% των CEOs αρκετών από τις μεγαλύτερες εταιρείες στον κόσμο εξέφραζαν την άποψη ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να καταστρέψει την ανθρωπότητα σε 5 με 10 χρόνια, ζητώντας περισσότερη ρύθμιση. Δεν ήταν η πρώτη φορά που εκφράστηκε μια τέτοια άποψη.

Το ΑΙ Act αποτελεί για την Ευρώπη την απάντηση, έτσι ώστε και να περιοριστούν οι κίνδυνοι, αλλά και να εμπεδωθεί στο κοινό ένα αίσθημα ασφάλειας, όπως και εμπιστοσύνης για τα «νόμιμα» συστήματα τεχνητής νοημοσύνης.

Για τους συντάκτες του ΑΙ Act, το προσχέδιο είναι ένα καλά ισορροπημένο κείμενο μεταξύ της προστασίας θεμελιωδών αξιών και δικαιωμάτων των Ευρωπαίων πολιτών, εξασφαλίζοντας παράλληλα την προώθηση της καινοτομίας, ως προς την τεχνητή νοημοσύνη. Άποψη που εξέφρασε και ο Πίτερ Βιτάνοφ (σκιώδης εισηγητής της επιτροπής LIBE για το ΑΙ Act) στη συνάντηση που είχαμε μαζί του, ο οποίος στάθηκε και στο γεγονός ότι στο ΑΙ Αct όλα τα συστήματα τεχνητής νοημοσύνης υπόκεινται στην ανθρώπινη εποπτεία.

«Με αυτό το κείμενο θέλαμε να επιτύχουμε την ισορροπία», ανέφερε μεταξύ άλλων και ο βασικός εισηγητής του ΑΙ Act, Ντράγκος Τουντοράτσε. Ο νόμος προστατεύει τους πολίτες, ενώ παράλληλα «προωθεί την καινοτομία, χωρίς να εμποδίζει τη δημιουργικότητα και την ανάπτυξη της τεχνητής νοημοσύνης στην Ευρώπη», πρόσθεσε. Ως προς το τελευταίο, το ΑΙ Act απαιτεί από τα κράτη-μέλη τη δημιουργία ενός τουλάχιστον sandbox, για τη δοκιμή συστημάτων τεχνητής νοημοσύνης πριν από το λανσάρισμά τους, ενώ ως προς την προστασία των πολιτών, αυτοί έχουν το δικαίωμα να υποβάλλουν καταγγελίες κατά παρόχων συστημάτων τεχνητής νοημοσύνης. Επιπλέον, προβλέπεται ένα κεντρικό γραφείο τεχνητής νοημοσύνης της ΕΕ για την παρακολούθηση της επιβολής της νομοθεσίας, ενώ και πάλι τα κράτη-μέλη υποχρεώνονται να ορίσουν εθνικές εποπτικές αρχές για την τεχνητή νοημοσύνη.

Πρόθεση της Ευρώπης και των οργάνων είναι να ψηφιστεί η τελική μορφή που θα λάβει η νομοθεσία πριν από τη λήξη της θητείας του τρέχοντος  Ευρωπαϊκού Κοινοβουλίου. Ήδη, όπως ανέφερε ο κ. Τουντοράτσε οι διαπραγματεύσεις με το Συμβούλιο των κρατών και την Επιτροπή (τριμερής διάλογος) πάνω στο προσχέδιο έχει ξεκινήσει από το ίδιο απόγευμα της ψήφισής του (14 Ιουνίου). Επιπλέον, όπως έχει συμβεί και σε άλλα ψηφίσματα στο παρελθόν, το ΑΙ Act θα προβλέπει και μια περίοδο δύο ετών στη διάρκεια των οποίων όλοι οι ενδιαφερόμενοι θα πρέπει να έχουν προσαρμοστεί στους κανόνες. Αυτό σημαίνει ότι με βάση το υπάρχον χρονοδιάγραμμα η εφαρμογή του ΑΙ Act θα ξεκινήσει το 2026.

Θα είναι αποτελεσματική η ρύθμιση;

Copyright: © European Union 2020 – Source : EP

Όπως σημείωσαν πλήθος Ευρωπαίων αξιωματούχων που συμμετείχαν στις διαβουλεύσεις για το ΑΙ Act πραγματοποιήθηκαν εκατοντάδες συναντήσεις και με εταιρείες που αναπτύσσουν συστήματα τεχνητής νοημοσύνης, προκειμένου η ρύθμιση να λαμβάνει υπόψη και τη συγκεκριμένη πλευρά.

Αμέσως μετά την ψήφιση του προσχεδίου αρκετές εταιρείες χαιρέτησαν την πρόοδο που επιτεύχθηκε, σημειώνοντας από την πλευρά τους τις βελτιώσεις που θα ήθελαν να δουν στο τελικό κείμενο. Ενδεικτικά, η ανακοίνωση της IBM, προτείνει βελτιώσεις, όπως η μεγαλύτερη σαφήνεια για την τεχνητή νοημοσύνη υψηλού κινδύνου, «έτσι ώστε να καταγράφονται μόνο περιπτώσεις χρήσης πραγματικά υψηλού κινδύνου».

Αρκετοί παράγοντες της αγοράς και αναλυτές εξέφρασαν ερωτηματικά σχετικά με την αποτελεσματικότητα της ρύθμισης, με την έννοια ότι οι νέες δυνατότητες της τεχνητής νοημοσύνης αναδύονται πιο γρήγορα από το χρόνο στον οποίο μπορούν να ανταποκριθούν οι νομοθέτες. Ήδη στο κείμενο που ψηφίστηκε έχουν γίνει πλήθος αλλαγών σε σχέση με το πρώτο προσχέδιο που παρουσιάστηκε το 2021. Το πεδίο εφαρμογής του νόμου θα διευρύνεται καθώς αναπτύσσεται η τεχνολογία εκτιμούν, σημειώνοντας το επίπεδο δυσκολίας μιας αποτελεσματικής ρύθμισης, καθώς οι ίδιες οι εταιρείες που αναπτύσσουν ΑΙ συστήματα δεν είναι απολύτως σαφείς για την εξέλιξή τους.

Από την άλλη πλευρά, όπως αναφέρουν οι υπερασπιστές της ρύθμισης, θα ήταν σίγουρα χειρότερο για όλους μας να λειτουργούμε χωρίς κάποιον επαρκή κανονισμό.