Μια ενδιαφέρουσα συζήτηση για το ΑΙ με την Φερενίκη Παναγοπούλου, μέλος της νεοσύστατης Συμβουλευτικής Επιτροπής Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη.

Υπέρ της ευρείας, αλλά όχι της αδιάκριτης εφαρμογής της Τεχνητής Νοημοσύνης τάσσεται η Φερενίκη Παναγοπούλου, η καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο, αλλά και μέλος της νεοσύστατης Συμβουλευτικής Επιτροπής Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη, που συγκροτήθηκε με απόφαση του Πρωθυπουργού Κυριάκου Μητσοτάκη.

Για την κα Παναγοπούλου οι δυνατότητες της Τεχνητής Νοημοσύνης μπορούν να αξιοποιηθούν σε πολλά επίπεδα, πάντα όμως με σεβασμό στους νομικούς και ηθικούς κανόνες. Στη συζήτηση μαζί μας δίνει παραδείγματα εφαρμογής και αξιοποίησης της τεχνολογίας, παραθέτοντας ταυτόχρονα τις κόκκινες γραμμές, τις προκλήσεις και τα ηθικά διλήμματα.

Ποιος είναι ο στόχος της Επιτροπής για την Τεχνητή Νοημοσύνη;

Στόχος της Επιτροπής είναι η χάραξη εθνικής πολιτικής για την Tεχνητή Nοημοσύνη χωρίς βεβαίως να διαφοροποιηθούμε από το ευρωπαϊκό κατευθυντήριο πλαίσιο. Αντιθέτως, επιθυμούμε να συνδιαμορφώσουμε το ευρωπαϊκό πλαίσιο στέλνοντας παρατηρήσεις για το Σχέδιο Κανονισμού για την Tεχνητή Νοημοσύνη, το λεγόμενο AI Act, ενώ εντός Ελλάδος θα γνωμοδοτήσουμε σε ποιους τομείς μπορεί να εφαρμοστεί η τεχνολογία.

Ποιους τομείς εφαρμογής βλέπετε εσείς;

Ξεκινάμε με μια βασική αρχή: η τεχνολογία είναι σύμμαχός μας. Όμως, η τεχνητή νοημοσύνη δεν μπορεί να θεωρηθεί δεδομένη και επιβεβλημένη σε όλους τους τομείς, αλλά η χρήση της θα πρέπει να κρίνεται ανά περίπτωση, αξιοποιώντας σε πολλά επίπεδα τις δυνατότητές της, σεβόμενοι παράλληλα τους νομικούς και ηθικούς κανόνες.

Η δυνατότητα καταπολέμησης της γραφειοκρατίας στη δημόσια διοίκηση μέσω της προεργασίας των διοικητικών εγγράφων και η αποσυμφόρηση της δικαιοσύνης μέσω της εύρεσης νομοθεσίας και νομολογίας είναι πεδία που μπορεί να αξιοποιηθεί η τεχνητή νοημοσύνη. Πολλά υποσχόμενη είναι η χρήση της και στον χώρο της υγείας. Με τη συνδρομή  της τεχνητής νοημοσύνης είναι δυνατή η διάγνωση και η πρόβλεψη ασθενειών με τη χρήση δεδομένων εικόνας. Ενδεικτικά, με μαστογραφίες μπορούμε να εκπαιδεύσουμε ένα ΑΙ μοντέλο το οποίο θα μπορεί όχι μόνο να διαγνώσει, αλλά και να μας ενημερώσει για τον κίνδυνο που διατρέχει το άτομο να αναπτύξει καρκίνο του μαστού στο άμεσο μέλλον. Εδώ βέβαια χρειάζεται να βάλουμε μια κόκκινη γραμμή. Η λήψη της απόφασης παραμένει στον άνθρωπο και δεν μεταβιβάζεται στον αλγόριθμο. Το μηχάνημα πρέπει να υποβοηθεί, όχι όμως να υποκαθιστά τον γιατρό, τον δημόσιο υπάλληλο, τον δικαστή, κ.ο.κ..

Το ΑΙ μπορεί να διαδραματίσει σημαντικό ρόλο και στον τομέα της δασοπροστασίας. Για παράδειγμα θα μπορούσαμε να τοποθετήσουμε πάνω σε ήδη υπάρχουσες κεραίες κινητής τηλεφωνίας στις δασικές περιοχές της χώρας μικροκάμερες μεγάλης εμβέλειας και ραντάρ νυκτός, που θα ανιχνεύουν τον καπνό και θα στέλνουν αυτοματοποιημένες ενημερώσεις στην Πυροσβεστική με σημείο γεωεντοπισμού.

Ο τομέας της εκπαίδευσης μπορεί επίσης να αξιοποιήσει τις δυνατότητες της Τεχνητής Νοημοσύνης. Ενδεικτικά παραδείγματα είναι η εύρεση πηγών για την εκπόνηση επιστημονικών εργασιών, η δυνατότητα εικονικής ξενάγησης σε αρχαιολογικούς χώρους, η εκμάθηση μαθημάτων μέσω avatar. Χωρίς βέβαια να ξεχνάμε άλλες δεξιότητες, όπως της γραφής σε χαρτί και με μολύβι.

Στην αντίπερα όχθη βλέπουμε τις προκλήσεις σε θέματα βιοηθικής και ηθικής από την ανάπτυξη και τη χρήση της Τεχνητής Νοημοσύνης.

Ένας από τους σημαντικότερους κινδύνους της τεχνητής νοημοσύνης είναι η επέμβαση στην ιδιωτικότητά μας. Ο αλγόριθμος απαιτεί πληθώρα δεδομένων για να εκπαιδευτεί και βασική αρχή στο δίκαιο προστασίας δεδομένων είναι η αρχή της ελαχιστοποίησης. Εδώ υπάρχει μια σύγκρουση.

Θα πρέπει λοιπόν με πολλή φειδώ και περίσκεψη να γίνεται χρήση των δεδομένων μας και να λαμβάνονται τα κατάλληλα τεχνικά και οργανωτικά μέτρα για την προστασία τους. Παράλληλα, η αλγοριθμική ουδετερότητα δεν είναι δεδομένη, καθώς η χρήση των δεδομένων που εισάγονται προς ανάλυση δύναται να οδηγήσει σε διακρίσεις εξαιτίας της μη αντιπροσωπευτικότητας τους.  Είναι γεγονός ότι η όποια προκατάληψη του αλγορίθμου έχει τις ρίζες της στην ανθρώπινη προκατάληψη, καθώς ο άνθρωπος κατασκευάζει τον αλγόριθμο και τον τροφοδοτεί με δεδομένα.

Υπάρχει κάποιο άλλο σημείο που σας προβληματίζει; 

Η δυνατότητα χειραγώγησης της βούλησής μας. Ο αλγόριθμος αποφασίζει τι θα δούμε, τι θα διαβάσουμε, τι θα αγοράσουμε και εν τέλει τι θα ψηφίσουμε. Η αρρύθμιστη χρήση του συνιστά κίνδυνο για τον φιλελεύθερο χαρακτήρα του πολιτεύματος.

Ιδιαίτερη συζήτηση έχει σηκώσει και το θέμα του ποιος θα φέρει την ευθύνη για τις αποφάσεις της Τεχνητής Νοημοσύνης. Υπάρχει απάντηση;

Το ερώτημα περί της ευθύνης είναι δισεπίλυτο. Οι πιθανές λύσεις θα μπορούσαν να συστηματοποιηθούν ως εξής: Η πρώτη θέση έγκειται στο ότι την ευθύνη οφείλει να επωμιστεί, αλλά και να διαχειριστεί ο κατασκευαστής προϊόντων τεχνητής νοημοσύνης. Η δεύτερη θέση υποστηρίζει ότι η ευθύνη πρέπει να αποδοθεί στον χειριστή της τεχνολογίας, δηλαδή στον οδηγό του αυτοκινήτου, τον διοικητικό υπάλληλο ή τον ιατρό που εφαρμόζει την τεχνολογία. Η τρίτη θέση συνίσταται σε έναν επιμερισμό της ευθύνης μεταξύ του κατασκευαστή ή προγραμματιστή και του χειριστή. Η τέταρτη θέση συνηγορεί υπέρ της απόδοσης ευθύνης στην ίδια την τεχνολογία. Αν, όμως, η τεχνολογία θεωρηθεί υπεύθυνη, θα πρέπει προηγουμένως να έχει καταστεί υποκείμενο δικαίου. Η λύση αυτή απορρίφθηκε τον Οκτώβριο του 2020 από το Ευρωπαϊκό Κοινοβούλιο,  το οποίο εξέδωσε τρία ψηφίσματα σχετικά με τις ηθικές και νομικές πτυχές των συστημάτων λογισμικού τεχνητής νοημοσύνης. Και τα τρία ψηφίσματα είναι ανυποχώρητα ως προς την μη παροχή ενός είδους ψηφιακής προσωπικότητας στα συστήματα  τεχνητής νοημοσύνης. Προς το παρόν, ένας συνδυασμός των υπαρχόντων συστημάτων απόδοσης ευθύνης φαίνεται προτιμότερος.

Πρόσφατη μονογραφία της ιδίας: Τεχνητή νοημοσύνη: Ο δρόμος προς έναν ψηφιακό συνταγματισμό: Μια ηθικο-συνταγματική θεώρηση, Πρόλογος Ιωάννη Σαρμά, Εκδόσεις Παπαζήση, Αθήνα 2023, σ. 1-395.

Ποιο ερώτημα θα θέλατε να απευθύνετε σε ένα από τα άλλα μέλη της Επιτροπής;

Όλοι νιώθουμε έλξη από τις επιστήμες που δεν υπηρετούμε και κατ’ επέκταση δεν κατανοούμε. Θα με ενδιέφερε λοιπόν μια αναγωγή στο μέλλον 10 χρόνια μετά. Πώς θα έχει επιδράσει η Τεχνητή Νοημοσύνη στη ζωή μας, κυρίως στον τομέα της ιατρικής; Ποια φάρμακα τεχνητής νοημοσύνης θα υπάρχουν; Ποιες ασθένειες θα καταπολεμηθούν και πώς πρέπει να μεταβληθεί το ασφαλιστικό και συνταξιοδοτικό, δεδομένης της επιμήκυνσης της ζωής; Με ενδιαφέρει πολύ η προστασία των μελλοντικών γενεών, η οποία υπηρετείται στο δίκαιο μας μέσω του δικαίου προστασίας περιβάλλοντος, του φορολογικού και του κοινωνικοασφαλιστικού δικαίου.

Τι σας ρωτούν συνήθως οι φοιτητές σας για την Τεχνητή Νοημοσύνη;

Αν στο μέλλον θα συνάπτουν σχέσεις με ρομπότ.

Στο πεδίο της εκπαίδευσης, που είναι και ο χώρος σας, ποιες δυνατότητες χρήσης, αλλά και προκλήσεις βλέπετε από τη χρήση της Τεχνητής Νοημοσύνης και των GenAI εργαλείων;

Θα πρέπει να δείξουμε προσοχή στη χρήση του ChatGPT, του generative AI συνολικά στην εκπαίδευση. Δεν προτείνω την απαγόρευση, αλλά την ηθική χρήση του. Αυτή μπορεί να επιτευχθεί με πολλά μέσα. Ενδεικτικά η καλλιέργεια της συμβατικής γραφής από τις χαμηλές τάξεις προκειμένου οι μαθητές να μην αποκοπούν από αυτή την πολύ χρήσιμη δεξιότητα. Στις μεγαλύτερες τάξεις, αλλά και στο Πανεπιστήμιο, η επίδοση των εκπαιδευομένων μπορεί να (συν)αξιολογείται μέσα από συμβατικές εξετάσεις χωρίς τη χρήση κινητού τηλεφώνου , ενώ η προφορική εξέτασή τους συνίσταται να αφορά  κριτικά ζητήματα επί των εργασιών τους. Χρειάζεται να εστιάσουμε σε κριτικές ερωτήσεις, όχι μόνο γιατί δεν είναι εύκολο για τέτοιου είδους λογισμικά να συνθέσουν απαντήσεις, αλλά και για να διαμορφώσουμε πολίτες και επιστήμονες με κριτική σκέψη. Να απαλλαχθούμε από τη δικτατορία του μέσου όρου.

Πρόσφατα, στις εξ αποστάσεως εξετάσεις για την επιλογή επιτελικών στελεχών στη δημόσια διοίκηση χρησιμοποιήθηκαν συστήματα τεχνητής νοημοσύνης που ήλεγχαν κάθε ύποπτη ενέργεια των εργαζόμενων. Μια αντίστοιχη εφαρμογή θα μπορούσε να γίνει και στη διαδικασία εξ αποστάσεως εξέτασης στα Πανεπιστήμια. Βέβαια, θα πρέπει να σημειώσω ότι αυτού του είδους η εξέταση απαιτεί την προηγούμενη εκπόνηση μελέτης αντικτύπου της τεχνολογίας στα δικαιώματα των εξεταζόμενων. Επίσης, οι εξεταστές συνιστάται να υποβάλλουν τα τιθέμενα ερωτήματα στο λογισμικό για να γνωρίζουν τις απαντήσεις που αυτό δίνει, παρόλο που το λογισμικό δίνει κάθε φορά διαφορετικές απαντήσεις.

Μπορεί η τεχνητή νοημοσύνη να βελτιώσει την πρόσβαση στην παιδεία και στην γνώση;

Ναι! Η Τεχνητή Νοημοσύνη μπορεί να συντελέσει στη δωρεάν πρόσβαση στη γνώση, την εύρεση πηγών, την εικονική περιήγηση σε πολλά μέρη και τη διαδραστική εκπαίδευση.

Ποιο είναι το αντικείμενο του  Ευρωπαϊκού Εργαστηρίου Βιοηθικής, Τεχνοηθικής και Δικαίου στο Πάντειο, στο οποίο είστε διευθύντρια;

Το Εργαστήριό μας ετοιμάζει ανοικτά μαθήματα βιοηθικής και τεχνοηθικής απευθυνόμενα σε όλη την κοινωνία. Νομίζω ότι οι καθηγητές πανεπιστημίου πρέπει να προσεγγίσουμε την κοινωνία και να εξηγήσουμε βιοηθικά και τεχνοηθικά θέματα με απλά λόγια. Απώτερος στόχος δεν είναι μόνο τα μαθήματα, αλλά η διάχυση της γνώσης μέσω της τηλεόρασης και των κοινωνικών δικτύων.

Ρώτησα το ChatGPT ποιες είναι οι κρίσιμες ερωτήσεις για τα μέλη αντίστοιχων επιτροπών όπως η δική σας, ξέρετε τι μου απάντησε;

Όχι…

Απάντησε ότι το βασικό ερώτημα είναι πως θα χρησιμοποιηθούν οι νέες αυτές τεχνολογίες έχοντας στο κέντρο τον άνθρωπο.

Ο άνθρωπος πρέπει να είναι πάντα στο επίκεντρο. Όχι μόνο σε σχέση με την Τεχνητή Νοημοσύνη, αλλά συνολικά με την Τεχνολογία.

Who is who

H Φερενίκη Παναγοπούλου είναι Επίκουρη Καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο, καθώς και Διευθύντρια του Ευρωπαϊκού Εργαστηρίου Βιοηθικής, Τεχνοηθικής και Δικαίου επίσης του Παντείου Πανεπιστημίου. Διετέλεσε επί οκταετία  Νομική Ελέγκτρια στην Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα.

Σπούδασε Νομική στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Aθηνών (βασικές σπουδές και μεταπτυχιακό δίπλωμα δημοσίου δικαίου) και Δημόσια Υγεία και Δίκαιο στο Πανεπιστήμιο του Χάρβαρντ. Κατέχει πρώτο διδακτορικό δίπλωμα στο Συνταγματικό Δίκαιο και τη Βιοηθική από το Πανεπιστήμιο Χούμπολντ του Βερολίνου και δεύτερο διδακτορικό δίπλωμα στη Φιλοσοφία και την τεχνητή νοημοσύνη από το Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών. Έχει γράψει έντεκα μονογραφίες δημοσίου δικαίου και έχει επιμεληθεί (μόνη της και από κοινού με άλλους) έξι συλλογικούς τόμους Βιοηθικής και τρεις συλλογικούς τόμους δημοσίου δικαίου. Έχει δημοσιεύσει πολυάριθμες μελέτες αναφορικά με το συνταγματικό δίκαιο, τη βιοηθική, την προστασία δεδομένων προσωπικού χαρακτήρα και τις νέες τεχνολογίες.