Είναι υπαρκτός ο κίνδυνος τα συστήματα τεχνητής νοημοσύνης να εξελιχθούν σε καταστροφείς του Internet;

«Γνωρίζαμε ότι ο κόσμος δεν θα είναι πια ο ίδιος. Λίγοι γέλασαν, λίγοι έκλαψαν, όμως οι περισσότεροι έμειναν σιωπηλοί. Θυμήθηκα τον στίχο από το ινδουιστικό κείμενο Μπαγκαβάντ Γκίτα: Ο Βίσνου προσπαθεί να πείσει τον Πρίγκιπα ότι πρέπει να πράξει το καθήκον του και για να τον εντυπωσιάσει, παίρνει τη μορφή με τα πολλά χέρια και λέει, ‘Τώρα έχω γίνει ο Θάνατος, ο καταστροφέας τον κόσμων”. Υποθέτω ότι με κάποιο τρόπο όλοι το γνωρίζαμε αυτό».

Ρόμπερτ Οπενχάιμερ, για τις σκέψεις που διέτρεξαν το μυαλό του όταν πραγματοποιήθηκε η πρώτη επιτυχημένη έκρηξη ατομικής βόμβας, στις 16 Ιουλίου 1945.

Σχεδόν 80 χρόνια μετά την έκρηξη της πρώτης ατομικής βόμβας, μια προειδοποίηση με παρόμοιο ύφος διατρέχει διακηρύξεις που υπογράφουν ερευνητές στο πεδίο της τεχνητής νοημοσύνης – και δεν είναι η πρώτη φορά. Οι λειτουργίες γενικής και δημιουργικής τεχνητής νοημοσύνης ενσωματώνονται σταδιακά σε εφαρμογές ευρείας χρήσης. Δημιουργούν εικόνες από λέξεις. Φτιάχνουν περιλήψεις. Μεταφράζουν κείμενα. Βοηθούν στη δημιουργία παρουσιάσεων και βιογραφικών σημειωμάτων. Γράφουν ιστορίες. Αναλύουν πολύπλοκες έννοιες. Παράγουν βίντεο. Με δυο λέξεις, παράγουν περιεχόμενο. Με άλλες δυο λέξεις, παράγουν πλούτο.

Επιτρέψτε μας μία παρένθεση και μερικά βήματα πίσω στον χρόνο. Στις 11 Αυγούστου 2017 δημοσιεύθηκε η διακήρυξη της Διάσκεψης του Ασιλομάρ για τις Αρχές της Τεχνητής Νοημοσύνης. Ήταν το αποτέλεσμα της διήμερης συνάντησης επιστημόνων και ερευνητών τόσο από τον τομέα της τεχνητής νοημοσύνης όσο και από άλλα πεδία όπως η Οικονομία, η Νομική και η Φιλοσοφία, που πραγματοποιήθηκε στο Ασιλομάρ της Καλιφόρνια. Στα 23 σημεία της η διακήρυξη αποτυπώνει τις προσδοκίες, αλλά και τις ανησυχίες των επιστημόνων και όσων, στο μεταξύ, την έχουν προσυπογράψει.

«Τα συστήματα τεχνητής νοημοσύνης πρέπει να σχεδιάζονται και να λειτουργούν με τρόπο που να είναι συμβατά με τα ιδανικά της ανθρώπινης αξιοπρέπειας, των δικαιωμάτων, των ελευθεριών και της πολιτισμικής ποικιλομορφίας» αναφέρει το 11ο σημείο της διακήρυξης, ενώ το 15ο σημείο διακηρύττει ότι «η οικονομική ευημερία που δημιουργεί η τεχνητή νοημοσύνη θα πρέπει να μοιραστεί ευρέως, προς όφελος όλης της ανθρωπότητας». Η διακήρυξη υπογραμμίζει επίσης την ανάγκη να αποφευχθεί ένας αγώνας δρόμου για την παραγωγή οπλικών συστημάτων τεχνητής νοημοσύνης. Κλείνουμε την παρένθεση και ερχόμαστε στο 2023, στην εποχή του ChatGPT, του Bard, της Stability AI και τόσων ακόμα δημιουργών και δημιουργημάτων γύρω από την τεχνητή νοημοσύνη.

Ο Οπενχάιμερ δεν είναι πια μαζί μας, αλλά διαβάζοντας τη Δήλωση για τους Κινδύνους από την Τεχνητή Νοημοσύνη ίσως να χαμογελούσε και να κουνούσε συγκαταβατικά το κεφάλι.

«H αντιμετώπιση του κινδύνου εξαφάνισης [της ανθρωπότητας] από την Τεχνητή Νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», αναφέρει η δήλωση που προσυπογράφουν ερευνητές και στελέχη από πανεπιστήμια και εταιρείες από όλο τον κόσμο.

Δεν είναι μόνο οι επιστήμονες και τα στελέχη των εταιρειών που δραστηριοποιούνται στον συγκεκριμένο τομέα που θέτουν κάποιον προβληματισμό. Ο Λευκός Οίκος προτείνει σχέδιο πέντε σημείων ώστε «η τεχνητή νοημοσύνη να εργάζεται για τον αμερικανικό λαό» . Η Ευρωπαϊκή Επιτροπή διατυπώνει μία ευρωπαϊκή προσέγγιση στο θέμα και το Ευρωπαϊκό Κοινοβούλιο επιταχύνει τη διαδικασία για τη διαμόρφωση μίας Πράξης για την Τεχνητή Νοημοσύνη.

Ίσως κάποιοι από τους πρωτοπόρους της τεχνητής νοημοσύνης να νιώθουν λίγο τον κίνδυνο να εξελιχθούν οι δημιουργίες τους σε καταστροφείς, αν όχι του κόσμου, ίσως του διαδικτύου.

Ένα Δίκτυο που τρίζει

Οι πολλές φορές εντυπωσιακές απαντήσεις που παίρνουμε από το ChatGPT ή το Bard  ή το Claude οφείλονται σε ένα σημαντικό γεγονός – τα chatbots έχουν «εκπαιδευθεί» σε κείμενα που έχουν δημιουργηθεί από ανθρώπους. Είτε πρόκειται για κλασικά έργα της παγκόσμιας λογοτεχνίας και δραματουργίας, είτε πρόκειται για συνταγές, είτε πρόκειται για ερωταπαντήσεις σε πλατφόρμες όπως το Quora και το Reddit, είτε πρόκειται για κριτικές, εξομολογήσεις, κουτσομπολιά και καβγάδες σε φόρουμ και blogs, είτε πρόκειται για φωτογραφίες, ζωγραφικούς πίνακες, σκίτσα, καρικατούρες, αρχιτεκτονικά διαγράμματα, όλα όσα αποτέλεσαν την ύλη πάνω στην οποία εκπαιδεύτηκαν τα συστήματα τεχνητής νοημοσύνης προέρχονται από ανθρώπους. Όλο το Internet, τόσο το ανοικτό κομμάτι που μπορεί να προσπελάσει κανείς χωρίς εγγραφή είτε εκείνο που βρίσκεται σε περίκλειστους τοίχους όπως το Facebook ή το LinkedIn, είναι δημιούργημα ανθρώπων.

Όμως με την είσοδο της δημιουργικής τεχνητής νοημοσύνης και των chatbots τα πράγματα αρχίζουν να αλλάζουν. Βλέπουμε διαρκώς γύρω μας δημιουργίες που βασίζονται στην τεχνητή νοημοσύνη.

Κάποιες από αυτές είναι εντυπωσιακές.

Διαφήμιση της Coca Cola με χρήση δημιουργικής τεχνητής νοημοσύνης

Αλλά όλες έχουν ένα κοινό χαρακτηριστικό – είναι συνθετικές. Αυτό από μόνο του δεν είναι κακό. Το πρόβλημα φαίνεται να δημιουργείται από τη στιγμή που αυτά τα συνθετικά δεδομένα (δηλαδή δεν έχουν παραχθεί αποκλειστικά από ανθρώπους) εισάγονται ως νέα «διδακτέα ύλη» για την εκμάθηση συστημάτων τεχνητής νοημοσύνης.

Αν τα συνθετικά δεδομένα δεν αντιπροσωπεύουν πτυχές του πραγματικού κόσμου τότε το υπό εκπαίδευση μοντέλο τεχνητής νοημοσύνης δεν θα μπορεί να αποδώσει τα αναμενόμενα. Αν, για παράδειγμα, έχουν δημιουργηθεί πολλές -προφανέστατα ανακριβείς- αναφορές που υποστηρίζουν ότι ο Κωνσταντίνος Κανάρης συμμετείχε στη Ναυμαχία της Ναυπάκτου, το σύστημα τεχνητής νοημοσύνης που θα «εκπαιδευτεί» με βάση αυτές τις αναφορές είναι φυσικό να παράγει ψευδή γεγονότα.  

Στην πληροφορική το φαινόμενο περιγράφεται κυνικά με τη φράση “Garbage in, Garbage out” ή, αν προτιμάτε μια πιο ευγενική διατύπωση, η ποιότητα της πληροφορίας που εξάγει ένα σύστημα είναι ανάλογη της ποιότητας των δεδομένων που εισάγονται σε αυτό. Ερευνητές από τα πανεπιστήμια της Οξφόρδης, του Κέιμπριτζ, του Τορόντο και του Imperial College παρατήρησαν ότι τα συστήματα που εκπαιδεύονται σε περιεχόμενο που έχει δημιουργηθεί από συστήματα τεχνητής νοημοσύνης, χαρακτηρίζονται από ατέλειες που σταδιακά επιδεινώνονται.  Ουσιαστικά, ένα μοντέλο που έχει «αποφοιτήσει» διαβάζοντας συνθετικά δεδομένα σταδιακά εκφυλίζεται και καταρρέει.  Τηρουμένων των σχετικών αναλογιών, είναι σαν να ζητήσουμε από κάποιον που ήταν άσος στην παπαγαλία να αυτοσχεδιάσει.

Αυτή η κατάρρευση μπορεί να αντιμετωπιστεί αν η διδακτέα ύλη συνεχίσει να προέρχεται από ανθρώπους. Ωστόσο, η ταχύτητα με την οποία αναπτύσσεται το συνθετικό περιεχόμενο καθιστά ολοένα και πιο περιορισμένη αυτή την προοπτική. Ενδεχομένως το Bard ή το ChatGPT, χάρη στην υποστήριξη από την Google και την Microsoft θα μπορούν να απασχολούν ανθρώπους που θα αναλαμβάνουν τον ρόλο του δασκάλου, όμως άλλες προσπάθειες με πιο περιορισμένη πρόσβαση σε οικονομικούς πόρους δεν θα έχουν την ίδια πολυτέλεια.

Ο βραχνάς της προκατάληψης

Αν ζητήσετε από ένα σύστημα δημιουργικής τεχνητής νοημοσύνης να σας ζωγραφίσει έναν άνθρωπο, το πιθανότερο είναι ότι θα πάρετε ως αποτέλεσμα έναν λευκό άνδρα. Αν του ζητήσετε μια απεικόνιση γυναίκας θα λάβετε μάλλον μία λευκή γυναίκα. Αφροαμερικανοί καλλιτέχνες που έχουν δοκιμάσει συστήματα δημιουργικής τεχνητής νοημοσύνης επί μακρόν, μιλούν για σαφείς φυλετικές προκαταλήψεις και στερεοτυπικές απεικονίσεις. Δεν είναι η πρώτη φορά που τα συστήματα προηγμένης τεχνολογίας δείχνουν τέτοιες τάσεις.

Το 2019 αποκαλύφθηκε ότι ένας αλγόριθμος που χρησιμοποιούσαν πολλά νοσοκομεία στις ΗΠΑ, αντιμετώπιζε τους μαύρους ασθενείς με αυστηρότερο τρόπο σε σχέση με τους λευκούς. Όπως διαπιστώθηκε, ο αλγόριθμος λάμβανε υπόψιν ιστορικά δεδομένα σύμφωνα με τα οποία οι μαύροι ασθενείς είχαν λιγότερα χρήματα στη διάθεσή τους σε σχέση με τους λευκούς, ως αποτέλεσμα χρόνιων ανισοτήτων στις αποδοχές τους. Δηλαδή, ο αλγόριθμος δεν λάμβανε υπόψιν του μόνο δεδομένα υγείας, αλλά αξιολογούσε και την οικονομική κατάσταση -με βάση τη φυλή- για να προτείνει την εισαγωγή του ασθενούς στο νοσοκομείο. 

Κίνδυνοι διακρίσεων εξαιτίας της προκατάληψης καταγράφονται και στον τραπεζικό τομέα, όπως προκύπτει από σχετική μελέτη της Deloitte. Η εταιρεία σχολιάζει ότι οι εποπτικές αρχές δεν έχουν τους πόρους και τη γνώση να επιθεωρήσουν τους αλγορίθμους και ότι αυτό εμπεριέχει τον κίνδυνο να ενισχυθούν οι προκαταλήψεις και η μη πρόσβαση ομάδων του πληθυσμού σε τραπεζικές υπηρεσίες.

Οι Λουδίτες δικαιώνονται

Οι εργάτες που κατέστρεφαν τις μηχανές κατά την αυγή της Βιομηχανικής Επανάστασης δεν ήταν τεχνοφοβικοί, όπως θέλει να τους εμφανίζει το σύγχρονο στερεότυπο. Εξεγέρθηκαν διεκδικώντας μια θέση στο νέο εργασιακό περιβάλλον. Εκείνο οι εξεγερμένοι των αρχών του 19ου αιώνα θα έβλεπαν ότι σήμερα η Ιστορία επαναλαμβάνεται – όχι ως φάρσα.

Το σωματείο των Αμερικανών ηθοποιών ανακοινώνει την απεργία

Η ανάπτυξη της τεχνητής νοημοσύνης προκαλεί τριγμούς. Ίσως, αντί τριγμών, θα μπορούσαμε να μιλάμε και για ενδείξεις προ-σεισμικής δραστηριότητας. Οι 160.000 ηθοποιοί – μέλη του Screen Actors Guild ξεκίνησαν απεργία διαρκείας στις 12 Ιουλίου 2023 ζητώντας όχι μόνο δικαιότερες αμοιβές από τα στούντιο και τις πλατφόρμες streaming, αλλά και κατοχύρωση των δικαιωμάτων τους έναντι των ψηφιακών τους αντιγράφων.

Στην πρώτη τους απεργία μετά από 43 χρόνια εργασιακής ειρήνης, οι Αμερικανοί ηθοποιοί απορρίπτουν τις προτάσεις των στούντιο για τη δημιουργία ψηφιακών αντιγράφων τους με αντίτιμο… ένα ημερομίσθιο και ζητούν σαφώς κάτι καλύτερο ενόψει της καθιέρωσης της τεχνητής νοημοσύνης ως εργαλείου δημιουργίας νέων ταινιών και σίριαλ. Η έναρξη της κινητοποίησής τους συνέπεσε με την πρεμιέρα στο Λονδίνο της ταινίας για τη ζωή του Οπενχάιμερ – καμιά φορά η ζωή κλείνει το μάτι στην Ιστορία.