Η έρευνα του ΜΙΤ που «έγινε viral», σύμφωνα με τη φράση-πληγή που συχνά πυκνά κυριαρχεί στην ειδησεογραφία, φέρεται να καταλήγει στο συμπέρασμα ότι η χρήση των γλωσσικών μοντέλων (όπως το ChatGPT) μειώνει τη γνωστική λειτουργία και τη δημιουργικότητα.

Ναι, αλλά είναι τελικά έτσι;

Η περίληψη που έδωσε στη δημοσιότητα το MIT Media Lab περιγράφει τη διαδικασία. Υπήρξαν 54 συμμετέχοντες που χωρίστηκαν σε τρεις ομάδες, καθεμία από τις οποίες είχε 18 μέλη. Η πρώτη ομάδα έκανε κάποιες εργασίες με τη βοήθεια γλωσσικών μοντέλων (λέγε με LLM για να μην μπερδευόμαστε), η δεύτερη με τη συνδρομή μηχανών αναζήτησης και η τρίτη χρησιμοποίησε μόνο το μυαλό της.

Ακολούθως, μέλη της πρώτης ομάδας έκαναν εργασίες με χρήση μόνο του μυαλού της και μέλη της τρίτης ομάδας χρησιμοποίησε τα LLM εργαλεία. Με τη βοήθεια εγκεφαλογραφημάτων, οι επιστήμονες που διεξήγαγαν το πείραμα κατέληξαν στο συμπέρασμα ότι τα μέλη της τρίτης ομάδας έδειξαν καλύτερες επιδόσεις σε επίπεδο γνωστικής λειτουργίας και δημιουργικότητας.

Σύμφωνα με τους ερευνητές, «κατά τη διάρκεια τεσσάρων μηνών, οι χρήστες LLM είχαν σταθερά χαμηλότερες επιδόσεις σε νευρικό, γλωσσικό και συμπεριφορικό επίπεδο. Τα αποτελέσματα αυτά εγείρουν ανησυχίες σχετικά με τις μακροπρόθεσμες εκπαιδευτικές επιπτώσεις της εξάρτησης από το LLM και υπογραμμίζουν την ανάγκη για βαθύτερη διερεύνηση του ρόλου της τεχνητής νοημοσύνης στη μάθηση.»

Αυτά στην περίληψη, το πλήρες κείμενο της έρευνας εκτείνεται σε 206 σελίδες και περιλαμβάνει στην πρώτη της σελίδα το διάγραμμα που έχουμε δει να δημοσιεύεται παντού ή σχεδόν παντού.

Βεβαίως αν το σκεφτεί κανείς είναι ένα μάλλον λογικό συμπέρασμα. Αν κάνουμε την αναλογία με το μυοσκελετικό μας σύστημα, η εμφάνιση των μηχανών τον 18ο αιώνα μας έκανε λιγότερο γυμνασμένους, σε βαθμό που 200-250 χρόνια μετά η ανάπτυξη των μυών να μη γίνεται καθημερινά στα χωράφια ή τα ορυχεία αλλά στα γυμναστήρια (μιλάμε για τις βιομηχανοποιημένες χώρες προφανώς).

Ο εγκέφαλος δεν είναι μυς, αλλά μπορεί να “πλαδαρεύει” από την τεχνητή νοημοσύνη, όπως ίσως πάθαινε τις προηγούμενες δεκαετίες από την τηλεόραση.  Σβήστε αυτό το «ίσως».

«Η παρατεταμένη παρακολούθηση τηλεόρασης σχετίζεται με αυξημένο κίνδυνο μεταγενέστερης εμφάνισης άνοιας», διαβάζουμε στην περίληψη έρευνας που δημοσιεύθηκε το 2023. «Τα αποτελέσματα μπορεί να υποδηλώνουν ότι η παρατεταμένη παρακολούθηση τηλεόρασης σχετίζεται με μείωση της πυκνότητας των νευριτών σε περιοχές που εμπλέκονται ιδιαίτερα στη γλώσσα, την επικοινωνία και τη μνήμη, οι οποίες μεταβάλλονται στην άνοια», πρόσθεταν οι ερευνητές.

Η παρακολούθηση τηλεόρασης για περισσότερες από 3,5 ώρες ημερησίως σχετίζεται με μείωση της λεκτικής μνήμης, διαβάζουμε σε περίληψη έρευνας του 2019.  Σχετικές αναζητήσεις αποκαλύπτουν αρκετή αρθρογραφία και στα ελληνικά γύρω από το θέμα.

«Στημένοι στο χαζοκούτι»

Παρά την παρουσία της τηλεόρασης σε κάθε σπίτι (σε πολλές περιπτώσεις με δύο ή και περισσότερες οθόνες), κανείς δεν σκέφτηκε να βάλει χρονοδιακόπτη ή, ίσως, κάποια προειδοποίηση για τους κινδύνους της υπερβολής.

Επίσης, και με δεδομένο ότι λίγα πράγματα κινούνται στα άκρα του δίπολου άσπρο-μαύρο, υπάρχουν και άλλες προσεγγίσεις. Μελέτη στην Αυστραλία έδειξε ότι η τηλεόραση και το ραδιόφωνο με τοπικού χαρακτήρα περιεχόμενο «συμβάλλουν σημαντικά στη διαχείριση της ψυχικής υγείας των κοινοτήτων, δίνοντας στο κοινό τη δυνατότητα να κατανοεί και να ελέγχει καλύτερα τα ζητήματα που επηρεάζουν τη συναισθηματική και κοινωνική τους ευημερία».

Γενικότερα, βέβαια, καλό είναι να αποφεύγονται οι υπερβολές και Η οποία υπερβολή καλό είναι βεβαίως να αποφεύγεται σε κάθε περίπτωση, συμπεριλαμβανομένης της χρήσης της τεχνητής νοημοσύνης.

Επιστρέφοντας στη μελέτη του MIT, αρκεί άραγε ένα δείγμα 54 ανθρώπων  να οδηγήσει σε ασφαλή συμπεράσματα, ιδίως αν λάβουμε υπόψιν ότι όλοι τους ήταν μέλη της ακαδημαϊκής κοινότητας; Θα πει βέβαια κάποιος ότι αν οι συμμετέχοντες, που  σπουδάζουν σε μερικά από τα κορυφαία πανεπιστήμια των ΗΠΑ και του κόσμου, βλέπουν το μυαλό τους να «πλαδαρεύει» με τη χρήση των LLM, τι να παθαίνει άραγε ο υπόλοιπος πληθυσμός;

Μάλλον χρειάζονται επιπλέον έρευνες για να δούμε αν υπάρχει επίπτωση και σε τι βαθμό. Θα στοιχηματίζαμε ότι υπάρχει επίπτωση, μόνο που δεν ξέρουμε πόση.

Το επείγον πρόβλημα της εμπιστοσύνης

Μέχρι να το μάθουμε ίσως να ήταν καλό να δούμε τις άλλες αδυναμίες της τεχνητής νοημοσύνης, τις οποίες ενισχύει η τάση των ανθρώπων να την εμπιστεύονται πολλές φορές χωρίς καμία διάθεση να την αμφισβητήσουν.  Αναμενόμενο, αν αναλογιστούμε με πόση ευκολία πέφτουμε πολλές φορές θύματα παραπληροφόρησης από καλά (ή λιγότερο καλά) οργανωμένες εκστρατείες μέσω των κοινωνικών δικτύων.

Αυτή η τυφλή εμπιστοσύνη που δείχνουν οι άνθρωποι στην τεχνητή νοημοσύνη έχει απογοητεύσει πολλές φορές.

Μία από αυτές, αφορά στη χρήση του ChatGPT σε μια νομική υπόθεση, όπου το chatbot επικαλέστηκε υποθέσεις που -φυσικά- δεν υπήρχαν.  Μη νομίζετε ότι αυτή η μία είναι και η μόνη που απασχόλησε τα δικαστήρια. Ο Γάλλος δικηγόρος Damien Charlotin διατηρεί μια συλλογή με παρόμοια περιστατικά και μέχρι στιγμής έχει καταγράφει 159 υποθέσεις.

Ίσως όμως όλα αυτά είναι απολύτως αναμενόμενα για μια τεχνολογία που είναι διαθέσιμη στο ευρύ κοινό ελάχιστα χρόνια (θυμίζουμε ότι το ChatGPT έκανε την εμφάνισή του το φθινόπωρο του 2023, ενώ το DALL-E, για τη δημιουργία εικόνων με βάση περιγραφές, λανσαρίστηκε τον Ιανουάριο του 2021. Σε όρους τεχνολογικής εξέλιξης είναι σαν αυτές οι λειτουργίες να μας διατέθηκαν χθες το πρωί.

Το επόμενο, λοιπόν, λογικό ερώτημα είναι για ποιο λόγο αυτές οι ανώριμες για ευρεία χρήση υπηρεσίες μας δόθηκαν και αναστάτωσαν τη ζωή μας. Μάλλον θα πρέπει να ανατρέξουμε αφενός στη φιλοσοφία της Σίλικον Βάλεϊ, καθώς και σε ένα πεζό πεδίο που δεν έχει να κάνει με την ίδια την τεχνολογία αλλά το χρήμα.

Οι δημιουργοί των γλωσσικών μοντέλων ομνύουν στις φράσεις “fake it till you make it”   που έχει στείλει κόσμο στη φυλακή και “move fast and break things” που ήταν ατάκα του Mark Zuckerberg και σύντομα συνεπήρε πολλούς από τους διαμένοντες στην τεχνολογική γειτονιά της Καλιφόρνια. Όμως ούτε οι (τραβηγμένες από τα μαλλιά ή, απλώς, ψευδείς) υποσχέσεις, ούτε ο αέναος κύκλος ανάπτυξη – δοκιμή – καταστροφή εξασφαλίζουν την ευημερία και την ησυχία του μυαλού μας.

Η άλλη και πιο πεζή ίσως διάσταση είναι ότι οι επενδυτές έχουν ρίξει δισεκατομμύρια δολάρια στις διάφορες OpenAI, Anthropic, Mistral και θέλουν να δουν τα χρήματά τους να αυγατίζουν. Αυτή η δίψα (ή/και πείνα) για κέρδη καθοδηγεί κάποιες αποφάσεις που είναι σχετικώς δυσεξήγητη.

Μετά θυμόμαστε τις public beta λειτουργικών συστημάτων και την εποχή που μπορούσε κανείς να «κατεβάσει» νόμιμα την -όχι πλήρως έτοιμη- επόμενη έκδοση των Windows και να τη δοκιμάσει στον υπολογιστή του. Κάποιες φορές το πράγμα δούλευε, κάποιες φορές καταστρεφόταν ο μικρός ψηφιακός κόσμος μας. Το ξέραμε και προχωρούσαμε εν γνώση των κινδύνων. Δεν είμαστε βέβαιοι ότι το ευρύ κοινό γνωρίζει τους αντίστοιχους κινδύνους από την άκριτη χρήση της τεχνητής νοημοσύνης και το »χάζεμα» είναι ένα από τα ρίσκα που θα αντιμετωπίσουμε, όχι όμως τόσο άμεσα όσο οι παραισθήσεις ή η αδημονία των επενδυτών. Κάθε πράγμα στον καιρό του…