Η ερώτηση είναι απλή: Ποια ήταν η τελευταία φορά που γράψατε ένα κείμενο χωρίς την πολύτιμη βοήθεια ενός AI γλωσσολογικού μοντέλου (ChatGPT, Gemini, Perplexity); Αν αυτή η ερώτηση σας δυσκολεύει, δεν είστε μόνοι.
Τα chatbots δεν μπήκαν στην καθημερινότητά μας ήρεμα και διακριτικά. Μπούκαραν σαν καταμεσήμερη ληστεία και έκαναν κάτι… ύπουλο: μετέφεραν τη διαδικασία της σκέψης από την παραγωγή στην επιμέλεια. Πλέον, δεν παράγουμε ιδέες, αλλά διαλέγουμε ανάμεσα σε προτάσεις. Βρίσκουμε λύσεις γρηγορότερα από ποτέ. Η παράλειψη, όμως, της ίδιας της σκέψης δεν είναι χωρίς συνέπειες: δημιουργεί το ερώτημα: όταν πλέον δεν χρειάζεται να σκεφτείς, να απορρίψεις, να αναλογιστείς, να βρίσεις και να απογοητευτείς μέχρι να φτάσεις σε ένα κείμενο, μία σκέψη, μία εικόνα… τι μένει;
Πείραμα με χρήστες που γράφουν με και χωρίς βοήθεια AI έδειξε ότι όταν μπαίνει στη μέση ένα chatbot, η γνωστική εμπλοκή μειώνεται: ο εγκέφαλος δουλεύει λιγότερο, η προσοχή χαλαρώνει, η μνήμη της ίδιας της διαδικασίας φθίνει. Οι συμμετέχοντες συχνά παρήγαγαν τυπικά πιο “καλογραμμένα” κείμενα, αλλά τα αισθάνονταν λιγότερο δικά τους και θυμόντουσαν λιγότερο τι ακριβώς έγραψαν. Μοιάζει σαν να δούλεψες μετά από 5 σφηνάκια: η δουλειά βγήκε, είναι μέτρια, εσύ κοιμήθηκες και δεν είσαι ακριβώς σίγουρος για το αποτέλεσμα.

Η γλώσσα ως όριο της ελευθερίας
Βρέθηκα πρόσφατα σε μία θεατρική διασκευή του “1984” του Τζορτζ Όργουελ. Αυτό που μου έμεινε δεν ήταν οι κάμερες και ο Μεγάλος Αδελφός, αλλά το νέο γλωσσολογικό μοντέλο. Η Newspeak –η “νέα ομιλία” του καθεστώτος– δεν είναι απλώς ένα σύνολο κανόνων· είναι ένα πρόγραμμα αφαίρεσης λέξεων. Κόβονται εκφράσεις, εξαφανίζονται αποχρώσεις, διαγράφονται λέξεις που θα μπορούσαν να φιλοξενήσουν την έννοια της αμφισβήτησης, της εξέγερσης, αλλά και της αγάπης.
Η βαθιά ιδέα πίσω από τη Newspeak είναι απλή και τρομακτική: αν δεν έχεις λέξη για κάτι, δυσκολεύεσαι να το σκεφτείς, αν δεν μπορείς να το σκεφτείς, δεν μπορείς και να το εκφράσεις ή να το διεκδικήσεις. Η γλώσσα γίνεται έτσι εργαλείο ελέγχου, όχι επειδή σου επιβάλλουν τι να πεις, αλλά επειδή περιορίζουν το τι είναι δυνατόν να ειπωθεί.
Το ήπιο Newspeak του ChatGPT
Προφανώς, τα γλωσσολογικά μοντέλα δεν είναι ολοκληρωτικά καθεστώτα. Όμως, ο τρόπος που λειτουργεί δημιουργεί ένα διαφορετικό, “ήπιο” φαινόμενο, μια γλώσσα συνεχώς ομαλοποιημένη, ευγενική, ισορροπημένη, που τείνει να αποφεύγει τις ακραιότητες, τις ιδιοσυγκρασιακές εκφράσεις, αλλά και τα λάθη (είπα τείνει, όχι κατορθώνει). Όταν αυτή η γλώσσα γίνεται το default για emails, παρουσιάσεις, άρθρα, σιγά σιγά ο χώρος για προσωπικότητα στενεύει και οι προτάσεις αρχίζουν να μοιάζουν μεταξύ τους, σαν να γράφτηκαν όλες από τον ίδιο ουδέτερο χρήστη.
Εδώ συναντιέται η δυστοπία του Όργουελ με τη σημερινή τεχνολογία. Ομογενοποίηση. Δεν μας κόβουν λέξεις, αλλά μας προτείνουν πάντα τις ίδιες “καλές”, “σωστές”, “ασφαλείς” εναλλακτικές. Δεν μας κόβουν τη σκέψη αλλά μας δίνουν shortcuts.
Προς μια νοητική ηθική στην εποχή του AI
Οι μελέτες μιλούν για “γνωστική ατροφία”. Εμείς μπορούμε να το εκλάβουμε ως καταστροφορλογία ή ως κάτι πιο… παραγωγικό: μία προειδοποίηση για την αυτόματη, δίχως επίγνωση χρήση του AI. Το ζητούμενο δεν είναι να (από)κλείσουμε τα εργαλεία, αλλά να τα εντάξουμε σε μια νέα νοητική ηθική, να τα χρησιμοποιούμε για να προκαλούμε τη σκέψη μας, όχι για να την παρακάμπτουμε.
Αυτό σημαίνει να επιμένουμε σε μερικές “πολυτέλειες”: να γράφουμε και χωρίς βοήθεια, να ψάχνουμε λέξεις, να κρατάμε ζωντανό το δικό μας ιδίωμα. Σε μια εποχή που μια πρόταση μπορεί να γεννηθεί με ένα κλικ, η συνειδητή, προσωπική χρήση της γλώσσας γίνεται πράξη αντίστασης απέναντι στην άνευ όρων παράδοση μίας εκ των βασικότερων ανθρώπινων αρχών: τη μοναδικότητα της σκέψης.
Για περισσότερα άρθρα, μπορείτε να διαβάσετε στο Blog | TEDxUniversityofMacedonia


