Άρθρα

Διάβολος με γλώσσα από σιλικόνη

“Φίλε, έλα τώρα. Είχα μια δύσκολη νύχτα”, λέει ο Jeffrey “the Dude” Lebowski. “Και μισώ τους γαμημένους Eagles, φίλε”.

Αμέσως μετά τη συγκεκριμένη ατάκα στην ταινία των αδελφών Coen ” The Big Lebowski” του 1998, ο Dude απομακρύνεται από το ταξί που παίρνει για να επιστρέψει στο σπίτι του από το Μαλιμπού – την παραλιακή κοινότητα από την οποία επίσης μόλις τον έχουν διώξει – ενώ από το ραδιόφωνο του αυτοκινήτου ακούγεται η επιτυχία των Eagles του 1972 “Peaceful Easy Feeling”. Είναι μια έκκληση που συμπυκνώνει τη σύγκρουση στην καρδιά της ταινίας: η γηράσκουσα Νέα Αριστερά παραπαίει και υποχωρεί στην Αμερική του Τζορτζ Μπους.

Αλλά πηγαίνει βαθύτερα από αυτό. Η προτίμηση του Dude για τον μεγαλειώδη, αυθεντικό ήχο των Creedence Clearwater Revival, το άλμπουμ των οποίων χάνει όταν του κλέβουν το κασετόφωνο του αυτοκινήτου του, χαράζει μια ευκρινή γραμμή μεταξύ καλής και κακής κουλτούρας. Είναι η επιθυμία των χίπις για υπερβατικότητα – το rock ‘n’ roll των τελών της δεκαετίας του 1960, σε αυτή την περίπτωση, αντί για ναρκωτικά – που τον κάνει να μισεί τους easy-listening Eagles, ένα παγκόσμιο συγκρότημα που έκανε θραύση και καθόρισε τον ήχο της δεκαετίας του 1970 όσο και οι Creedence τον ήχο των τελών της δεκαετίας του 1960.

Δεν είναι δύσκολο να βρει κανείς αναλογία στο παρόν. Το να μισείς την Taylor Swift μπορεί να σε κάνει να σε πετάξουν έξω από ένα μπάτσελορ πάρτι ή να σου την πέσουν στο δρόμο, ακόμα και να σε πετάξουν έξω από ένα ταξί. Αλλά είναι πιο δύσκολο να βρεις ένα άμεσο αντίστοιχο του Creedence. Αυτό οφείλεται εν μέρει στο γεγονός ότι η πρωτοποριακή κουλτούρα έχει διασπαστεί τόσο ολοκληρωτικά στην εποχή μας, ώστε κάθε ισχυρισμός ότι ένα ποπ είδος είναι η ουσία της αισθητικής προόδου είναι παράλογος εκ πρώτης όψεως. Πείτε ό,τι θέλετε για τις αποτυχίες της Νέας Αριστεράς – τουλάχιστον υπήρχε ένα ήθος.

Αυτό το επεισόδιο από το The Big Lebowski πηγαίνει πέρα από την πτώση των χίπις. Η μάχη μεταξύ της ποπ και της πρωτοπορίας είναι τόσο παλιά όσο και ο Διαφωτισμός – πιθανότατα παλαιότερη. Από τη δεκαετία του 1970 υπάρχει ένας συνεχής ορυμαγδός θεωριών που υποστηρίζουν ότι η ποπ θα ξεπεράσει ή και θα εξαλείψει την πρωτοπορία- στην πραγματικότητα, αυτός ο ισχυρισμός είναι ουσιαστικά αυτό που ο φιλόσοφος Jean-François Lyotard και ο λογοτέχνης Fredric Jameson ονόμασαν ο καθένας “μεταμοντερνισμό”. Ο ορυμαγδός έγινε πιο δυνατός καθώς το διαδίκτυο κατέκλυζε τα πάντα. Άλλωστε, υπάρχει μια εκδημοκρατιστική επιφάνεια στη δημιουργία μιας παγκόσμιας εκδοτικής πλατφόρμας peer-to-peer. Προσθέστε τα μέσα κοινωνικής δικτύωσης σε αυτό το μείγμα, και στη συνέχεια αυτό που αποκαλούμε “γενετική τεχνητή νοημοσύνη”, και είναι εύκολο να καταλάβει κανείς γιατί η πίστη στους Creedence μοιάζει τόσο γραφική.

Όπως υποστήριξε πρόσφατα ο συγγραφέας Chuck Klosterman, η δεκαετία του ’90 ήταν η τελευταία φορά που κάποιος πραγματικά πίστευε ότι το “να ξεπουλά κανείς” ήταν κακό ή αμφιλεγόμενο. Από αισθητικής άποψης, έχουμε όλοι πέσει σε αυτό που ονομάζω ” μαύρη τρύπα του streaming“, στην οποία οι αλγόριθμοι εκμεταλλεύονται τη μαζική δημοτικότητα, υποσχόμενοι εξατομικευμένα αποτελέσματα, ενώ στην πραγματικότητα ομογενοποιούν το περιεχόμενό μας. Όσοι κρατούν την πίστη τους στην πρωτοπορία μοιάζουν με τους ανθρώπους που έχουν δραπετεύσει από το Matrix και συγκεντρώνονται στη Σιών για να σχεδιάσουν την επανάσταση που μόνο ένας θεός μπορεί να προσφέρει. (Δεν είναι τυχαίο ότι το Matrix απεικονίζει τη ρέηβ ως μια πολύτιμη ελευθερία για τους διαφωτισμένους).

Αυτή η διάσπαση μεταξύ Creedence και Eagles, μεταξύ της καλής πρωτοπορίας και της κακής ποπ, θέτει στην πραγματικότητα κάποια βαθιά, σχεδόν μεταφυσικά ερωτήματα για την κουλτούρα. Και τώρα η έκρηξη της γενετικής τεχνητής νοημοσύνης – και ιδιαίτερα των μεγάλων γλωσσικών μοντέλων, ή LLMs, τα οποία βρίσκονται πίσω από chatbots όπως το ChatGPT και το Bard – επαναφέρουν αυτό το παλιό αισθητικό ερώτημα στο προσκήνιο. Η τεχνητή νοημοσύνη και η απειλή της πολιτιστικής αυτοματοποίησης μας αναγκάζουν να εξετάσουμε τη σχέση μεταξύ γλώσσας, ερμηνείας και πολιτικής σε νέες γραμμές.

Το ερώτημα είναι, ουσιαστικά: Τι πρέπει να πιστεύει ένας μαρξιστής σχετικά με την αυτοματοποίηση της γλώσσας; Οι προτάσεις ότι ο καπιταλισμός έχει γίνει “σημειωτικός”, που βασίζονται στη σκέψη του φιλοσόφου Félix Guattari, δεν είναι αρκετά τεχνικές σχετικά με τη γλώσσα για να απαντήσουν άμεσα σε αυτό το ερώτημα, ενώ οι μαρξιστικές φιλοσοφίες της γλώσσας – όπως αυτή του Raymond Williams ή του Valentin Voloshinov – δεν είχαν ποτέ ενσωματώσει τον κόσμο των μηχανών. Οποιαδήποτε πιθανή απάντηση θα πρέπει να συνδυάσει τις ιδέες ενός από τους μεγαλύτερους στοχαστές του 19ου αιώνα, του Καρλ Μαρξ, με εκείνες ενός από τους μεγαλύτερους διανοούμενους του 20ού αιώνα – του Νόαμ Τσόμσκι.

Με το ενδιαφέρον του Μαρξ για την οικονομία να αυξάνεται μέρα με τη μέρα, ο ίδιος και ο Φρίντριχ Ένγκελς πέρασαν μεγάλο μέρος της δεκαετίας του 1840 προσπαθώντας να επεξεργαστούν μια υλιστική φιλοσοφία το συντομότερο δυνατό. Ήθελαν όμως αυτός ο υλισμός να είναι δυναμικός. Με αυτό εννοούσαν ότι δεν θα έπρεπε να είναι μια φιλοσοφία που θα βασιζόταν στην πραγματική και προηγούμενη ύπαρξη ατόμων σε κίνηση, αλλά αντίθετα στη δραστηριότητα των ανθρώπων. Αυτή η φιλοσοφία ήταν που προκάλεσε τον πρώτο τόμο του Κεφαλαίου, όπου ο Μαρξ έβαλε όλα τα χαρτιά του στην έννοια του “μεταβολισμού μεταξύ ανθρώπου και φύσης”, ορίζοντας την ανθρώπινη ζωή ως τον κοινωνικό μετασχηματισμό του φυσικού περιβάλλοντος. Αυτός ο μετασχηματισμός ήταν επίσης η απαρχή της φιλοσοφίας – η πρώτη αρχή της, η κινητήρια δύναμή της και η μόνη πηγή νομιμοποίησής της. Η φιλοσοφία του Μαρξ παραμένει αναμφισβήτητα ο μοναδικός τέτοιος υλισμός του είδους του μέχρι σήμερα.

Για τον Μαρξ, ο “μεταβολισμός” αποτελεί την αφετηρία της συνείδησης. Μέσω του μετασχηματισμού της φύσης, “συνάπτουμε σχέσεις” μεταξύ μας. Όποτε ακούτε τους μαρξιστές να μιλούν για τις σχέσεις παραγωγής, αυτό έχουν στο μυαλό τους. Ο καπιταλισμός είναι ένα τέτοιο σύνολο σχέσεων (ένας “τρόπος παραγωγής”), ο μόνος που γνωρίζουμε διεξοδικά από την εμπειρία. Η συνείδηση, πίστευε ο Μαρξ, είναι προϊόν αυτών των σχέσεων παραγωγής και “σε τελευταία ανάλυση” καθορίζεται από αυτή την υλική δραστηριότητα. Αυτή η ιδέα έχει περάσει ως μια εύθραυστη διάκριση μεταξύ μιας “βάσης” οικονομικής δραστηριότητας και μιας “υπερδομής” νόμου, κυβέρνησης και πολιτισμού. Ο λόγος που μας ενδιαφέρει είναι ότι κάπου σε αυτή την αφαίρεση κρύβεται η ιδεολογία.

Κάθε αγορά που κάνουμε και κάθε ώρα που δουλεύουμε, πιστεύει ο Μαρξ, καλύπτονται από ένα τέχνασμα που επικαλύπτει την αξία που προστίθεται στα εμπορεύματα από την εργασία. Η συνείδηση – και η γλώσσα – δεν είναι αθώα του τρόπου παραγωγής. Όπως το θέτουν ο ίδιος και ο Ένγκελς στη Γερμανική Ιδεολογία, το ανθρώπινο “πνεύμα” είναι

χτυπημένο από την κατάρα του να είναι “φορτωμένο” με την ύλη, η οποία εδώ κάνει την εμφάνισή της με τη μορφή ταραγμένων στρωμάτων αέρα, ήχων, εν ολίγοις, της γλώσσας. Η γλώσσα είναι τόσο παλιά όσο και η συνείδηση, η γλώσσα είναι πρακτική συνείδηση που υπάρχει και για τους άλλους ανθρώπους . . . . Η συνείδηση είναι, επομένως, από την αρχή ένα κοινωνικό προϊόν και παραμένει έτσι όσο υπάρχουν άνθρωποι.

Αυτό που λέει εδώ ο Μαρξ με το υψηλών προδιαγραφών ύφος του είναι ότι η γλώσσα είναι το μέσο παραγωγής – της ίδιας της υλικής μας ύπαρξης στον κόσμο. Δεν μετακινούμε απλώς τυχαία πράγματα στον φυσικό κόσμο- δημιουργούμε πράγματα σκόπιμα, για δική μας χρήση. Και το κάνουμε αυτό σε συνεργασία με άλλους, όχι ως μοναχικά άτομα.

Ο συνήθης τρόπος σκέψης για τη βάση και το εποικοδόμημα είναι ότι το ένα καθορίζει το άλλο. Αυτό φαίνεται στη ρήση ότι είναι “ευκολότερο να φανταστεί κανείς το τέλος του κόσμου παρά το τέλος του καπιταλισμού”, η οποία εξηγεί τόσα πολλά δυστοπικά μυθιστορήματα που εξακολουθούν να μην μπορούν, ακόμη και στο πιο ζοφερό μέλλον, να σκεφτούν τον τρόπο να ξεφύγουν από το κέρδος και την αξία. Ο κριτικός Μαρκ Φίσερ το ονόμασε αυτό “καπιταλιστικό ρεαλισμό”, την ιδέα ότι οι αφηγήσεις μας και ακόμη και η φαντασία μας έχουν καπιταλιστικά προστατευτικά κιγκλιδώματα. Αλλά όταν πρόκειται για τη γλώσσα -αυτό ακριβώς που “αυτοματοποιούμε” σήμερα με την Τεχνητή Νοημοσύνη- αυτή η εικόνα δεν αρκεί.

Καθώς γράφω αυτό το κείμενο, η OpenAI, η οποία τρέχει το ChatGPT και το DALL-E, μεταξύ άλλων προϊόντων τεχνητής νοημοσύνης, είχε ένα περίεργο Σαββατοκύριακο. Πρώτα το διοικητικό συμβούλιο απέλυσε τον διευθύνοντα σύμβουλο, Sam Altman, μόνο για να γυρίσει και να τον προσλάβει ξανά. Ο καυγάς αφορούσε την “ευθυγράμμιση”, την ιδέα ότι πρέπει να δημιουργήσουμε μια “τεχνητή γενική νοημοσύνη” (AGI) που να είναι εντελώς ανίκανη να μας βλάψει. Αν αυτό ακούγεται σαν επιστημονική φαντασία, είναι επειδή είναι. Είναι επίσης η ιδεολογία που οδηγεί μεγάλο μέρος της παραγωγής τεχνητής νοημοσύνης σήμερα.

Μέχρι τη στιγμή της δημοσίευσης, ο Altman είχε αποκατασταθεί στη θέση του, και αν χρειαζόσασταν ένα παράδειγμα για το πού ο υλισμός του Μαρξ θα ήταν χρήσιμος, αυτή είναι μια πολύ καλή περίπτωση. Ο αγώνας στο OpenAI προφανώς καθοδηγήθηκε από τον Ilya Sutskever, έναν μηχανικό που είχε προσληφθεί για να δημιουργήσει την “υπερστοίχιση“, ουσιαστικά μια αλεξίσφαιρη εγγύηση ότι η τεχνητή νοημοσύνη δεν θα ξεφύγει από τις ράγες και δεν θα οδηγήσει στην εξαφάνιση του ανθρώπου. Αν αυτό ακούγεται παράξενο, θα έπρεπε. Αλλά είναι επίσης ένα από τα ιδρυτικά δόγματα της εταιρείας, η οποία ξεκίνησε ως μη κερδοσκοπική εταιρεία αφιερωμένη στην παραγωγή μιας ασφαλούς ΤΝ. Ο αγώνας μεταξύ του Altman και του Sutskever δεν αφορά το αν μπορούν να επιτύχουν την γενετική ΤΝ, ούτε καν το αν θα μπορούσε να αποτελέσει υπαρξιακό κίνδυνο για τους ανθρώπους. Πρόκειται για το ποιος δρόμος πρέπει να ακολουθηθεί για να διασφαλιστεί ότι θα είναι ασφαλής. Αποκαλέστε το μεταφυσική στη διεύθυνση επιχειρήσεων.

Αυτό που όλοι αγνοούν σε όλη αυτή τη μεταφυσική, ωστόσο, είναι ότι αυτός ο αγώνας αφορά τη γλώσσα. Είναι η ικανότητα της τεχνητής νοημοσύνης για τις περιπλοκές της ανθρώπινης γλώσσας που πυροδότησε τη ραγδαία άνοδο του OpenAI, ξεκινώντας με το GPT-2 το 2019. Αυτή είναι η προϋπόθεση για όλα τα άλλα συστήματα που προσπαθούμε να συνδέσουμε με τη “γενετική τεχνητή νοημοσύνη” – ακόμη και το DALL-E τρέχει με ζεύγη λέξεων-εικόνων. Οι γλωσσικοί αλγόριθμοι είναι πλέον έτοιμοι να γίνουν η θεμελιώδης υποδομή για το σύνολο σχεδόν της παγκόσμιας οικονομίας. Δεν αποτελεί έκπληξη το γεγονός ότι οι διευθύνοντες σύμβουλοι είναι παγιδευμένοι στις μυστικοποιήσεις των αδιέξοδων καπιταλιστικών φαντασιώσεων, ακόμη και αν αυτές οι συγκεκριμένες φαντασιώσεις φαίνονται πιο παράταιρες από ποτέ. Αυτό που προκαλεί μεγαλύτερη έκπληξη είναι ότι η Αριστερά δεν είναι σε θέση να ασκήσει την υλιστική, μαρξιστική κριτική της Τεχνητής Νοημοσύνης που θα έπρεπε. Αυτό οφείλεται στο γεγονός ότι η Αριστερά έχει αρνηθεί να πάρει τη γλώσσα στα σοβαρά, κατατάσσοντάς την σε απλή “υπερδομή” και κρατώντας την σε μεγάλη απόσταση από τον οικονομικό υλισμό.

Οι μαρξιστές έχουν προσεγγίσει αυτό το πρόβλημα με διαφορετικούς τρόπους, στηριζόμενοι γενικά στην αντίληψη ότι η γλώσσα είναι υλική, δυναμική και καταστασιακή. Καμία από τις προσεγγίσεις δεν έχει παραδώσει ποτέ πραγματικά μια φιλοσοφία της γλώσσας που να είναι αρκετά τεχνική για να αντιμετωπίσει αυτό που κάνει τώρα η τεχνητή νοημοσύνη, και αυτό σημαίνει ότι όλοι οι δρόμοι προς μια αριστερή κριτική της αυτοματοποίησης της γλώσσας περνούν μέσα από τον πιο διάσημο γλωσσολόγο της εποχής μας: Noam Chomsky.

Ο Τσόμσκι πιθανά είναι ο μεγαλύτερος εν ζωή διανοούμενος. Το έργο του για τη γλώσσα δεν έχει απλώς μεταμορφώσει τη γλωσσολογία- είναι εν μέρει υπεύθυνο για αυτό που αποκαλείται “γνωστική επανάσταση”, την κατακλυσμιαία αλλαγή στις επιστήμες που συνέβη κατά το δεύτερο μισό του εικοστού αιώνα. Μέχρι τη δεκαετία του 1990, τότε που ο Dude εξακολουθούσε να προσκολλάται στην υπερβατικότητα μιας κασέτας των Creedence, η άποψη του Τσόμσκι για το νου και τη γλώσσα είχε γίνει επιστημονικό υπόβαθρο σε όλη την ψυχολογία, τη γλωσσολογία, τη φιλοσοφία, τη νευροεπιστήμη και το νεαρό ακόμη πεδίο της τεχνητής νοημοσύνης.

Αυτό δεν σημαίνει ότι δεν ήταν αμφιλεγόμενη: Η γρήγορη άνοδος του Τσόμσκι στη δεκαετία του 1960 έφερε μαζί της σκληρές μάχες. Αλλά έλαβαν χώρα κατά τη διάρκεια μιας γενικής αλλαγής, κατά την οποία η γενεσιουργός γραμματική, η “συσκευή απόκτησης της γλώσσας” που ο Τσόμσκι ισχυριζόταν ότι βρισκόταν κάπου στον εγκέφαλο, και το “μινιμαλιστικό πρόγραμμα” για την κατανόηση της γλώσσας έγιναν σύμβολα μιας ολόκληρης ομάδας επιστημών και της νέας τους προσέγγισης. Η προσέγγιση αυτή βασίζεται σε μια ευρεία αναλογία μεταξύ του εγκεφάλου (ή του νου) και του υπολογιστή – την “υπολογιστική θεωρία του νου”. Ο ίδιος ο Τσόμσκι παρέμεινε αμφιλεγόμενος ως προς αυτή την αναλογία, ενώ παρέμεινε βαθιά προσηλωμένος στην επιστημονική διερεύνηση των ιδιοτήτων του νου, τις οποίες θεωρεί ότι έχουμε μοναδικά στη διάθεσή μας μέσω της γλώσσας.

Αλλά η καριέρα του Τσόμσκι ήταν πάντα στην πραγματικότητα δύο καριέρες. Από την πρώιμη αντίθεσή του στον πόλεμο του Βιετνάμ – τον οποίο, όπως επεσήμανε, η αμερικανική προπαγάνδα αρνιόταν σταθερά ότι ήταν πόλεμος ή εισβολή – μέχρι τις εκστρατείες του κατά των φαύλων συγκρούσεων που προωθούσαν οι Ηνωμένες Πολιτείες στην Κεντρική Αμερική τη δεκαετία του 1980, ο Τσόμσκι υπήρξε μία από τις λίγες αριστερές φωνές στον αμερικανικό δημόσιο διάλογο επί δύο γενιές. Αξιοποίησε την τεράστια αυθεντία του στη γλώσσα και το μυαλό σε μια μοναδική παρουσία στο χάος των μέσων ενημέρωσης μιας καταρρέουσας αυτοκρατορίας. Πιστεύει ότι μια τεχνολογική κοινωνία δεν έχει κανένα λόγο να περιορίζει τις θεμελιωδώς δημιουργικές δυνάμεις των μεμονωμένων πολιτών της και ότι η συνδικαλιστική ελεύθερη ένωση – μια άποψη που συνήθως αποκαλείται αναρχοσυνδικαλισμός – θα καταργούσε τις καταπιέσεις του κράτους και της ιμπεριαλιστικής προπαγάνδας του.

Όταν ήμουν έφηβος και προσπαθούσα να καταλάβω, πρώτα, τον παράξενο θριαμβολογικό χαρακτήρα της εποχής του Μπιλ Κλίντον και στη συνέχεια τη φαύλη στροφή μετά την 11η Σεπτεμβρίου, ο πατέρας μου μού έδωσε να διαβάσω βιβλία του Χάουαρντ Ζιν και του Τσόμσκι. Για μένα, αυτά ήταν μια αλφαβήτα μετά την οποία σχεδόν τα πάντα στα μέσα ενημέρωσης ήταν απλή προπαγάνδα, ειδικά κατασκευασμένη για να αποκρύψει αλήθειες για την αμερικανική αυτοκρατορία – αλήθειες που ένας μοναχικός Τσόμσκι φώναζε για χρόνια.

Πήγαμε άλλες τρεις δεκαετίες μπροστά, τον Μάρτιο του 2023, όταν ο Τσόμσκι και δύο συν-συγγραφείς του δημοσίευσαν ένα άρθρο στους New York Times με τίτλο “Η ψευδής προσδοκία από το ChatGPT“. Αυτό που είπαν εκεί, δυστυχώς, ισοδυναμεί με μια πολύ εκλεπτυσμένη εκδοχή του πόσο πολύ μισεί ο Dude τους γαμημένους Eagles.

Το δημοσίευμα αναγνωρίζει σιωπηρά ότι υπάρχει πράγματι ένα πολιτικό πρόβλημα με την τεχνητή νοημοσύνη. Ο Τσόμσκι και οι συν-συγγραφείς του υποστηρίζουν ότι η μηχανική μάθηση – η πειθαρχία πίσω από τη γεννητική ΤΝ και άλλους ισχυρούς αλγορίθμους – “θα υποβαθμίσει την επιστήμη μας και θα εξευτελίσει την ηθική μας ενσωματώνοντας στην τεχνολογία μας μια θεμελιωδώς λανθασμένη αντίληψη για τη γλώσσα και τη γνώση”. Ο Τσόμσκι μάχεται κατά της συγκεκριμένης αντίληψης από τη δεκαετία του 1950, οπότε δεν αποτελεί έκπληξη το γεγονός ότι θεωρεί προβληματική την εμπορική κυκλοφορία της. Είναι λιγότερο σαφές ότι το συγκεκριμένο μείγμα γνωστικής επιστήμης και πολιτικής μπορεί πραγματικά να εξηγήσει τι κάνουν το ChatGPT και παρόμοια συστήματα.

Δεν είμαι σίγουρος ότι είναι δυνατόν, τόσο για υλικοτεχνικούς όσο και για νομικούς λόγους, να ποσοτικοποιήσουμε πόσα δεδομένα – κείμενο, εικόνα, αλλά και δεδομένα παρακολούθησης κάθε είδους – παράγονται πλέον ή επηρεάζονται από συστήματα τεχνητής νοημοσύνης. Πρόκειται όμως για ένα πολύ μεγαλύτερο ποσοστό απ’ ό,τι πιθανώς νομίζετε. Τα Μεγάλα Γλωσσικά Μοντέλα (LLM) συνδέονται με την αναζήτηση και με τους “προσωπικούς βοηθούς”. Η εξερεύνηση εφαρμογών από τις εταιρικές προσλήψεις έως τα μαχητικά αεροσκάφη και τις μαθηματικές αποδείξεις έως τη χημεία, δεν επιβραδύνθηκε, αλλά επιταχύνθηκε.

Ένα ανταγωνιστικό δημοσίευμα από τη Wall Street Journal, γραμμένο από τον αποθανόντα πλέον Henry Kissinger -μια νέμεση της γενιάς του Chomsky- και τους συν-συγγραφείς του, υποστήριξε ότι το ChatGPT ήταν ένα τόσο σημαντικό βήμα όσο και η τυπογραφία, με παρόμοια ευρείες επιπτώσεις στην πολιτική, εξωτερική και εσωτερική, και στο καθεστώς της γνώσης. Κατά έναν περίεργο τρόπο, ο Τσόμσκι συμφωνεί στην πραγματικότητα με αυτή την εκτίμηση, αν όχι με τις προτάσεις της. Επειδή η νέα τεχνητή νοημοσύνη είναι μια “αδέξια στατιστική μηχανή για την αντιστοίχιση προτύπων” και δεν διαθέτει καμία ικανότητα για την αλήθεια ή την ηθική, σύμφωνα με το δημοσίευμα του Τσόμσκι, είναι πολιτισμικά επικίνδυνη. Ο Κίσινγκερ συνιστά στους υπεύθυνους χάραξης πολιτικής να προηγηθούν της καμπύλης. Ο Τσόμσκι ουσιαστικά απλώς αρνείται ότι συμβαίνει έστω και κάτι ουσιαστικό.

Αυτό είναι ένα πρόβλημα, και νομίζω ότι εντοπίζεται στην εύθραυστη σχέση μεταξύ της γλωσσολογίας του Τσόμσκι και της πολιτικής του. Είχε πει κάποτε ότι “δεν μπορεί να βρει διανοητικά ικανοποιητικές συνδέσεις μεταξύ αυτών των δύο τομέων”, αλλά αντίθετα μόνο ισχνές. Όμως κάνει διαχωρισμό μεταξύ αυτού που αποκαλεί “το πρόβλημα του Πλάτωνα” και “το πρόβλημα του Όργουελ”.

Το πρόβλημα του Πλάτωνα είναι ότι η γνώση μας ξεπερνά την εμπειρία μας. Όπως έχει παρατηρήσει ο Τσόμσκι για περισσότερες από έξι δεκαετίες, τα παιδιά μαθαίνουν τη σωστή γραμματική χωρίς ποτέ να εκτίθενται σε όλες τις παραλλαγές της. Μαθαίνουν να επινοούν νέες λέξεις και φράσεις και να τις κατανοούν πολύ νωρίτερα από ό,τι θα μπορούσε να κάνει οποιαδήποτε μηχανή. Η ανθρώπινη μάθηση φαίνεται να συμβαίνει με μεγάλα άλματα, όχι με μικρά βήματα. Ο Πλάτωνας πίστευε ότι οι άνθρωποι είχαν ένα είδος μνήμης των καθαρών μορφών της σκέψης – του καλού, της αλήθειας και της ομορφιάς – και ο Τσόμσκι επικαλείται αυτή την ιδέα για να περιγράψει τι πιστεύει ότι είναι πραγματικά η γλώσσα.

Το πρόβλημα του Όργουελ αφορά αυτό που ο μυθιστοριογράφος ονόμασε “newspeak”, τη συστηματική χειραγώγηση της γλώσσας και του νοήματος από την ολοκληρωτική κυβέρνηση που απεικονίζεται στο βιβλίο “1984“. Ο Τσόμσκι χρησιμοποιεί ως παράδειγμα τον αποκλεισμό της έννοιας της εισβολής των Ηνωμένων Πολιτειών στο Βιετνάμ για να υποστηρίξει ότι τα δημοκρατικά συστήματα, μέσω της χειραγώγησης των μέσων ενημέρωσης, έχουν “ιδιοφυείς” μηχανισμούς “ελέγχου της σκέψης”. Αυτό το συμπέρασμα είναι στην πραγματικότητα ένα βήμα πέρα από αυτό του Όργουελ, καθώς οι ολοκληρωτικές κυβερνήσεις χρησιμοποιούν την απειλή της βίας για να υποστηρίξουν την επιβαλλόμενη γλώσσα τους. Οι ψευδείς δυαδικές σχέσεις εγκαθιδρύονται συχνά ως αφηγήσεις στα μέσα ενημέρωσης, υποστηρίζει ο Τσόμσκι, με στόχο την “κατασκευή συναίνεσης”, μια φράση που δανείζεται από τον διάσημο θεωρητικό της κοινής γνώμης Walter Lippmann. Τα μέσα ενημέρωσης “μπορούν να αποτελέσουν μια τρομερή δύναμη όταν κινητοποιούνται για την υποστήριξη του κρατικού συστήματος προπαγάνδας”, γράφει ο Τσόμσκι.

Το σύνθημα της διάκρισης Πλάτωνα-Όργουελ είναι “Η προπαγάνδα είναι για τη δημοκρατία ό,τι η βία για τον ολοκληρωτισμό”. Αυτή είναι μια εξαιρετική περιγραφή του τρόπου με τον οποίο οι διάφοροι τύποι κρατών εξαναγκάζουν τους πολίτες τους, αλλά πώς σχετίζεται με τη γλώσσα; Ο Τσόμσκι δεν το ξεκαθαρίζει αυτό, και δεν νομίζω ότι μπορεί να το ξεκαθαρίσει. Του διαφεύγει το γεγονός ότι το newspeak είναι γλώσσα. Είναι μια άκρως αυθαίρετη, αναπαραγώγιμη γλώσσα, ναι – και η δημοκρατική της αντιστοιχία είναι επίσης γλώσσα, απλώς συγκρατείται μέσα σε ορισμένα όρια. Αλλά είναι αυτές οι προστατευτικές μπάρες σχετικά με το τι μπορεί να ειπωθεί πραγματικά δημιουργημένες από κάποια συμμορία εμπειρογνωμόνων των μέσων ενημέρωσης; Πώς είναι σε θέση να καταστέλλουν αυτή τη γνήσια γραμματική δημιουργικότητα που όλοι διαθέτουμε εκ φύσεως;

Εδώ είναι το πρόβλημα: οι μηχανές προπαγάνδας που ο Τσόμσκι πιστεύει ότι κατασκευάζουν τη συναίνεση είναι πλέον σχεδόν κατά εκατό τοις εκατό κατευθυνόμενες από την τεχνητή νοημοσύνη. Δεν είναι ένα κράτος ή μια κυβέρνηση που κάνει αυτή τη δουλειά – είναι η γλωσσική ικανότητα της τεχνητής νοημοσύνης, σε μια πολιτισμική κλίμακα που απλά δεν έχουμε ξαναδεί ποτέ. Στη μαρξιστική παράδοση, αυτό ονομάζεται ιδεολογία. Η συνέχεια της παραγωγής και της κουλτούρας δεν ήταν ποτέ πιο κυριολεκτική. Έχουμε πλέον μηχανές που μπορούν να αυτοματοποιήσουν όχι μόνο την Τέιλορ Σουίφτ (…Θεέ μου), αλλά και το είδος του κατασταλτικού αποτελέσματος που εντόπισε ο Τσόμσκι στα μέσα ενημέρωσης. Τα LLMs συνδέουν το πρόβλημα του Πλάτωνα με το πρόβλημα του Όργουελ. Το αποτέλεσμα είναι πραγματικό χάος, επειδή δεν μπορούμε να ξεχωρίσουμε ποιο μέρος είναι γλώσσα και ποιο μέρος είναι απλώς μηχανές. Ίσως η διάκριση να μην ήταν ποτέ ξεκάθαρη εξ αρχής.

Αυτό που στέκεται ανάμεσα στον Πλάτωνα και τον Όργουελ είναι η κουλτούρα, και με την άνοδο της δημιουργικής τεχνητής νοημοσύνης, έχουμε πρόβλημα κουλτούρας. Η γενική διανοητική αμηχανία του 2023 δεν είναι μόνο ένα πρόβλημα του Τσόμσκι. Είναι μια τάση που έχουμε να υποτιμούμε την κουλτούρα, ακόμη και όταν είναι αυτό ακριβώς που μας προκαλεί προβλήματα. Μπορεί να θέλουμε να πιστεύουμε ότι η “ανθρώπινη δημιουργικότητα” – ένα σταθερό ρεφρέν στα γραπτά του Τσόμσκι – δεν είναι επιδεκτική στατιστικών τεχνικών. Αλλά ενώ είναι λογικό να επιφυλασσόμαστε για την πρωτοπορία, νομίζω ότι είναι ξεκάθαρο ότι η Taylor Swift θα μπορούσε πραγματικά να είναι μια τεχνητή νοημοσύνη, εν μέρει επειδή υπερπαραγόμενα προϊόντα των μέσων μαζικής ενημέρωσης όπως η μουσική της ή οι ταινίες της Marvel βρίσκουν ένα είδος στατιστικού κέντρου στην απεραντοσύνη του πολιτισμού – που είναι ακριβώς αυτό που κάνει η γενετική τεχνητή νοημοσύνη. Υπάρχει μια ασύλληπτα τεράστια κλίμακα της ανθρώπινης γλωσσικής παραγωγής που βρίσκεται ανάμεσα σε οποιαδήποτε επίσημη γλωσσολογία και στους τύπους κινδύνου που διαγιγνώσκουν τόσο ο Τσόμσκι όσο και ο Κίσινγκερ. Τα συστήματα GPT απλώς αποκαλύπτουν αυτή την κλίμακα, και τα αποτελέσματα δεν μας αρέσουν. Αλλά δεν έχουμε την πολυτέλεια να τα αγνοήσουμε.

Οι γλωσσικοί αλγόριθμοι πρόκειται να γίνουν η θεμελιώδης υποδομή για το σύνολο σχεδόν της παγκόσμιας οικονομίας.

Σύμφωνα με τον Τσόμσκι, η τεχνητή νοημοσύνη στην τρέχουσα μορφή της επιβάλλει ωμές συσχετίσεις μεταξύ συνόλων δεδομένων. Αυτή είναι μια θεμελιωδώς διαφορετική διαδικασία από αυτό που κάνουν οι άνθρωποι με τη γλώσσα, δηλαδή να δημιουργούν εξηγήσεις. Διαθέτουμε μια “καθολική γραμματική” που μας επιτρέπει να μαθαίνουμε με “σχεδόν μαθηματική κομψότητα”, όπου αυτά τα προγράμματα μαθαίνουν εξίσου τις ανθρωπίνως δυνατές και τις “ανθρωπίνως αδύνατες” γλώσσες. “Συναλλάσσονται απλώς με πιθανότητες που αλλάζουν με την πάροδο του χρόνου”, αδέσμευτες από οποιαδήποτε σχέση με την αλήθεια, και – τονίζει ο Τσόμσκι – δεν είναι σε θέση να δημιουργήσουν ηθικές κρίσεις.

Όλα αυτά είναι αλήθεια. Ειδικά τα LLMs τροφοδοτούνται με τεράστιες ποσότητες κειμένου, της τάξης του ενός τρισεκατομμυρίου λέξεων, μια πραγματικά αδιανόητη ποσότητα τυπωμένης γλώσσας. Στη συνέχεια “μαθαίνουν” συμπιέζοντας τα δεδομένα σε μοτίβα, χρησιμοποιώντας έναν εκτεταμένο αλλά μαθηματικά απλό αλγόριθμο. Το ChatGPT που ξέσπασε στον δημόσιο διάλογο στα τέλη του 2022 (έκτοτε έχει ενημερωθεί πολλές φορές) τεμαχίζει τα τρισεκατομμύρια των λέξεων εκπαίδευσης σε περίπου πενήντα χιλιάδες “tokens”, κυρίως λέξεις αλλά και μικρά κομμάτια λέξεων που είναι χρήσιμα για να λειτουργήσει η γλώσσα.

Το αρχικό αποτέλεσμα – μετά την “προεκπαίδευση”, που σημαίνει το p στο GPT – είναι ένα πλήρως καθορισμένο πλέγμα, στο οποίο κάθε μονάδα διαθέτει μια πιθανότητα να έρθει μετά από αυτήν που προηγείται. Αν πω “κομμουνιστής”, η πιθανότητα του “μανιφέστο” εκτοξεύεται, όπως και το “γουρούνι”. Τα LLM συγκεντρώνουν μια μικρή δεξαμενή πιθανών επόμενων λέξεων και στη συνέχεια σαρώνουν το πλαίσιο για να επιλέξουν ποια θα τοποθετήσουν στη συνέχεια. Αν έχετε συνομιλήσει με ένα από αυτά τα συστήματα, ξέρετε ότι παράγει, λοιπόν, καλά αγγλικά (και πολλές, πολλές άλλες γλώσσες επίσης). Από σχεδόν κάθε θεωρητική προοπτική, συμπεριλαμβανομένης της προοπτικής του Τσόμσκι, αυτό δεν έπρεπε να συμβαίνει.

Ο Τσόμσκι αντιτίθεται στη στατιστική σύλληψη της γλώσσας εδώ και σχεδόν εβδομήντα χρόνια. Αξίζει να κατανοήσουμε πώς λειτουργεί η ανάλυσή του, γιατί αυτό μας δείχνει τι κάνει η τεχνητή νοημοσύνη που αναγκάζει τον Πλάτωνα και τον Όργουελ να συναντηθούν.

Το 1957, ο Τσόμσκι δημοσίευσε τις Συντακτικές Δομές, ένα σύντομο βιβλίο που θα αναδιαμόρφωνε τη γλωσσολογία, και ευρύτερα τη γνωστική επιστήμη, για δύο γενιές. Ήθελε να δείξει ότι η γραμματική μιας γλώσσας -αυτό που μας επιτρέπει να διακρίνουμε τις καλές από τις κακές προτάσεις- ήταν ανεξάρτητη από άλλους παράγοντες, συμπεριλαμβανομένων των σημασιών των λέξεων.

Κατέθεσε την επιχειρηματολογία του με προτάσεις που έγιναν σχεδόν τόσο διάσημες όσο και ο ίδιος: “Άχρωμες πράσινες ιδέες κοιμούνται μανιωδώς” και “Μανιωδώς κοιμούνται ιδέες πράσινες άχρωμες”. Η πρώτη πρόταση είναι γραμματική – δεν σημαίνει τίποτα, αλλά είναι άμεσα αναγνωρίσιμη ως αγγλική πρόταση. Η δεύτερη πρόταση είναι εξίσου ανούσια, αλλά επίσης δεν είναι πραγματικά πρόταση. Σκοντάφτετε όταν την διαβάζετε δυνατά. Κάτι δεν είναι σωστό.

Για τον Τσόμσκι, αυτό που ήταν λάθος ήταν κάτι περισσότερο από τη σειρά των λέξεων. Ένας από τους στόχους αυτού του πειράματος σκέψης ήταν ο Κλοντ Σάνον, ο θεμελιωτής της θεωρίας της πληροφορίας, η οποία θεωρείται ευρέως ένα από τα βασικά θεμέλια του ψηφιακού σύμπαντος. Ο Shannon ενδιαφερόταν για την επικοινωνία, την οποία θεωρούσε ως την αποστολή πληροφοριών κατά μήκος ενός καναλιού σε έναν δέκτη. Δεν τον ενδιέφερε αν το υλικό που στέλνονταν ήταν γλώσσα, ή σήματα χωρίς νόημα, ή οτιδήποτε άλλο – το μόνο που είχε σημασία ήταν να καταλάβει τη δομή του υλικού. Χρησιμοποίησε την αγγλική γλώσσα ως πειραματόζωο για να βρει πώς να φτιάξει ένα ασφαλές κανάλι κατά μήκος του οποίου θα μπορούσαν να σταλούν με ασφάλεια πληροφορίες. Οι τύποι που εφηύρε για τον σκοπό αυτό αποτελούν τη βάση όλων των ψηφιακών επικοινωνιών σήμερα.

Ο Σάνον ενδιαφερόταν επίσης για τη γλώσσα, αλλά με διαφορετικό τρόπο από ό,τι ο Τσόμσκι. Υποστήριξε ότι αν έχετε το γράμμα q σε μια σελίδα, τεχνικά θα μπορούσατε να έχετε είκοσι έξι διαφορετικά γράμματα που το ακολουθούν (συμπεριλαμβανομένου ενός διαστήματος). Αλλά είναι συντριπτικά πιθανό ότι το u θα είναι το επόμενο γράμμα. Αυτή η ιδέα καθιστά τον Shannon τον πνευματικό ιδρυτή της αυτόματης διόρθωσης – αλλά και της γενετικής τεχνητής νοημοσύνης. Πρόκειται για μια στατιστική προσέγγιση της γλώσσας, που βασίζεται καθαρά στη συχνότητα των γραμμάτων ή των λέξεων. Τα LLM, όπως τα περιέγραψα παραπάνω, ακολουθούν αυτή την ιδέα: βρίσκουν τις συχνότητες των λέξεων και τις αναπαράγουν. Ο Shannon δεν εφηύρε ποτέ μια μηχανή που θα μπορούσε πραγματικά να παράγει γλώσσα, αλλά ζούμε με τα προϊόντα των ιδεών του.

Ο Τσόμσκι στόχευσε ευθέως τον Σάνον. Καμία μηχανή, πρότεινε, δεν θα μπορούσε πραγματικά να διακρίνει αυτές τις δύο προτάσεις μεταξύ τους. Η αγγλική γραμματική δεν ήταν απλώς μια “υψηλής τάξης στατιστική προσέγγιση της αγγλικής γλώσσας”. Πρέπει να γνωρίζεις τη γραμματική, όχι απλώς να προβλέπεις λέξεις ή γράμματα.

Στο άρθρο του 2023, ο Τσόμσκι χρησιμοποιεί ένα από τα παραδείγματά του από τις Συντακτικές Δομές το 1957, γράφοντας ότι

επειδή αυτά τα προγράμματα δεν μπορούν να εξηγήσουν τους κανόνες του αγγλικού συντακτικού, για παράδειγμα, μπορεί κάλλιστα να προβλέψουν, λανθασμένα, ότι “ο John είναι πολύ πεισματάρης για να του μιλήσει κανείς (σ.μ. στο πρωτότυπο που βγάζει νόημα είναι John is too stubborn to talk to)” σημαίνει ότι ο John είναι τόσο πεισματάρης που δεν θα μιλήσει σε κάποιον ή κάποια (αντί ότι είναι πολύ πεισματάρης για να του επιχειρηματολογήσει κανείς) … . Οι σωστές εξηγήσεις της γλώσσας είναι περίπλοκες και δεν μπορούν να μαθευτούν μόνο με το να τις βουτάμε σε μεγάλα δεδομένα.

Αποφάσισα να πάω στην πηγή:

Ανώνυμος: τι σημαίνει αυτή η φράση; “ο john είναι πολύ πεισματάρης για να του μιλήσεις (john is too stubborn to talk to)”;

ChatGPT: Η φράση “ο John είναι πολύ πεισματάρης για να του μιλήσεις” υποδηλώνει ότι ο John είναι πολύ ανθεκτικός στο να αλλάξει τις απόψεις ή τη συμπεριφορά του, γεγονός που καθιστά δύσκολη ή απογοητευτική τη συζήτηση μαζί του. Υπονοεί ότι το πείσμα του John αποτελεί εμπόδιο στην αποτελεσματική επικοινωνία ή συζήτηση, επειδή μπορεί να μην είναι πρόθυμος να εξετάσει διαφορετικές απόψεις ή να συμβιβαστεί στις απόψεις του.

Για όσους κρατούν το σκορ: Shannon (και Sam Altman): 1, Τσόμσκι: 0.

Ρώτησα λοιπόν το ChatGPT για τις άχρωμες πράσινες ιδέες, και στις δύο εκδοχές. Μου έδωσε μια μικρή ιστορία της καλής φράσης, εξηγώντας τη γλωσσολογία του Τσόμσκι με βασικούς αλλά σταθερούς όρους. Αποκάλεσε την αντιγραμματική φράση (“furiously sleep ideas green colorless”) έναν “ανούσιο συνδυασμό” και χαρακτήρισε τη συνομιλία ως “ασυνάρτητο αίτημα, τυχαίες λέξεις”. Με κάποια παρότρυνση, αναγνώρισε ότι η δεύτερη φράση ήταν ένα συνονθύλευμα της πρώτης και έβγαλε το συμπέρασμα ότι η γραμματική “από μόνη της δεν εγγυάται ουσιαστική επικοινωνία”. Αυτό είναι σχεδόν το αντίθετο από αυτό που θέλει να πει ο Τσόμσκι – αλλά είναι επίσης αλήθεια. Περισσότεροι πόντοι για το ChatGPT.

Η ανθρώπινη μάθηση φαίνεται να συμβαίνει με μεγάλα άλματα, όχι με μικρά βήματα.

Εδώ είναι το πρόβλημα. Τίποτα από αυτά που παρήγαγε η μηχανή δεν μπορεί να θεωρηθεί ως απόδειξη, είτε έτσι είτε αλλιώς. Γνωρίζει αυτές τις προτάσεις, ή απλώς η στατιστική πρόβλεψη είναι πολύ πιο ισχυρή από ό,τι ήμασταν σε θέση να παρατηρήσουμε τη δεκαετία του 1940 και του ’50; Αυτή είναι η συζήτηση που οδηγεί την αναταραχή στο OpenAI. Αν βγουν οι σωστές απαντήσεις, πώς μπορείς να αρνηθείς ότι έχεις να κάνεις με νοημοσύνη;

Το πρόβλημα είναι ότι η ίδια η ερώτηση είναι λανθασμένη: Η τεχνητή νοημοσύνη παράγει πράγματι γλώσσα – αλλά όχι το είδος που μας λέει πώς λειτουργεί το ανθρώπινο μυαλό. Η μεταφυσική του OpenAI δεν μπορεί να νικηθεί από το πλαίσιο του Τσόμσκι, επειδή δεν μπορεί να συνδέσει την άποψή του για την ανθρώπινη γλώσσα με την ανάλυσή του για την προπαγάνδα. Η έννοια που λείπει είναι η κουλτούρα.

Ο τρόπος με τον οποίο πρέπει να αντιληφθούμε την τεχνητή νοημοσύνη είναι περισσότερο σαν τους Eagles παρά σαν τους Creedence, περισσότερο οι παράξενες εκτάσεις της ψηφιακής κουλτούρας παρά οι εσωτερικές λειτουργίες του μυαλού που η πρωτοποριακή τέχνη γαργαλάει και εμπνέει. Αλλά δεν είναι μόνο ο Τσόμσκι που μισεί τους Eagles. Όλοι μας τους μισούμε.

Τον Αύγουστο, οι δημοσιογράφοι αποκάλυψαν ότι τα LLMs (Μεγάλα Γλωσσικά Μοντέλα) εκπαιδεύονται σε πολλά βιβλία, μεταξύ άλλων. Το σύνολο δεδομένων Books3 περιλαμβάνει εκατοντάδες χιλιάδες βιβλία, πολλά από τα οποία προστατεύονται από πνευματικά δικαιώματα, με έργα των William Shakespeare, Stephen King και Toni Morrison να κάνουν την εμφάνισή τους ανάμεσα σε αυτά. Οι συγγραφείς έσπευσαν να αντιδράσουν σε αυτή την αποκάλυψη. Η κωμικός Sarah Silverman ηγείται μιας αγωγής κατά του OpenAI και της Meta. Η Μάργκαρετ Άτγουντ, γνωστή για τη συγγραφή του The Handmaid’s Tale, έγραψε ένα καυστικό άρθρο σχετικά με τη χρήση μυθιστορημάτων από την Τεχνητή Νοημοσύνη. Ο Stephen King έδειξε αδιαφορία, λέγοντας ότι δεν πιστεύει ότι η τεχνητή νοημοσύνη θα είναι σε θέση να κάνει ό,τι κάνει εκείνος σύντομα. Αλλά το θέμα δεν είναι αν η τεχνητή νοημοσύνη είναι σε θέση να γράψει βιβλία. Το θέμα είναι ότι η Τεχνητή Νοημοσύνη είναι βιβλία.

Ακόμη και οι επιστήμονες της γνωστικής επιστήμης έχουν αναγνωρίσει ότι τα LLM είναι “μηχανές πολιτισμού”. Αλλά το πλαίσιο της γνωστικής επιστήμης, συμπεριλαμβανομένης της ακόμη αισθητής επιρροής του Τσόμσκι, κυριαρχεί στην κατανόηση αυτών των κρίσιμων αλγορίθμων. Όσο αυτό ισχύει, δεν θα είμαστε σε θέση να κατασκευάσουμε μια αριστερή πολιτική για την εποχή της Τεχνητής Νοημοσύνης.

Οι μηχανές προπαγάνδας που ο Τσόμσκι πιστεύει ότι κατασκευάζουν τη συναίνεση είναι πλέον σχεδόν κατά εκατό τοις εκατό κατευθυνόμενες από την τεχνητή νοημοσύνη.

Οι γνωστικές θεωρίες για την ΤΝ έχουν χάσει το ευρύτερο σημείο. Οι θεωρίες δεν έχουν κλιμακωθεί με τα μεγάλα δεδομένα και τους τεράστιους υπολογιστές που απαιτούνται για την εκτέλεση της μηχανικής νοημοσύνης. Η βασική πεποίθηση του Μαρξ σχετικά με τη γλώσσα παρέχει ένα σημείο εκκίνησης για την οικοδόμηση μιας εναλλακτικής κατανόησης που συνδέει τη γλώσσα και την πολιτική, όπως αυτές οι μηχανές κάνουν πραγματικά σε πραγματικό χρόνο. Αλλά, μέχρι σήμερα, η μαρξιστική πολιτισμική θεωρία δεν έχει δώσει μεγάλη προσοχή στο πρόβλημα που θέτει ο Τσόμσκι.

Θεωρούμε δεδομένο ότι τα έργα τέχνης βασίζονται με κάποιον τρόπο το ένα πάνω στο άλλο. Αυτό μπορεί να είναι πιο προφανές στην τηλεόραση ή στα franchise. Δεν μπορείς να καταλάβεις τους Avengers: Endgame αν δεν έχετε δει όλα τα prequels των συστατικών (προσπάθησα μια φορά, και ήταν … … απαίσιο). Αλλά αυτό δεν συμβαίνει μόνο σε φανταστικά σύμπαντα. Το ύφος μιας ταινίας, η γεύση ενός μυθιστορήματος – αυτά είναι αποτελέσματα μεγάλης κλίμακας σε σύγκριση με τις προτάσεις και τα πλάνα που τα συνθέτουν. Ακόμα και στην καθημερινή γλώσσα, αυτή που χρησιμοποιούμε για να οργανωθούμε ως παραγωγική κοινωνία, δεν κοιτάμε συνέχεια μόνο μεμονωμένες λέξεις. Η συζήτηση μεγάλης διάρκειας είναι ο κανόνας, στην οποία διακυβεύεται μια πραγματική σχέση. Τα ζευγάρια παλεύουν για το έμμεσο νόημα με τρόπους που είναι δύσκολο να ξεμπερδέψουμε. Τα αφεντικά απολύουν και προάγουν εργαζόμενους για έμμεσες κινήσεις που κάνουν στην επικοινωνία, όχι μόνο για την “απόδοση”. Όλα αυτά παίζουν ρόλο, όπως επισήμανε ο Μαρξ, στις σχέσεις παραγωγής.

Ο τρόπος οργάνωσης της παραγωγής είναι το θέμα του πρώτου τόμου του Das Kapital, του οποίου ένα μεγάλο μέρος είναι αφιερωμένο στο εργοστάσιο μηχανών. Ο Μαρξ υποστηρίζει ότι οι μηχανές και οι εργάτες τίθενται αντιμέτωποι σε ένα παιχνίδι μηδενικού αθροίσματος, περιθωριοποιώντας την εργασία μετατρέποντάς την σε ρύθμιση επιλογέων και κουμπιών, φροντίζοντας τις μηχανές. Σκεφτείτε το αυτόματο ταμείο στο παντοπωλείο – κάποιος εξακολουθεί να πρέπει να βρίσκεται εκεί, αλλά απαιτούνται ριζικά λιγότεροι εργάτες, οι οποίοι βρίσκονται εκεί κυρίως για να αποτρέπουν τις κλοπές και να βοηθούν στις αναπόφευκτες δυσλειτουργίες του μηχανήματος. Ο Μαρξ πίστευε ότι οι μηχανές εκπλήρωναν την αποστολή του κεφαλαίου: να κυριαρχήσει και να υποτάξει πλήρως την εργασία υπό τον έλεγχό του. Το εργοστάσιο είναι μια ενιαία μηχανή- οι εργάτες είναι απλώς οργανικά, ζωντανά μέρη της μηχανής.

Αλλά το εργοστάσιο πρέπει ακόμα να οργανώνεται με τη χρήση της γλώσσας, οπότε οι σχέσεις των εργατών με τα αφεντικά και η οργάνωση που εκτελεί η διοίκηση – βασικά όλη η επιχείρηση – εξακολουθεί να έχει αυτό το απόλυτα ανθρώπινο μέσο ως την καρδιά που χτυπάει. Αυτό είναι που θα μπορούσε να αλλάξει με την αυτοματοποίηση της γλώσσας.

Οι ψηφιακές τεχνολογίες έχουν καταστήσει το ενοποιημένο εργοστάσιο μέρος ενός παγκόσμιου μηχανικού συστήματος. Αυτό το σύστημα συγκρατείται από δεδομένα, συνδέοντας αλυσίδες εφοδιασμού, σημεία πώλησης, εργοστάσια και σχεδόν κάθε καταναλωτή στη γη. Αυτό το σύστημα δεδομένων έχει γίνει όρος του σύγχρονου καπιταλισμού. Αλλά η επικοινωνία εξακολουθεί να λαμβάνει χώρα μεταξύ των ανθρώπων κατά μήκος των αλυσίδων εφοδιασμού και στα χαρακώματα του παγκόσμιου κεφαλαίου. Τα LLM, ανάλογα με το πώς θα αναπτυχθούν τώρα – που κανείς δεν μπορεί ακόμη να γνωρίζει – αυτοματοποιούν αυτό το γενικό μέσο της παγκόσμιας παραγωγής και ανταλλαγής. Παίρνουν τη γλώσσα που ο Τσόμσκι πιστεύει ότι μπορεί να υπάρχει μόνο στο βαθύ εσωτερικό του ανθρώπινου μυαλού και τη συνδέουν στο αφάνταστα πολύπλοκο δίκτυο του παγκόσμιου κεφαλαίου. Αν αναπτύξουμε την πολιτιστική παραγωγή σε αυτόν τον χώρο, θα μπορούσαμε να χάσουμε εντελώς από τα μάτια μας – και όχι μόνο τον έλεγχο – τις μηχανορραφίες του κεφαλαίου.

Όλα αυτά σημαίνουν ότι η φιλοσοφία της γλώσσας είναι πιο επιτακτική για την Αριστερά από ποτέ. Η ανάλυση της κουλτούρας πρέπει τώρα να μπει σε αυτή την εικόνα – η κλίμακα και τα αποτελέσματα της γλώσσας στον αυτοματοποιημένο κόσμο δεν μπορούν να δηλωθούν σωστά χωρίς αυτήν. Πρέπει να γίνει κατανοητό ότι ο πολιτισμός δεν είναι πλέον μια απλή “υπερδομή” αλλά οι ράγες πάνω στις οποίες κινείται το κεφάλαιο.

Σε μια συνέντευξή του το 2012, ο Τσόμσκι είπε ότι “αν ένα μόριο γίνει πολύ μεγάλο, [οι φυσικοί] το δίνουν στους χημικούς”. Και στη συνέχεια, όταν γίνεται πολύ μεγάλο γι’ αυτούς, το παραδίδουν στους βιολόγους, στη συνέχεια στους ψυχολόγους, ώσπου “τελικά καταλήγει στα χέρια των κριτικών λογοτεχνίας”. Η Τεχνητή Νοημοσύνη έχει κάνει αυτό το αστείο κυριολεκτικό – και η απεραντοσύνη της ψηφιακής γλώσσας είναι ο μεντεσές πάνω στον οποίο γυρνά η κριτική του καπιταλισμού στην εποχή της Τεχνητής Νοημοσύνης.

Πηγή: Jacobin

Μετάφραση: antapocrisis

Τεχνητή Νοημοσύνη: Ανοικτή ή κλειστή;

Η απόλυση του Σαμ Άλτμαν, ιδρυτή της OpenAI, από το ίδιο του το διοικητικό συμβούλιο αποκαλύπτει τις αντιφάσεις που αναδύονται στην ανάπτυξη του ChatGPT και άλλων μοντέλων “γενετικής τεχνητής νοημοσύνης” που οδηγούν την επανάσταση της τεχνητής νοημοσύνης.

Θα φέρει η τεχνητή νοημοσύνη και αυτά τα μοντέλα γλωσσικής μάθησης (LLM) θαυμαστά νέα οφέλη στη ζωή μας, μειώνοντας τις ώρες του μόχθου και ανεβάζοντας τις γνώσεις μας σε νέα ύψη της ανθρώπινης προσπάθειας; Η αντίθετα θα οδηγήσει η γενετική τεχνητή νοημοσύνη στην αυξανόμενη κυριαρχία της ανθρωπότητας από τις μηχανές και σε ακόμη μεγαλύτερη ανισότητα πλούτου και εισοδήματος, καθώς οι ιδιοκτήτες και όσοι ασκούν έλεγχο στην τεχνητή νοημοσύνη θα γίνουν “οι νικητές που τα παίρνουν όλα”, ενώ η υπόλοιπη ανθρωπότητα θα “μείνει πίσω”;

Φαίνεται ότι το διοικητικό συμβούλιο του OpenAI απέλυσε τον “γκουρού” ηγέτη τους Altman επειδή υπήρξε “σύγκρουση συμφερόντων”, δηλαδή ο Altman ήθελε να μετατρέψει το OpenAI σε μια τεράστια επιχείρηση που θα έβγαζε χρήματα και θα υποστηριζόταν από μεγάλες επιχειρήσεις (η Microsoft είναι ο σημερινός χρηματοδότης), ενώ το υπόλοιπο διοικητικό συμβούλιο συνέχισε να βλέπει το OpenAI ως μια μη κερδοσκοπική επιχείρηση που στοχεύει να διαδώσει τα οφέλη της ΤΝ σε όλους, με τις κατάλληλες διασφαλίσεις για την προστασία της ιδιωτικής ζωής, την εποπτεία και τον έλεγχο.

Ο αρχικός στόχος του OpenAI ήταν να υπάρξει ως μη κερδοσκοπικό εγχείρημα που δημιουργήθηκε προς όφελος της ανθρωπότητας και όχι των μετόχων. Φαίνεται όμως ότι το καρότο των τεράστιων κερδών οδηγούσε τον Altman στο να αλλάξει αυτόν τον στόχο. Ακόμη και πριν το ChatGPT, ο Altman είχε δημιουργήσει μια ξεχωριστή επιχείρηση τεχνητής νοημοσύνης που τον έκανε πλούσιο. Και υπό τη διεύθυνσή του, η OpenAI είχε αναπτύξει έναν “κερδοσκοπικό” επιχειρηματικό βραχίονα, που επέτρεπε στην εταιρεία να προσελκύσει εξωτερικές επενδύσεις και να εμπορευματοποιήσει τις υπηρεσίες της.

Όπως το έθεσαν οι FT: “αυτή η υβριδική δομή δημιούργησε εντάσεις μεταξύ των δύο “φυλών” στην OpenAI, όπως τις αποκαλούσε ο Altman. Η φυλή της ασφάλειας, με επικεφαλής τον επικεφαλής επιστήμονα και μέλος του διοικητικού συμβουλίου Ilya Sutskever, υποστήριξε ότι η OpenAI πρέπει να παραμείνει πιστή στον ιδρυτικό της σκοπό και να αναπτύσσει την τεχνητή νοημοσύνη μόνο προσεκτικά. Η εμπορική φυλή φαινόταν θαμπωμένη από τις δυνατότητες που απελευθέρωσε η επιτυχία του ChatGPT και ήθελε να επιταχύνει (δηλαδή να βγάλει χρήματα). Η φυλή της ασφάλειας φάνηκε να έχει επικρατήσει προς το παρόν.”

Ο Altman δεν είναι επιστήμονας, αλλά φαίνεται ότι είναι άνθρωπος των μεγάλων ιδεών, επιχειρηματίας στην παράδοση του Bill Gates (με τη Microsoft). Υπό τον Altman, η OpenAI μετατράπηκε μέσα σε οκτώ χρόνια από μια μη κερδοσκοπική ερευνητική μονάδα σε μια εταιρεία που φέρεται να παράγει ετήσια έσοδα 1 δισ. δολαρίων. Οι πελάτες της κυμαίνονται από τη Morgan Stanley έως την Estée Lauder, την Carlyle και την PwC.

Η επιτυχία αυτή κατέστησε τον Altman de facto πρεσβευτή της βιομηχανίας τεχνητής νοημοσύνης, παρά την έλλειψη επιστημονικού υπόβαθρου. Νωρίτερα φέτος, ξεκίνησε μια παγκόσμια περιοδεία, συναντώντας παγκόσμιους ηγέτες, νεοφυείς επιχειρήσεις και ρυθμιστικές αρχές σε πολλές χώρες. Ο Altman μίλησε στην περιφερειακή σύνοδο κορυφής Apec Ασίας-Ειρηνικού στο Σαν Φρανσίσκο μόλις μια ημέρα πριν από την απόλυσή του.

Ο Altman προφανώς έχει “άγρια φιλοδοξία και ικανότητα να συγκεντρώνει υποστήριξη”. Έχει περιγραφεί ως “βαθιά ανταγωνιστικός” και “εγκέφαλος”, με έναν γνωστό του να λέει ότι δεν υπάρχει κανείς καλύτερος στο να ξέρει πώς να συσσωρεύει εξουσία. Ως αποτέλεσμα, έχει κερδίσει τη “λατρεία” των οπαδών του, ανάμεσα στους 700 και πλέον υπαλλήλους του, οι περισσότεροι από τους οποίους υπέγραψαν μια επιστολή που ζητούσε την επαναφορά του και την παραίτηση της “φυλής της ασφάλειας” στο διοικητικό συμβούλιο.

Η OpenAI έχει ξοδέψει μισό δισεκατομμύριο δολάρια για την ανάπτυξη του ChatGPT, οπότε ήταν έτοιμη να ξεκινήσει την πώληση μετοχών αξίας 86 δισεκατομμυρίων δολαρίων πριν από τη διάσπαση στο διοικητικό συμβούλιο. Αυτό θα συνέχιζε τη μη κερδοσκοπική προσέγγιση. Τώρα, με τον Altman και άλλους να εντάσσονται στη Microsoft ως υπάλληλοι, φαίνεται ότι το OpenAI μπορεί να απορροφηθεί από τη Microsoft για ένα ευτελές ποσό και έτσι να τερματιστεί η “μη κερδοσκοπική” αποστολή της εταιρείας.

Αυτό που δείχνουν όλα αυτά είναι ότι όσοι πιστεύουν ότι η επανάσταση της τεχνητής νοημοσύνης και η τεχνολογία της πληροφορίας θα αναπτυχθούν από καπιταλιστικές εταιρείες προς όφελος όλων, πλανώνται πλάνην οικτράν. Το κέρδος έρχεται πρώτο και τελευταίο – ανεξάρτητα από τον αντίκτυπο στην ασφάλεια, την προστασία και τις θέσεις εργασίας που θα έχει η τεχνολογία της Τεχνητής Νοημοσύνης στην ανθρωπότητα τις επόμενες δεκαετίες.

Ορισμένοι φοβούνται ότι η ΤΝ θα γίνει “θεϊκή”, δηλαδή μια υπερ-νοημοσύνη που θα αναπτύσσεται αυτόνομα, χωρίς ανθρώπινη επίβλεψη και τελικά θα ελέγχει την ανθρωπότητα. Μέχρι στιγμής, η τεχνητή νοημοσύνη και τα LLM δεν παρουσιάζουν τέτοια “υπερ-νοημοσύνη” και, όπως έχω υποστηρίξει σε προηγούμενες αναρτήσεις, δεν μπορούν να αντικαταστήσουν τη φανταστική δύναμη της ανθρώπινης σκέψης. Μπορούν όμως να αυξήσουν σε τεράστιο βαθμό την παραγωγικότητα, να μειώσουν τις ώρες εργασίας και να αναπτύξουν νέους και καλύτερους τρόπους επίλυσης προβλημάτων, αν τεθούν σε χρήση προς όφελος της κοινωνίας.

Αυτό που είναι σαφές είναι ότι η ανάπτυξη της τεχνητής νοημοσύνης δεν θα πρέπει να βρίσκεται στα χέρια “φιλόδοξων” επιχειρηματιών όπως ο Altman ή να ελέγχεται από τους μεγα-τεχνολογικούς γίγαντες όπως η Microsoft. Αυτό που χρειάζεται είναι ένα διεθνές, μη εμπορικό ερευνητικό ινστιτούτο, παρόμοιο με το CERN στην πυρηνική φυσική. Αν κάτι απαιτεί δημόσια ιδιοκτησία και δημοκρατικό έλεγχο στον 21ο αιώνα, αυτό είναι η τεχνητή νοημοσύνη.

Πηγή: The Next Recession

Αφηγήσεις για την Τεχνητή Νοημοσύνη: Πανάκεια-Πεπρωμένο-Μέλλον της εργασίας

τεχνητή νοημοσύνη εξέλιξη

Η εξέλιξη της Τεχνητής Νοημοσύνης δεν είναι μια προκαθορισμένη διαδρομή

Πριν 5 βδομάδες οι βασικοί ηγέτες των μονοπωλίων της τεχνολογίας (Musk-Twitter, Facebook, Bozniac – Apple, Amazon, Googleκ.α) δημοσίευσαν την έκκληση των 1000 για την παύση των ερευνών στην Τεχνητή Νοημοσύνη για 6 μήνες, έτσι ώστε να ρυθμιστεί νομικά-ηθικά-επιστημονικά-πολιτικά το πλαίσιο που διέπει τις εφαρμογές της Τεχνητής Νοημοσύνης. Η ανάγκη “προέκυψε” μετά την έκρηξη της συζήτησης που προκάλεσε το Γλωσσικό Μοντέλο ChatGpt. Τις επόμενες βδομάδες κυκλοφόρησαν και άλλες εκκλήσεις. Από τον σταρ διανοητή NoalHarari έως τον επονομαζόμενο «πατέρα» της τεχνητής νοημοσύνης Τζέφρι Χίντον.

Η έκκληση εδώ. 

Πέρα  από την προφανή σκοπιμότητα, καθώς κάποιοι έμειναν πίσω στην κούρσα του ανταγωνισμού, όταν η εταιρεία OpenAI έβγαλε τη νέα έκδοση του ChatGpt, το επιχείρημα των “γκουρού” της τεχνολογίας, πως όπως γύρω από την επιστημονική γνώση για το DNA ή την πυρηνική τεχνολογία απαιτείται “μια κάποια ρύθμιση” έτσι απαιτείται και για τη γνώση γύρω από την τεχνητή νοημοσύνη, είναι αστείο. Η γνώση για την τεχνητή νοημοσύνη ήδη είναι ενσωματωμένη σε εφαρμογές που τους αποφέρουν τεράστια κέρδη, ακριβώς επειδή δεν υπάρχει σχεδόν κανένα πλαίσιο κοινωνικού ελέγχου γύρω από τα δεδομένα, τις εφαρμογές, τους αλγορίθμους, το ποιος κατέχει, σε τελική ανάλυση, τα τεράστια υπολογιστικά συστήματα και τις απίστευτες ποσότητες δεδομένων που απαιτούν τα συστήματα τεχνητής νοημοσύνης. Επιπλέον μια οποιαδήποτε ρύθμιση για τη δημιουργία ενός στοιχειώδους πλαισίου κοινωνικού ελέγχου της τεχνητής νοημοσύνης απαιτεί χρόνια και όχι 6 μήνες, όπως ζητούν οι υπογράφοντες την έκκληση για μορατόριο. Ειδικά αν συνυπολογίσουμε την Κίνα, τη Σαουδική Αραβία και άλλες μη δυτικές χώρες που αναπτύσσουν τέτοιες τεχνολογίες.

Ως μια πιο ουσιαστική οπτική, πέρα από τις «ευαισθησίες» όσων βγάζουν δισεκατομμύρια από την ανεξέλεγκτη ανάπτυξη των μονοπωλίων της τεχνολογίας, δημοσιεύουμε την κριτική που κάνουν οι συγγραφείς της εργασίας “Στοχαστικοί Παπαγάλοι”, που δημοσιεύτηκε το 2020 και αφορά τις εφαρμογές των Μεγάλων Γλωσσικών Μοντέλων όπως το ChatGPT, που τότε δεν είχε βγει ακόμα στη σημερινή βελτιωμένη εκδοχή του. Η έρευνα αυτή κάνει κριτική στον τρόπο ανάπτυξης αυτών των συστημάτων για περιβαλλοντικούς λόγους (απαιτούνται τεράστιοι υπολογιστές), λόγους εξαπάτησης και αξιοπιστίας καθώς όποιος ελέγχει τα δεδομένα που εισάγονται σε αυτές τις εφαρμογές αλλά και των κώδικα και την δομή αυτών των συστημάτων, παράγει και επιθυμητά γι’ αυτόν αποτελέσματα. Σημειωτέον, δύο από τους συγγραφείς απολύθηκαν από την Google όπου και εργαζόντουσαν στον τομέα της Δεοντολογίας και της Ηθικής, γιατί αρνήθηκαν να αποσύρουν το όνομά τους από την συγκεκριμένη εργασία.

https://www.dair-institute.org/blog/letter-statement-March2023

 

Δήλωση από τους συγγραφείς του StochasticParrots σχετικά με την επιστολή “AI pause”.

Read more

Τεχνητή Νοημοσύνη και ChatGPT: θα αλλάξει το παιχνίδι;

Το ChatGPT αναγγέλλεται ως επανάσταση στην “τεχνητή νοημοσύνη” (AI) και έχει κατακλύσει τον κόσμο των μέσων ενημέρωσης και της τεχνολογίας από τα τέλη του 2022.

Σύμφωνα με το OpenAI, το ChatGPT είναι “μια τεχνητή νοημοσύνη που έχει εκπαιδευτεί για να βοηθάει σε μια ποικιλία εργασιών”. Πιο συγκεκριμένα, είναι ένα μεγάλο γλωσσικό μοντέλο (LLM) σχεδιασμένο να παράγει κείμενο που μοιάζει με ανθρώπινο και να συνομιλεί με ανθρώπους, εξ ου και το “Chat” στο ChatGPT.

Το GPT σημαίνει Generative Pre-trained Transformer (Γενετικός Προεκπαιδευμένος Μετασχηματιστής). Τα μοντέλα GPT προ-εκπαιδεύονται από ανθρώπους προγραμματιστές και στη συνέχεια αφήνονται να μάθουν μόνα τους και να παράγουν ολοένα και μεγαλύτερες ποσότητες γνώσης, παρέχοντας αυτή τη γνώση με σωστό τρόπο στους ανθρώπους (chat).

Πρακτικά, αυτό σημαίνει ότι παρουσιάζετε στο μοντέλο ένα ερώτημα ή αίτημα εισάγοντας το σε ένα πλαίσιο κειμένου. Στη συνέχεια, η τεχνητή νοημοσύνη επεξεργάζεται αυτό το αίτημα και απαντά με βάση τις πληροφορίες που έχει στη διάθεσή της. Μπορεί να κάνει πολλές εργασίες, από τη διεξαγωγή μιας συνομιλίας έως τη συγγραφή μιας ολόκληρης εργασίας για τις εξετάσεις- από τη δημιουργία ενός λογότυπου μάρκας έως τη σύνθεση μουσικής και πολλά άλλα. Πολύ περισσότερα από μια απλή μηχανή αναζήτησης τύπου Google ή Wikipedia, όπως υποστηρίζεται.

Οι άνθρωποι προγραμματιστές εργάζονται για την αύξηση της “νοημοσύνης” των GPT. Η τρέχουσα έκδοση του GPT είναι η 3.5, ενώ η 4.0 θα κυκλοφορήσει μέχρι το τέλος του τρέχοντος έτους. Και φημολογείται ότι το ChatGPT-5 θα μπορούσε να επιτύχει “τεχνητή γενική νοημοσύνη” (AGI). Αυτό σημαίνει ότι θα μπορούσε να περάσει το τεστ Turing, το οποίο είναι ένα τεστ που καθορίζει αν ένας υπολογιστής μπορεί να επικοινωνεί με τρόπο που να μην διακρίνεται από έναν άνθρωπο.

Τα LLM θα αλλάξουν το παιχνίδι για τον καπιταλισμό σε αυτή τη δεκαετία; Θα μπορέσουν αυτές οι μηχανές που μαθαίνουν μόνες τους να αυξήσουν την παραγωγικότητα της εργασίας με πρωτοφανή ρυθμό και έτσι να βγάλουν τις μεγάλες οικονομίες από την τρέχουσα “μακρά ύφεση” της χαμηλής αύξησης του πραγματικού ΑΕΠ, των επενδύσεων και του εισοδήματος- και στη συνέχεια να επιτρέψουν στον κόσμο να κάνει νέα βήματα για την έξοδο από τη φτώχεια; Αυτό ισχυρίζονται ορισμένοι από τους “τεχνο-αισιόδοξους” που απασχολούν τα μέσα ενημέρωσης.

Ας εξετάσουμε τις απαντήσεις σε αυτά τα ερωτήματα.

Πρώτον, πόσο καλές και ακριβείς είναι οι σημερινές εκδόσεις του ChatGPT; Λοιπόν, όχι πολύ, τουλάχιστον ακόμα. Υπάρχουν πολλά “γεγονότα” στον κόσμο για τα οποία οι άνθρωποι διαφωνούν. Η συστηματική αναζήτηση σας επιτρέπει να συγκρίνετε αυτές τις εκδοχές και να εξετάσετε τις πηγές τους. Ένα γλωσσικό μοντέλο, αντίθετα, θα προσπαθήσει να υπολογίσει κάποιο είδος μέσου όρου κάθε γνώμης στην οποία έχει εκπαιδευτεί – πράγμα που μερικές φορές είναι αυτό που θέλετε, αλλά πολύ συχνά δεν είναι. Το ChatGPT γράφει μερικές φορές απαντήσεις που ακούγονται εύλογες αλλά είναι λανθασμένες ή ανούσιες. Επιτρέψτε μου να σας δώσω μερικά παραδείγματα.

Ρώτησα το ChatGPT 3.5: ποιος είναι ο Michael Roberts, μαρξιστής οικονομολόγος; Αυτή ήταν η απάντηση: “Ο Ρόμπερτς Ρόμπερτς είναι ένας από τους σημαντικότερους επιστήμονες της ανθρωπότητας.


Αυτή είναι ως επί το πλείστον σωστή απάντηση, αλλά είναι και λάθος σε ορισμένα σημεία (δεν θα πω ποια).

Στη συνέχεια του ζήτησα να αξιολογήσει το βιβλίο μου, The Long Depression. Αυτό είναι που είπε:

Αυτό δίνει μια πολύ “γενική” κριτική ή σύνοψη του βιβλίου μου, αλλά παραλείπει τον πυρήνα της θέσης του βιβλίου: τον ρόλο της κερδοφορίας στις κρίσεις του καπιταλισμού. Γιατί; Δεν ξέρω.

Έτσι έκανα αυτή την ερώτηση σχετικά με το νόμο του Μαρξ για την κερδοφορία:

Και πάλι, αυτό είναι σε γενικές γραμμές σωστό – αλλά μόνο σε γενικές γραμμές. Η απάντηση δεν σας οδηγεί πραγματικά πολύ βαθιά στην κατανόηση του νόμου. Στην πραγματικότητα, δεν είναι καλύτερη από τη Wikipedia. Φυσικά, μπορείτε να αναζητήσετε και να προτρέψετε περαιτέρω ώστε να πάρετε πιο λεπτομερείς απαντήσεις. Φαίνεται όμως ότι υπάρχει αρκετός δρόμος για την Τεχνητή Νοημοσύνη μέχρι να αντικαταστήσει την ανθρώπινη έρευνα και ανάλυση.

Στη συνέχεια, υπάρχει το ζήτημα της παραγωγικότητας της εργασίας και των θέσεων εργασίας. Οι οικονομολόγοι της Goldman Sachs εκτιμούν ότι αν η τεχνολογία ανταποκρινόταν στις υποσχέσεις της, θα έφερνε “σημαντική αναστάτωση” στην αγορά εργασίας, ισοδυναμώντας με την αυτοματοποίηση των εργασιών 300 εκατομμυρίων εργαζομένων πλήρους απασχόλησης στις μεγάλες οικονομίες. Οι δικηγόροι και οι διοικητικοί υπάλληλοι θα είναι μεταξύ εκείνων που κινδυνεύουν περισσότερο να απολυθούν (και πιθανότατα οι οικονομολόγοι). Υπολογίζουν ότι περίπου τα δύο τρίτα των θέσεων εργασίας στις ΗΠΑ και την Ευρώπη είναι εκτεθειμένα σε κάποιο βαθμό αυτοματοποίησης μέσω τεχνητής νοημοσύνης, με βάση τα στοιχεία για τα καθήκοντα που τυπικά εκτελούνται σε χιλιάδες επαγγέλματα.

Οι περισσότεροι άνθρωποι θα δουν λιγότερο από το ήμισυ του φόρτου εργασίας τους να αυτοματοποιείται και πιθανότατα θα συνεχίσουν τις εργασίες τους, με κάποιο μέρος του χρόνου τους να απελευθερώνεται για πιο παραγωγικές δραστηριότητες. Στις ΗΠΑ, αυτό θα ίσχυε για το 63% του εργατικού δυναμικού, υπολόγισαν. Ένα επιπλέον 30% που εργάζεται σε φυσικές ή υπαίθριες εργασίες δεν θα επηρεαζόταν, αν και η εργασία τους θα μπορούσε να είναι ευάλωτη σε άλλες μορφές αυτοματοποίησης.

Οι οικονομολόγοι της GS κατέληξαν στο συμπέρασμα: “Τα ευρήματά μας αποκαλύπτουν ότι περίπου το 80% του εργατικού δυναμικού των ΗΠΑ θα μπορούσε να επηρεαστεί τουλάχιστον κατά το 10% των εργασιακών του καθηκόντων από την εισαγωγή των LLM, ενώ περίπου το 19% των εργαζομένων μπορεί να δει τουλάχιστον το 50% των καθηκόντων του να επηρεάζεται”.

Με πρόσβαση σε ένα LLM, περίπου το 15% όλων των εργασιών των εργαζομένων στις ΗΠΑ θα μπορούσε να ολοκληρωθεί σημαντικά ταχύτερα, διατηρώντας το ίδιο επίπεδο ποιότητας. Όταν ενσωματώνεται λογισμικό και εργαλεία που έχουν κατασκευαστεί πάνω σε LLMs, το ποσοστό αυτό αυξάνεται στο 47-56% όλων των εργασιών. Περίπου το 7% των εργαζομένων στις ΗΠΑ εργάζονται σε θέσεις εργασίας όπου τουλάχιστον τα μισά από τα καθήκοντά τους θα μπορούσαν να εκτελεστούν από τη γενετική τεχνητή νοημοσύνη και είναι ευάλωτοι προς αντικατάσταση. Σε παγκόσμιο επίπεδο, δεδομένου ότι οι χειρωνακτικές εργασίες αποτελούν μεγαλύτερο μερίδιο της απασχόλησης στον αναπτυσσόμενο κόσμο, η GS εκτιμά ότι περίπου το ένα πέμπτο των εργασιών θα μπορούσε να γίνει από την ΤΝ – ή περίπου 300 εκατ. θέσεις εργασίας πλήρους απασχόλησης σε μεγάλες οικονομίες.

Αυτές οι προβλέψεις για την απώλεια θέσεων εργασίας δεν είναι κάτι καινούργιο. Σε προηγούμενες αναρτήσεις, έχω περιγράψει διάφορες προβλέψεις σχετικά με τον αριθμό των θέσεων εργασίας που θα χαθούν από τα ρομπότ και την τεχνητή νοημοσύνη κατά την επόμενη δεκαετία ή και περισσότερο. Φαίνεται να είναι τεράστιος- και όχι μόνο στις χειρωνακτικές εργασίες στα εργοστάσια, αλλά και στις λεγόμενες εργασίες των λευκών κολάρων (σ.μ. δουλειές γραφείου, κυρίως στελεχών).

Είναι στην καρδιά της καπιταλιστικής συσσώρευσης η προοπτική ότι οι εργαζόμενοι θα αντιμετωπίζουν συνεχώς τον κίνδυνο απώλειας της εργασίας τους λόγω των καπιταλιστικών επενδύσεων σε μηχανές. Η αντικατάσταση της ανθρώπινης εργασίας από μηχανές ξεκίνησε στην αρχή της Βρετανικής Βιομηχανικής Επανάστασης στην κλωστοϋφαντουργία, και η αυτοματοποίηση έπαιξε σημαντικό ρόλο στην αμερικανική εκβιομηχάνιση κατά τη διάρκεια του 19ου αιώνα. Η ταχεία εκμηχάνιση της γεωργίας που ξεκίνησε στα μέσα του 19ου αιώνα είναι ένα άλλο παράδειγμα αυτοματισμού.

Όπως εξήγησε ο Ένγκελς, η μηχανοποίηση όχι μόνο έκοβε θέσεις εργασίας, αλλά συχνά δημιουργούσε και νέες θέσεις εργασίας σε νέους τομείς. Αυτό σημείωνε ο Ένγκελς στο βιβλίο του Η κατάσταση της εργατικής τάξης στην Αγγλία (1844) – βλ. το βιβλίο μου για τα οικονομικά του Ένγκελς σελ. 54-57. Αλλά όπως το έθεσε ο Μαρξ τη δεκαετία του 1850: “Τα πραγματικά γεγονότα, τα οποία διαστρεβλώνονται από την αισιοδοξία των οικονομολόγων, είναι τα εξής: οι εργάτες, όταν εκδιώκονται από τα εργαστήρια λόγω των μηχανών, μπαίνουν ξανά στην αγορά εργασίας. Η παρουσία τους στην αγορά εργασίας αυξάνει τον αριθμό της εργατικής δύναμης που είναι στη διάθεση της καπιταλιστικής εκμετάλλευσης… η επίδραση των μηχανημάτων, η οποία παρουσιάζεται ως ευλογία για την εργατική τάξη, είναι, αντίθετα, η πιο τρομακτική μάστιγα. …. Μόλις τα μηχανήματα απελευθερώσουν ένα μέρος των εργατών που απασχολούνται σε ένα δεδομένο κλάδο της βιομηχανίας, οι εφεδρικοί εργάτες εκτρέπονται επίσης σε νέα κανάλια απασχόλησης και απορροφώνται σε άλλους κλάδους- εν τω μεταξύ, τα αρχικά θύματα, κατά τη διάρκεια της μεταβατικής περιόδου, κατά το μεγαλύτερο μέρος τους λιμοκτονούν και πεθαίνουν” [Grundrisse]. Το συμπέρασμα εδώ είναι ότι η αυτοματοποίηση σημαίνει αύξηση των επισφαλών θέσεων εργασίας και αύξηση της ανισότητας.

Μέχρι σήμερα, η μηχανοποίηση εξακολουθεί να απαιτεί ανθρώπινη εργασία για την έναρξη και τη συντήρησή της. Αλλά μήπως τώρα οδεύουμε προς την κατάληψη όλων των εργασιών, και ιδιαίτερα εκείνων που απαιτούν πολυπλοκότητα και ιδέες με συστήματα LLM; Και θα σημάνει αυτό μια δραματική αύξηση της παραγωγικότητας της εργασίας, ώστε ο καπιταλισμός να αποκτήσει νέα ώθηση;

Αν τα LLM μπορούν να αντικαταστήσουν την ανθρώπινη εργασία και έτσι να αυξήσουν δραματικά το ποσοστό της υπεραξίας, αλλά χωρίς απότομη αύξηση του κόστους επένδυσης σε υλικά μηχανήματα (αυτό που ο Μαρξ ονόμασε αυξανόμενη οργανική σύνθεση του κεφαλαίου), τότε ίσως η μέση κερδοφορία του κεφαλαίου να κάνει άλμα από τα σημερινά χαμηλά της.

Η Goldman Sachs ισχυρίζεται ότι αυτά τα γενετικά συστήματα τεχνητής νοημοσύνης, όπως το ChatGPT, θα μπορούσαν να πυροδοτήσουν μια έκρηξη παραγωγικότητας που θα αύξανε τελικά το ετήσιο παγκόσμιο ΑΕΠ κατά 7% σε μια δεκαετία. Εάν οι εταιρικές επενδύσεις στην ΤΝ συνέχιζαν να αυξάνονται με παρόμοιο ρυθμό με τις επενδύσεις σε λογισμικό που έγιναν στη δεκαετία του 1990, οι επενδύσεις σε ΤΝ μόνο στις ΗΠΑ θα μπορούσαν να προσεγγίσουν το 1% του ΑΕΠ των ΗΠΑ μέχρι το 2030.

Δεν θα υπεισέλθω στον τρόπο με τον οποίο η GS υπολογίζει αυτά τα αποτελέσματα, διότι τα αποτελέσματα είναι στην πραγματικότητα εικασίες. Αλλά ακόμη και αν δεχτούμε τα αποτελέσματα, είναι τόσο εκθετικό άλμα; Σύμφωνα με τις πιο πρόσφατες προβλέψεις της Παγκόσμιας Τράπεζας, η παγκόσμια ανάπτυξη θα μειωθεί κατά περίπου το ένα τρίτο από τον ρυθμό που επικρατούσε την πρώτη δεκαετία του αιώνα μας, σε μόλις 2,2% ετησίως. Και το ΔΝΤ τοποθετεί τον μέσο ρυθμό ανάπτυξης στο 3% ετησίως για το υπόλοιπο αυτής της δεκαετίας.

Αν προσθέσουμε την πρόβλεψη της GS για τον αντίκτυπο των LLMs, έχουμε περίπου 3,0-3,5% ετησίως για την παγκόσμια πραγματική αύξηση του ΑΕΠ, ίσως – και αυτό δεν λαμβάνει υπόψη την αύξηση του πληθυσμού. Με άλλα λόγια, ο πιθανός αντίκτυπος δεν θα είναι καλύτερος από τον μέσο όρο που παρατηρείται από τη δεκαετία του 1990. Αυτό μας θυμίζει αυτό που ο οικονομολόγος Ρόμπερτ Σόλοου είπε περίφημα το 1987 ότι “η εποχή των υπολογιστών βρίσκεται παντού εκτός από τις στατιστικές για την παραγωγικότητα”.

Ο Αμερικανός οικονομολόγος Daren Acemoglu προσθέτει ότι δεν αυξάνουν όλες οι τεχνολογίες αυτοματοποίησης στην πραγματικότητα την παραγωγικότητα της εργασίας. Αυτό οφείλεται στο γεγονός ότι οι εταιρείες εισάγουν αυτοματισμούς κυρίως σε τομείς που μπορεί να ενισχύσουν την κερδοφορία, όπως το μάρκετινγκ, η λογιστική ή η τεχνολογία ορυκτών καυσίμων, αλλά δεν αυξάνουν την παραγωγικότητα για το σύνολο της οικονομίας ή δεν καλύπτουν κοινωνικές ανάγκες. Η Big Tech έχει μια ιδιαίτερη προσέγγιση στις επιχειρήσεις και την τεχνολογία που επικεντρώνεται στη χρήση αλγορίθμων για την αντικατάσταση των ανθρώπων. Δεν είναι τυχαίο ότι εταιρείες όπως η Google απασχολούν λιγότερο από το ένα δέκατο του αριθμού των εργαζομένων που απασχολούσαν στο παρελθόν μεγάλες επιχειρήσεις, όπως η General Motors. Αυτό είναι συνέπεια του επιχειρηματικού μοντέλου της Μεγάλης Τεχνολογίας, το οποίο βασίζεται όχι στη δημιουργία θέσεων εργασίας αλλά στην αυτοματοποίησή τους.

Αυτό είναι το επιχειρηματικό μοντέλο για την τεχνητή νοημοσύνη στο πλαίσιο του καπιταλισμού. Όμως, στο πλαίσιο της συνεταιριστικής κοινότητας που κατέχει αυτοματοποιημένα μέσα παραγωγής, υπάρχουν πολλές εφαρμογές της τεχνητής νοημοσύνης που θα μπορούσαν αντίθετα να αυξήσουν τις ανθρώπινες ικανότητες και να δημιουργήσουν νέα καθήκοντα στην εκπαίδευση, την υγειονομική περίθαλψη, ακόμη και στη μεταποίηση. Ο Acemoglu πρότεινε ότι “αντί να χρησιμοποιούμε την ΤΝ για αυτοματοποιημένη βαθμολόγηση, βοήθεια για το σπίτι, και όλο και περισσότερο για την αντικατάσταση των δασκάλων από αλγόριθμους, μπορούμε να επενδύσουμε στη χρήση της ΤΝ για την ανάπτυξη πιο εξατομικευμένων, μαθητοκεντρικών μεθόδων διδασκαλίας που είναι βαθμονομημένες στις συγκεκριμένες δυνατότητες ή αδυναμίες διαφορετικών ομάδων μαθητών. Τέτοιες τεχνολογίες θα οδηγούσαν στην απασχόληση περισσότερων εκπαιδευτικών, καθώς και στην αύξηση της ζήτησης για νέες δεξιότητες εκπαιδευτικών – έτσι ακριβώς πηγαίνοντας προς την κατεύθυνση της δημιουργίας νέων θέσεων εργασίας με επίκεντρο νέα καθήκοντα”. Και αντί να μειωθούν οι θέσεις εργασίας και τα μέσα διαβίωσης των ανθρώπων, η τεχνητή νοημοσύνη υπό κοινή ιδιοκτησία και σχεδιασμό θα μπορούσε να μειώσει τις ώρες ανθρώπινης εργασίας για όλους.

Και έπειτα υπάρχει και το ζήτημα της ενίσχυσης της κερδοφορίας που παρέχει η τεχνολογία ΤΝ. Ακόμα και αν οι επενδύσεις στα συστήματα LLM απαιτούν λιγότερα υλικά μέσα παραγωγής και μειώνουν το κόστος του κεφαλαίου αυτού, η απώλεια ανθρώπινης εργατικής δύναμης θα μπορούσε να είναι ακόμα μεγαλύτερη. Έτσι, ο νόμος του Μαρξ για την κερδοφορία θα εξακολουθούσε να ισχύει. Πρόκειται για τη μεγάλη αντίφαση του καπιταλισμού: η αύξηση της παραγωγικότητας της εργασίας μέσω περισσότερων μηχανών Τεχνητής Νοημοσύνης μειώνει την κερδοφορία του κεφαλαίου. Αυτό οδηγεί σε τακτικές και επαναλαμβανόμενες κρίσεις παραγωγής, επενδύσεων και απασχόλησης – αυξανόμενης έντασης και διάρκειας.

Τέλος, υπάρχει το ζήτημα της νοημοσύνης. Η Microsoft υποστηρίζει ότι η νοημοσύνη είναι μια “πολύ γενική νοητική ικανότητα που, μεταξύ άλλων, περιλαμβάνει την ικανότητα να συλλογίζεσαι, να σχεδιάζεις, να λύνεις προβλήματα, να σκέφτεσαι αφηρημένα, να κατανοείς σύνθετες ιδέες, να μαθαίνεις γρήγορα και να μαθαίνεις από την εμπειρία”. Η Microsoft υπαινίσσεται ότι τα LLM θα μπορούσαν σύντομα να αποκτήσουν αυτή τη “γενικευμένη νοημοσύνη” και να ξεπεράσουν κάθε ανθρώπινη ικανότητα σκέψης.

Αλλά ακόμη και εδώ, υπάρχει σκεπτικισμός. “Το μοντέλο ChatGPT είναι τεράστιο, αλλά δεν είναι αρκετά τεράστιο ώστε να κρατήσει κάθε ακριβές γεγονός που συνάντησε καθόλο το σύνολο της εκπαίδευσής του. Μπορεί να παράγει μια πειστική απάντηση σε οτιδήποτε, αλλά αυτό δεν σημαίνει ότι αντανακλούν οι απαντήσεις του πραγματικά γεγονότα. Πρέπει πάντα να είστε επιφυλακτικοί και να ελέγχετε τα γεγονότα που σας παρουσιάζει. Τα γλωσσικά μοντέλα φημίζονται επίσης για τις “παραισθήσεις” τους – για την επινόηση νέων γεγονότων που ταιριάζουν στη δομή της πρότασης, παρά το γεγονός ότι δεν έχουν καμία βάση στα υποκείμενα δεδομένα. Αυτό δεν είναι πολύ ενθαρρυντικό.

Αλλά ο Guglielmo Carchedi έχει έναν πιο θεμελιώδη λόγο να αρνείται ότι η τεχνητή νοημοσύνη μπορεί να αντικαταστήσει την ανθρώπινη “νοημοσύνη”: “Οι μηχανές συμπεριφέρονται μόνο σύμφωνα με τους κανόνες της τυπικής λογικής. Σε αντίθεση με τους ανθρώπους, οι μηχανές είναι δομικά ανίκανες να συμπεριφέρονται σύμφωνα με τους κανόνες της διαλεκτικής σκέψης. Μόνο οι άνθρωποι το κάνουν αυτό”. (Ο καπιταλισμός στον 21ο αιώνα, σ. 167).

Δείτε εδώ την απάντηση του ChatGPT στο διαλεκτικό ερώτημα: “Μπορεί το Α να είναι ίσο με το Α και ταυτόχρονα να είναι διαφορετικό από το Α;” “Όχι, δεν είναι δυνατόν το Α να είναι ίσο με το Α και ταυτόχρονα να είναι διαφορετικό από το Α. Αυτό θα αποτελούσε αντίφαση, καθώς η δήλωση “το Α είναι ίσο με το Α” είναι ταυτολογία και πάντα αληθής, ενώ η δήλωση “το Α είναι διαφορετικό από το Α” είναι αντίφαση και πάντα ψευδής. Επομένως, οι δύο αυτές δηλώσεις δεν μπορούν να είναι και οι δύο αληθείς ταυτόχρονα”.

Οι μηχανές δεν μπορούν να σκεφτούν δυνητικές και ποιοτικές αλλαγές. Η νέα γνώση προέρχεται από τέτοιους μετασχηματισμούς (άνθρωπος) και όχι από την επέκταση της υπάρχουσας γνώσης (μηχανές). Μόνο η ανθρώπινη νοημοσύνη είναι κοινωνική και μπορεί να δει τις δυνατότητες αλλαγής, ιδίως της κοινωνικής αλλαγής, που οδηγεί σε μια καλύτερη ζωή για την ανθρωπότητα και τη φύση.

Πηγή: The Next Recession

Μετάφραση: antapocrisis

Η ψευδής προσδοκία από το chatGPT

Ο Noam Chomsky, ο Ian Roberts και ο Jeffrey Watumull με άρθρο γνώμης στους New York Times απορρίπτουν την ιδέα ότι το chatGPT, η μηχανή μηχανικής μάθησης που έβγαλε στον διαδικτυακό αέρα η εταιρεία OpenAI με τη στήριξη της Microsoft, θα αντικαταστήσει την μοναδική ικανότητα του ανθρώπινου εγκεφάλου να σκέφτεται και να παράγει πρωτότυπες ιδέες και περιεχόμενα. 

Ο Χόρχε Λουίς Μπόρχες έγραψε κάποτε ότι το να ζεις σε μια εποχή μεγάλων κινδύνων και υποσχέσεων σημαίνει να βιώνεις ταυτόχρονα την τραγωδία και την κωμωδία, με αίσθηση μιας αποκάλυψης όταν κατανοούμε τον εαυτό μας και τον κόσμο. Σήμερα οι υποτιθέμενες επαναστατικές εξελίξεις στην τεχνητή νοημοσύνη αποτελούν πράγματι αιτία τόσο για ανησυχία όσο και για αισιοδοξία. Αισιοδοξία επειδή η νοημοσύνη είναι το μέσο με το οποίο λύνουμε τα προβλήματα. Ανησυχία επειδή φοβόμαστε ότι το πιο δημοφιλές και μοντέρνο τμήμα της τεχνητής νοημοσύνης – η μηχανική μάθηση – θα υποβαθμίσει την επιστήμη μας και θα εξευτελίσει την ηθική μας ενσωματώνοντας στην τεχνολογία μας μια θεμελιωδώς λανθασμένη αντίληψη για τη γλώσσα και τη γνώση.

Το ChatGPT της OpenAI, το Bard της Google και το Sydney της Microsoft είναι θαύματα της μηχανικής μάθησης. Μιλώντας χοντρικά, παίρνουν τεράστιες ποσότητες δεδομένων, αναζητούν μοτίβα σε αυτά και γίνονται όλο και πιο ικανά στο να παράγουν στατιστικά πιθανά αποτελέσματα – όπως φαινομενικά ανθρώπινη γλώσσα και σκέψη. Τα προγράμματα αυτά έχουν χαιρετιστεί ως οι πρώτες αναλαμπές στον ορίζοντα της τεχνητής γενικής νοημοσύνης – της από καιρό προφητευμένης στιγμής κατά την οποία τα μηχανικά μυαλά θα ξεπεράσουν τους ανθρώπινους εγκεφάλους όχι μόνο ποσοτικά από άποψη ταχύτητας επεξεργασίας και μεγέθους μνήμης αλλά και ποιοτικά από άποψη διανοητικής διορατικότητας, καλλιτεχνικής δημιουργικότητας και κάθε άλλης ξεχωριστής ανθρώπινης ικανότητας.

Αυτή η ημέρα μπορεί να έρθει, αλλά η αυγή της δεν έχει ακόμη ανατείλει, αντίθετα με ό,τι μπορεί να διαβάσει κανείς σε υπερβολικούς τίτλους ή αν συμπεράνει κανείς βλέποντας τις αλόγιστες επενδύσεις που γίνονται σε αυτή. Η μπορχεσιανή αποκάλυψη της κατανόησης δεν έχει συμβεί και δεν θα συμβεί – και, όπως υποστηρίζουμε, δεν μπορεί να συμβεί – αν τα προγράμματα μηχανικής μάθησης όπως το ChatGPT συνεχίσουν να κυριαρχούν στον τομέα της τεχνητής νοημοσύνης. Όσο χρήσιμα και αν είναι αυτά τα προγράμματα σε ορισμένους στενούς τομείς (μπορούν να είναι χρήσιμα στον προγραμματισμό υπολογιστών, για παράδειγμα, ή στο να προτείνουν ομοιοκαταληξίες για στίχους ελαφρών ποιημάτων), γνωρίζουμε από την επιστήμη της γλωσσολογίας και τη φιλοσοφία της γνώσης ότι διαφέρουν βαθύτατα από τον τρόπο με τον οποίο οι άνθρωποι σκέφτονται και χρησιμοποιούν τη γλώσσα. Αυτές οι διαφορές θέτουν σημαντικούς περιορισμούς σε ό,τι μπορούν να κάνουν αυτά τα προγράμματα, εγγράφοντας σε αυτά απαράγραπτα ελαττώματα.

Είναι ταυτόχρονα κωμικό και τραγικό, όπως θα μπορούσε να είχε σημειώσει ο Μπόρχες, το γεγονός ότι τόσα χρήματα και τόση προσοχή συγκεντρώνονται σε ένα τόσο μικρό πράγμα – κάτι τόσο ασήμαντο σε σύγκριση με τον ανθρώπινο νου, ο οποίος με τη βοήθεια της γλώσσας, σύμφωνα με τα λόγια του Βίλχελμ φον Χούμπολντ, μπορεί να κάνει “άπειρη χρήση πεπερασμένων μέσων”, δημιουργώντας ιδέες και θεωρίες με παγκόσμια εμβέλεια.

Το ανθρώπινο μυαλό δεν είναι, όπως το ChatGPT και οι όμοιοί του, μια βαριά στατιστική μηχανή για την αντιστοίχιση προτύπων, που καταβροχθίζει εκατοντάδες terabytes δεδομένων και εξάγει την πιο πιθανή απάντηση σε μια συνομιλία ή την πιο πιθανή απάντηση σε ένα επιστημονικό ερώτημα. Αντιθέτως, το ανθρώπινο μυαλό είναι ένα εκπληκτικά αποτελεσματικό και επιπλέον κομψό σύστημα που λειτουργεί με μικρές ποσότητες πληροφοριών- δεν επιδιώκει να συμπεράνει απλές συσχετίσεις μεταξύ σημείων δεδομένων αλλά να δημιουργήσει εξηγήσεις.

Για παράδειγμα, ένα μικρό παιδί που κατακτά μια γλώσσα αναπτύσσει – ασυνείδητα, αυτόματα και γρήγορα από μικροσκοπικά δεδομένα – μια γραμματική, ένα εκπληκτικά εξελιγμένο σύστημα λογικών αρχών και παραμέτρων. Αυτή η γραμματική μπορεί να γίνει κατανοητή ως έκφραση του έμφυτου, γενετικά εγκατεστημένου “λειτουργικού συστήματος” που προικίζει τους ανθρώπους με την ικανότητα να δημιουργούν σύνθετες προτάσεις και μακροσκελείς σκέψεις.

Πράγματι, τέτοια προγράμματα έχουν κολλήσει σε μια προανθρώπινη ή μη ανθρώπινη φάση της γνωστικής εξέλιξης. Το βαθύτερο ελάττωμά τους είναι η απουσία της πιο κρίσιμης ικανότητας οποιασδήποτε νοημοσύνης: να λένε όχι μόνο τι συμβαίνει, τι συνέβαινε και τι θα συμβεί – αυτό είναι η περιγραφή και η πρόβλεψη – αλλά και τι δεν συμβαίνει και τι θα μπορούσε και τι δεν θα μπορούσε να συμβεί. Αυτά είναι τα συστατικά της εξήγησης, το σημάδι της αληθινής νοημοσύνης.

Ακολουθεί ένα παράδειγμα. Ας υποθέσουμε ότι κρατάτε ένα μήλο στο χέρι σας. Τώρα αφήνετε το μήλο να φύγει. Παρατηρείτε το αποτέλεσμα και λέτε: “Το μήλο πέφτει”. Αυτό είναι μια περιγραφή. Μια πρόβλεψη θα μπορούσε να είναι η δήλωση “Το μήλο θα πέσει αν ανοίξω το χέρι μου”. Και τα δύο είναι πολύτιμα και και τα δύο μπορεί να είναι σωστά. Αλλά μια εξήγηση είναι κάτι περισσότερο: Περιλαμβάνει όχι μόνο περιγραφές και προβλέψεις αλλά και αντιφατικές εικασίες όπως “Οποιοδήποτε τέτοιο αντικείμενο θα έπεφτε”, συν την πρόσθετη πρόταση “λόγω της δύναμης της βαρύτητας” ή “λόγω της καμπυλότητας του χωροχρόνου” ή οτιδήποτε άλλο. Αυτή είναι μια αιτιώδης εξήγηση: “Το μήλο δεν θα είχε πέσει αν δεν υπήρχε η δύναμη της βαρύτητας”. Αυτό είναι σκέψη.

Η ουσία της μηχανικής μάθησης είναι η περιγραφή και η πρόβλεψη- δεν θέτει αιτιώδεις μηχανισμούς ή φυσικούς νόμους. Φυσικά, οποιαδήποτε εξήγηση ανθρώπινου τύπου δεν είναι απαραίτητα σωστή- δεν είμαστε αλάνθαστοι. Αλλά αυτό είναι μέρος του τι σημαίνει να σκέφτεσαι: Για να έχεις δίκιο, πρέπει να είναι δυνατόν να κάνεις λάθος. Η νοημοσύνη δεν συνίσταται μόνο σε δημιουργικές εικασίες αλλά και σε δημιουργική κριτική. Η σκέψη ανθρώπινου τύπου βασίζεται στις πιθανές εξηγήσεις και στη διόρθωση των λαθών, μια διαδικασία που σταδιακά περιορίζει τις δυνατότητες που μπορούν να εξεταστούν ορθολογικά. (Όπως είπε ο Σέρλοκ Χολμς στον Δρ Γουάτσον: “Όταν έχεις εξαλείψει το αδύνατο, ό,τι απομένει, όσο απίθανο κι αν είναι, πρέπει να είναι η αλήθεια”).

Κατά διεστραμμένο τρόπο, ορισμένοι λάτρεις της μηχανικής μάθησης φαίνεται να είναι υπερήφανοι που οι δημιουργίες τους μπορούν να παράγουν σωστές “επιστημονικές” προβλέψεις (π.χ. για την κίνηση των φυσικών σωμάτων) χωρίς να χρησιμοποιούν εξηγήσεις (που περιλαμβάνουν, ας πούμε, τους νόμους του Νεύτωνα για την κίνηση και την παγκόσμια βαρύτητα). Αλλά αυτού του είδους οι προβλέψεις, ακόμη και όταν είναι επιτυχείς, είναι ψευδοεπιστήμη. Ενώ οι επιστήμονες αναζητούν ασφαλώς θεωρίες που έχουν υψηλό βαθμό εμπειρικής επιβεβαίωσης, όπως σημείωσε ο φιλόσοφος Καρλ Πόπερ, “δεν αναζητούμε θεωρίες υψηλής πιθανότητας αλλά εξηγήσεις- δηλαδή ισχυρές και εξαιρετικά απίθανες θεωρίες”.

Η θεωρία ότι τα μήλα πέφτουν στη γη επειδή αυτή είναι η φυσική τους θέση (άποψη του Αριστοτέλη) είναι πιθανή, αλλά το μόνο που κάνει είναι να προκαλεί περαιτέρω ερωτήματα. (Γιατί η γη είναι ο φυσικός τους τόπος;). Η θεωρία ότι τα μήλα πέφτουν στη γη επειδή η μάζα κάμπτει τον χωροχρόνο (άποψη του Αϊνστάιν) είναι εξαιρετικά απίθανη, αλλά στην πραγματικότητα σας λέει γιατί πέφτουν. Η αληθινή ευφυΐα αποδεικνύεται στην ικανότητα να σκέφτεσαι και να εκφράζεις απίθανα αλλά διορατικά πράγματα.

Η αληθινή νοημοσύνη είναι επίσης ικανή για ηθική σκέψη. Αυτό σημαίνει ότι περιορίζει την κατά τα άλλα απεριόριστη δημιουργικότητα του μυαλού μας με ένα σύνολο ηθικών αρχών που καθορίζουν τι πρέπει και τι δεν πρέπει να γίνεται (και φυσικά υποβάλλοντας τις ίδιες αυτές τις αρχές σε δημιουργική κριτική). Για να είναι χρήσιμο, το ChatGPT πρέπει να έχει τη δυνατότητα να παράγει αποτελέσματα που μοιάζουν με μυθιστόρημα- για να είναι αποδεκτό από τους περισσότερους χρήστες του, πρέπει να αποφεύγει το ηθικά επιλήψιμο περιεχόμενο. Αλλά οι προγραμματιστές του ChatGPT και άλλων θαυμάτων μηχανικής μάθησης έχουν αγωνιστεί – και θα συνεχίσουν να αγωνίζονται – για να επιτύχουν αυτού του είδους την ισορροπία.

Εν ολίγοις, το ChatGPT και τα αδέλφια του είναι καταστατικά ανίκανα να εξισορροπήσουν τη δημιουργικότητα με τους περιορισμούς. Είτε υπερ-δημιουργούν (παράγοντας τόσο αλήθειες όσο και ψεύδη, υποστηρίζοντας ηθικές και ανήθικες αποφάσεις), είτε υπο-δημιουργούν (επιδεικνύοντας μη δέσμευση για οποιαδήποτε απόφαση και αδιαφορία για τις συνέπειες). Δεδομένης της ανηθικότητας, της ψευδοεπιστήμης και της γλωσσικής ανικανότητας αυτών των συστημάτων, δεν μπορούμε παρά να γελάσουμε ή να κλάψουμε με τη δημοτικότητά τους.

Πηγή: New York Times

Μετάφραση: antapocrisis