Η εξέλιξη της Τεχνητής Νοημοσύνης δεν είναι μια προκαθορισμένη διαδρομή
Πριν 5 βδομάδες οι βασικοί ηγέτες των μονοπωλίων της τεχνολογίας (Musk-Twitter, Facebook, Bozniac – Apple, Amazon, Googleκ.α) δημοσίευσαν την έκκληση των 1000 για την παύση των ερευνών στην Τεχνητή Νοημοσύνη για 6 μήνες, έτσι ώστε να ρυθμιστεί νομικά-ηθικά-επιστημονικά-πολιτικά το πλαίσιο που διέπει τις εφαρμογές της Τεχνητής Νοημοσύνης. Η ανάγκη “προέκυψε” μετά την έκρηξη της συζήτησης που προκάλεσε το Γλωσσικό Μοντέλο ChatGpt. Τις επόμενες βδομάδες κυκλοφόρησαν και άλλες εκκλήσεις. Από τον σταρ διανοητή NoalHarari έως τον επονομαζόμενο «πατέρα» της τεχνητής νοημοσύνης Τζέφρι Χίντον.
Πέρα από την προφανή σκοπιμότητα, καθώς κάποιοι έμειναν πίσω στην κούρσα του ανταγωνισμού, όταν η εταιρεία OpenAI έβγαλε τη νέα έκδοση του ChatGpt, το επιχείρημα των “γκουρού” της τεχνολογίας, πως όπως γύρω από την επιστημονική γνώση για το DNA ή την πυρηνική τεχνολογία απαιτείται “μια κάποια ρύθμιση” έτσι απαιτείται και για τη γνώση γύρω από την τεχνητή νοημοσύνη, είναι αστείο. Η γνώση για την τεχνητή νοημοσύνη ήδη είναι ενσωματωμένη σε εφαρμογές που τους αποφέρουν τεράστια κέρδη, ακριβώς επειδή δεν υπάρχει σχεδόν κανένα πλαίσιο κοινωνικού ελέγχου γύρω από τα δεδομένα, τις εφαρμογές, τους αλγορίθμους, το ποιος κατέχει, σε τελική ανάλυση, τα τεράστια υπολογιστικά συστήματα και τις απίστευτες ποσότητες δεδομένων που απαιτούν τα συστήματα τεχνητής νοημοσύνης. Επιπλέον μια οποιαδήποτε ρύθμιση για τη δημιουργία ενός στοιχειώδους πλαισίου κοινωνικού ελέγχου της τεχνητής νοημοσύνης απαιτεί χρόνια και όχι 6 μήνες, όπως ζητούν οι υπογράφοντες την έκκληση για μορατόριο. Ειδικά αν συνυπολογίσουμε την Κίνα, τη Σαουδική Αραβία και άλλες μη δυτικές χώρες που αναπτύσσουν τέτοιες τεχνολογίες.
Ως μια πιο ουσιαστική οπτική, πέρα από τις «ευαισθησίες» όσων βγάζουν δισεκατομμύρια από την ανεξέλεγκτη ανάπτυξη των μονοπωλίων της τεχνολογίας, δημοσιεύουμε την κριτική που κάνουν οι συγγραφείς της εργασίας “Στοχαστικοί Παπαγάλοι”, που δημοσιεύτηκε το 2020 και αφορά τις εφαρμογές των Μεγάλων Γλωσσικών Μοντέλων όπως το ChatGPT, που τότε δεν είχε βγει ακόμα στη σημερινή βελτιωμένη εκδοχή του. Η έρευνα αυτή κάνει κριτική στον τρόπο ανάπτυξης αυτών των συστημάτων για περιβαλλοντικούς λόγους (απαιτούνται τεράστιοι υπολογιστές), λόγους εξαπάτησης και αξιοπιστίας καθώς όποιος ελέγχει τα δεδομένα που εισάγονται σε αυτές τις εφαρμογές αλλά και των κώδικα και την δομή αυτών των συστημάτων, παράγει και επιθυμητά γι’ αυτόν αποτελέσματα. Σημειωτέον, δύο από τους συγγραφείς απολύθηκαν από την Google όπου και εργαζόντουσαν στον τομέα της Δεοντολογίας και της Ηθικής, γιατί αρνήθηκαν να αποσύρουν το όνομά τους από την συγκεκριμένη εργασία.
https://www.dair-institute.org/blog/letter-statement-March2023
Δήλωση από τους συγγραφείς του StochasticParrots σχετικά με την επιστολή “AI pause”.
TimnitGebru (DAIR), Emily M. Bender (University of Washington), Angelina McMillan-Major (University of Washington), Margaret Mitchell (Hugging Face)
31 Μαρτίου 2023
Οι βλάβες από τη λεγόμενη τεχνητή νοημοσύνη είναι πραγματικές και παρούσες και απορρέουν από τις πράξεις ανθρώπων και εταιρειών που αναπτύσσουν αυτοματοποιημένα συστήματα. Οι προσπάθειες ρύθμισης θα πρέπει να επικεντρωθούν στη διαφάνεια, τη λογοδοσία και την πρόληψη των πρακτικών εκμετάλλευσης της εργασίας.
Την Τρίτη 28 Μαρτίου, το Ινστιτούτο FutureofLife(σμ: αμερικανικό ινστιτούτο με βασικό χρηματοδότη τον Έλον Μασκ) δημοσίευσε μια επιστολή ζητώντας ελάχιστο μορατόριουμ έξι μηνών για την περαιτέρω ανάπτυξη και «εκπαίδευση συστημάτων τεχνητής νοημοσύνης πιο ισχυρά από το GPT-4», υπογεγραμμένη από περισσότερα από 2.000 άτομα, μεταξύ των οποίων ο νικητής του βραβείου TuringYoshuaBengio και ενός από τους πλουσιότερους ανθρώπους του κόσμου, του Έλον Μασκ.
Ενώ υπάρχουν ορισμένες συστάσεις στην επιστολή με τις οποίες συμφωνούμε (και προτείνονται στην επιστημονική μας έκθεση του 2021, γνωστή ανεπίσημα ως “StochasticParrots”), όπως “συστήματα προέλευσης και υδατοσήμανσης που βοηθούν στη διάκριση των ψηφιακών προϊόντων που έχουν φτιαχτεί από άνθρωπο σε σχέση με ψηφιακά προϊόντα που έχουν φτιαχτεί από συστήματα τεχνητής νοημοσύνης”, αυτά επισκιάζονται από τη διακίνηση του φόβου και την εκστρατεία, που προσανατολίζει τη συζήτηση στους μελλοντικούς κινδύνους των φανταστικών «ισχυρών ψηφιακών μυαλών» με «ανθρώπινη-ανταγωνιστική νοημοσύνη» που δήθεν θα κυριεύσουν την ανθρωπότητα. Αυτοί οι υποθετικοί και κάπως φουτουριστικοί κίνδυνοι είναι το κεντρικό στοιχείο μιας επικίνδυνης άποψης που δήθεν προσπαθεί να δει τις εξελίξεις μακροχρόνια ενώ αγνοεί τις πραγματικές συνέπειες που προκύπτουν από την ανάπτυξη συστημάτων τεχνητής νοημοσύνης σήμερα. Η επιστολή δεν αναφέρεται σε καμία από τις συνεχιζόμενες βλάβες από αυτά τα συστήματα, συμπεριλαμβανομένης 1) της εκμετάλλευσης εργαζομένων και της μαζικής κλοπής δεδομένων για τη δημιουργία προϊόντων που ωφελούν μια χούφτα εταιρείες και κράτη, 2) την έκρηξη των αυτόματων συστημάτων που υπηρετούν την κυρίαρχη καταπιεστική ιδεολογία και κατευθύνουν την γνώση και την πληροφορία 3) τη συγκέντρωση της εξουσίας στα χέρια λίγων ανθρώπων και εταιρειών που επιδεινώνει τις κοινωνικές ανισότητες.
Αν και δεν μας εκπλήσσει που βλέπουμε αυτό το είδος επιστολής από έναν οργανισμό όπως το FutureofLifeInstitute, το οποίο γενικά οραματίζεται ένα μέλλον στο οποίο γινόμαστε βελτιωμένοι μεταάνθρωποι, αποικίζουμε το διάστημα και δημιουργούμε τρισεκατομμύρια ψηφιακούς ανθρώπους, είμαστε απογοητευμένοι που βλέπουμε τον αριθμό των επαγγελματιών της πληροφορικής που έχουν υπογράψει αυτήν την επιστολή και τη θετική κάλυψη που έχει λάβει από τα μέσα ενημέρωσης. Είναι επικίνδυνο να εστιάσουμε την προσοχή μας σε μια φανταστική ουτοπία ή αποκάλυψη που υποστηρίζει την τεχνητή νοημοσύνη, η οποία υπόσχεται είτε ένα «ακμάζον» ή «δυνητικά καταστροφικό» μέλλον [1]. Μια τέτοια γλώσσα που διογκώνει τις δυνατότητες των αυτοματοποιημένων συστημάτων και τα ανθρωπομορφοποιεί, όπως σημειώνουμε στο StochasticParrots, εξαπατά τους ανθρώπους να πιστεύουν ότι υπάρχει ένα ον που αισθάνεται πίσω από αυτά τα τεχνητά και αυτοματοποιημένα συστήματα. Αυτό όχι μόνο παρασύρει τους ανθρώπους να εμπιστεύονται άκριτα τα αποτελέσματα συστημάτων όπως το ChatGPT, αλλά επίσης αποπροσανατολίζει από το πρόβλημα. Το πρόβλημα αξιοπιστίας δεν εναπόκειται στα τεχνουργήματα και στους αλγορίθμους τους αλλά στους κατασκευαστές τους.
Αυτό που χρειαζόμαστε είναι ρύθμιση που να επιβάλλει τη διαφάνεια. Όχι μόνο θα πρέπει να είναι πάντα σαφές ότι συζητάμε για τεχνικά και όχι ανθρώπινα μέσα, αλλά οι οργανισμοί που κατασκευάζουν αυτά τα συστήματα θα πρέπει επίσης να υποχρεούνται να τεκμηριώνουν και να αποκαλύπτουν τα δεδομένα με τα οποία εκπαιδεύονται αυτά τα συστήματα όπως και την εσωτερική τους αρχιτεκτονική και τους αλγορίθμους με τους οποίους βγάζουν τα αποτελέσματα τους. Το τι αποτελέσματα βγάζει ένα τέτοιο σύστημα τεχνητής νοημοσύνης και αν είναι ασφαλές στη χρήση θα πρέπει να βαρύνει τις εταιρείες που τα κατασκευάζουν και αναπτύσσουν, πράγμα που σημαίνει ότι οι κατασκευαστές αυτών των συστημάτων θα πρέπει να λογοδοτούν για τα αποτελέσματα που παράγονται από τα προϊόντα τους. Αν και συμφωνούμε ότι «τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες τεχνολογίας», σημειώνουμε επίσης ότι τέτοιες αποφάσεις δεν πρέπει να εξαρτώνται από τους ακαδημαϊκούς που βιώνουν, με το αζημίωτο από τη SiliconValley, ένα «καλοκαίρι AI». Λόγο θα πρέπει να έχουν και οι καταπιεσμένοι που επηρεάζονται περισσότερο από τα συστήματα τεχνητής νοημοσύνης. Μετανάστες που χωρίς ψηφιακή ταυτότητα απελαύνονται (σμ: πρόκειται για πρόσφατη εφαρμογή στα σύνορα ΗΠΑ-Μεξικού), οι γυναίκες στο ΙΡΑΝ που διώκονται από συστήματα αναγνώρισης προσώπου αν ντύνονται διαφορετικά, οι χιλιάδες εργαζόμενοι στην Αφρική και την Ασία που εκμεταλλεύονται οι κολοσσοί νέων τεχνολογιών, για να διορθώνουν τα συστήματα «τεχνητής νοημοσύνης», με λιγότερο από 2 δολάρια την ώρα, οι καλλιτέχνες που βλέπουν τη δουλειά τους να κλέβεται για εταιρικό κέρδος, οι εργαζόμενοι που δυσκολεύονται να πληρώσουν τους λογαριασμούς τους και υφίστανται αποκλεισμούς από συστήματα τεχνητής νοημοσύνης.
Σε αντίθεση με την αφήγηση της επιστολής ότι πρέπει να «προσαρμοστούμε» σε ένα προκαθορισμένο τεχνολογικό μέλλον και να αντιμετωπίσουμε «τις δραματικές οικονομικές και πολιτικές αναταραχές (ειδικά στη δημοκρατία) που θα προκαλέσει η τεχνητή νοημοσύνη», δεν συμφωνούμε ότι ο ρόλος μας είναι να προσαρμοστούμε στις προτεραιότητες λίγων προνομιούχων και στο τι προσανατολισμό αποφασίζουν να δώσουν στην τεχνολογία. Θα πρέπει να κατασκευάζουμε μηχανές που να λειτουργούν για εμάς, αντί να “προσαρμόζουμε” την κοινωνία στις ανάγκες των αυτοματοποιημένων συστημάτων. Η τρέχουσα κούρσα προς όλο και μεγαλύτερα «πειράματα τεχνητής νοημοσύνης» δεν είναι μια προκαθορισμένη διαδρομή όπου η μόνη μας επιλογή είναι το πόσο γρήγορα θα τρέξουμε, αλλά ένα σύνολο αποφάσεων που οδηγούνται από το κίνητρο του κέρδους. Οι ενέργειες και οι επιλογές των εταιρειών πρέπει να διαμορφώνονται από κανονισμούς που προστατεύουν τα δικαιώματα και τα συμφέροντα της κοινωνίας και όχι το ανάποδο.
Είναι πράγματι καιρός να δράσουμε: αλλά το επίκεντρο της ανησυχίας μας δεν πρέπει να είναι τα φανταστικά «ισχυρά ψηφιακά μυαλά». Αντίθετα, θα πρέπει να επικεντρωθούμε στις πολύ πραγματικές και πολύ παρούσες εμπορικές και άλλες πρακτικές εκμετάλλευσης των εταιρειών που κατασκευάζουν και ελέγχουν αυτά τα «ψηφιακά μυαλά», οι οποίες συγκεντρώνουν γύρω τους, με απίστευτο ρυθμό, την εξουσία και αυξάνουν δραματικά τις κοινωνικές ανισότητες.
———
[1] Σημειώνουμε ότι η ευγονική, μια πολύ πραγματική και επιβλαβής πρακτική με ρίζες στον 19ο αιώνα και μέχρι σήμερα, παρατίθεται στην υποσημείωση 5 της επιστολής μας ως παράδειγμα κάτι που είναι επίσης μόνο «δυνητικά καταστροφικό», καθώς υπόκειται σε κοινωνικό και επιστημονικό έλεγχο.
Leave a Reply
Want to join the discussion?Feel free to contribute!