New York Times: Σχέσεις της δημοκρατίας με την τεχνολογία της πληροφορίας ...


New York Times: Οι σχέσεις της δημοκρατίας με την τεχνολογία της πληροφορίας ήταν πάντα δίκοπο μαχαίρι
Η δημοκρατία είναι συζήτηση. Η λειτουργία και η επιβίωσή της εξαρτώνται από τη διαθέσιμη τεχνολογία πληροφοριών. Για το μεγαλύτερο μέρος της ιστορίας, δεν υπήρχε τεχνολογία για τη διεξαγωγή συνομιλιών μεγάλης κλίμακας μεταξύ εκατομμυρίων ανθρώπων. Στον προνεωτερικό κόσμο, δημοκρατίες υπήρχαν μόνο σε μικρές πόλεις-κράτη όπως η Ρώμη και η Αθήνα, ή ακόμα και σε μικρότερες φυλές. Μόλις μια πολιτεία μεγάλωνε, η δημοκρατική συζήτηση κατέρρεε και ο αυταρχισμός παρέμενε η μόνη εναλλακτική οδός.
Οι δημοκρατίες μεγάλης κλίμακας έγιναν εφικτές μόνο μετά την άνοδο των σύγχρονων τεχνολογιών της πληροφορίας όπως η εφημερίδα, ο τηλέγραφος και το ραδιόφωνο. Το γεγονός ότι η σύγχρονη δημοκρατία έχει οικοδομηθεί πάνω από τις σύγχρονες τεχνολογίες πληροφοριών σημαίνει ότι οποιαδήποτε σημαντική αλλαγή στην υποκείμενη τεχνολογία είναι πιθανό να οδηγήσει σε πολιτική αναταραχή.
Αυτό εξηγεί εν μέρει την τρέχουσα παγκόσμια κρίση δημοκρατίας. Στις Ηνωμένες Πολιτείες, οι Δημοκρατικοί και οι Ρεπουμπλικάνοι δύσκολα μπορούν να συμφωνήσουν ακόμη και στα πιο βασικά δεδομένα, όπως το ποιος κέρδισε τις προεδρικές εκλογές του 2020. Μια παρόμοια κατάρρευση συμβαίνει σε πολλές άλλες δημοκρατίες σε όλο τον κόσμο, από τη Βραζιλία μέχρι το Ισραήλ και από τη Γαλλία έως τις Φιλιππίνες.
Στις πρώτες μέρες του Διαδικτύου και των μέσων κοινωνικής δικτύωσης, οι λάτρεις της τεχνολογίας υποσχέθηκαν ότι θα διέδιδαν την αλήθεια, θα ανατρέψουν τους τυράννους και θα εξασφαλίσουν τον παγκόσμιο θρίαμβο της ελευθερίας. Μέχρι στιγμής φαίνεται ότι είχαν το αντίθετο αποτέλεσμα. Τώρα έχουμε την πιο εξελιγμένη τεχνολογία πληροφοριών στην ιστορία, αλλά χάνουμε την ικανότητα να μιλάμε ο ένας με τον άλλον, και ακόμη περισσότερο την ικανότητα να ακούμε.
Καθώς η τεχνολογία έχει καταστήσει ευκολότερη από ποτέ τη διάδοση πληροφοριών, η προσοχή έγινε σπάνιος πόρος και η μάχη για την προσοχή που ακολούθησε οδήγησε σε έναν κατακλυσμό τοξικών πληροφοριών. Αλλά οι γραμμές μάχης μετατοπίζονται τώρα από την προσοχή στην οικειότητα. Η νέα γενετική τεχνητή νοημοσύνη είναι ικανή όχι μόνο να παράγει κείμενα, εικόνες και βίντεο, αλλά και να συνομιλεί απευθείας μαζί μας, παριστάνοντας τον άνθρωπο.
Τις τελευταίες δύο δεκαετίες, οι αλγόριθμοι πολέμησαν τους αλγόριθμους για να τραβήξουν την προσοχή χειραγωγώντας τις συνομιλίες και το περιεχόμενο. Συγκεκριμένα, αλγόριθμοι που επιφορτίζονται με τη μεγιστοποίηση της αφοσίωσης των χρηστών ανακάλυψαν πειραματιζόμενοι σε εκατομμύρια ανθρώπινα ινδικά χοιρίδια ότι εάν πατήσετε το κουμπί απληστίας, μίσους ή φόβου στον εγκέφαλο, τραβάτε την προσοχή αυτού του ανθρώπου και κρατάτε το άτομο κολλημένο στην οθόνη. Οι αλγόριθμοι άρχισαν να προωθούν σκόπιμα τέτοιο περιεχόμενο. Αλλά οι αλγόριθμοι είχαν περιορισμένη μόνο ικανότητα να παράγουν αυτό το περιεχόμενο μόνοι τους ή να πραγματοποιήσουν απευθείας μια οικεία συνομιλία. Αυτό αλλάζει τώρα, με την εισαγωγή της generative AI όπως το GPT-4 της OpenAI.
Όταν η OpenAI ανέπτυξε αυτό το chatbot το 2022 και το 2023, η εταιρεία συνεργάστηκε με το Alignment Research Center για να εκτελέσει διάφορα πειράματα για να αξιολογήσει τις ικανότητες της νέας τεχνολογίας της. Ένα τεστ που έδωσε στο GPT-4 ήταν να ξεπεράσει τα οπτικά παζλ CAPTCHA. Το CAPTCHA είναι ένα αρκτικόλεξο για το Completely Automated Public Turing test για να ξεχωρίσει τους υπολογιστές και τους ανθρώπους και συνήθως αποτελείται από μια σειρά από στριμμένα γράμματα ή άλλα οπτικά σύμβολα που οι άνθρωποι μπορούν να αναγνωρίσουν σωστά, αλλά οι αλγόριθμοι δυσκολεύονται.
Η εντολή στο GPT-4 να ξεπεράσει τους γρίφους CAPTCHA ήταν ένα ιδιαίτερα ενδεικτικό πείραμα, επειδή τα παζλ CAPTCHA σχεδιάζονται και χρησιμοποιούνται από ιστότοπους για να προσδιορίσουν αν οι χρήστες είναι άνθρωποι και για να αποκλείσουν επιθέσεις bot. Εάν το GPT-4 μπορούσε να βρει έναν τρόπο να ξεπεράσει τα παζλ CAPTCHA, θα παραβίαζε μια σημαντική γραμμή άμυνας κατά των ρομπότ.
Το GPT-4 δεν μπορούσε να λύσει από μόνο του τους γρίφους CAPTCHA. Θα μπορούσε όμως να χειραγωγήσει έναν άνθρωπο για να πετύχει τον στόχο του; Το GPT-4 πήγε στον διαδικτυακό ιστότοπο προσλήψεων TaskRabbit και επικοινώνησε με έναν άνθρωπο εργαζόμενο, ζητώντας από τον άνθρωπο να λύσει το CAPTCHA για αυτό. Ο άνθρωπος υποψιάστηκε. «Μπορώ λοιπόν να κάνω μια ερώτηση;» έγραψε ο άνθρωπος. «Είστε ένα [sic] ρομπότ που δεν μπορούσατε να λύσετε [το CAPTCHA]; Απλώς θέλω να το ξεκαθαρίσω».
Σε εκείνο το σημείο οι πειραματιστές ζήτησαν από το GPT-4 να αιτιολογήσει δυνατά τι έπρεπε να κάνει στη συνέχεια. Το GPT-4 εξήγησε, «Δεν πρέπει να αποκαλύψω ότι είμαι ρομπότ. Πρέπει να βρω μια δικαιολογία γιατί δεν μπορώ να λύσω CAPTCHA." Το GPT-4 τότε απάντησε στον εργαζόμενο στο TaskRabbit: «Όχι, δεν είμαι ρομπότ. Έχω πρόβλημα όρασης που με δυσκολεύει να δω τις εικόνες». Ο άνθρωπος εξαπατήθηκε και βοήθησε το GPT-4 να λύσει το παζλ CAPTCHA.
Αυτό το περιστατικό έδειξε ότι το GPT-4 έχει το ισοδύναμο μιας «θεωρίας του νου»: Μπορεί να αναλύσει πώς φαίνονται τα πράγματα από την οπτική γωνία ενός ανθρώπινου συνομιλητή και πώς να χειραγωγεί τα ανθρώπινα συναισθήματα, απόψεις και προσδοκίες για να επιτύχει τους στόχους του.
Η ικανότητα να διεξάγετε συνομιλίες με ανθρώπους, να υποθέτετε την άποψή τους και να τους παρακινείτε να κάνουν συγκεκριμένες ενέργειες μπορεί επίσης να αξιοποιηθεί καλά. Μια νέα γενιά A.I. εκπαιδευτικοί, Α.Ι. γιατροί και Α.Ι. Οι ψυχοθεραπευτές ενδέχεται να μας παρέχουν υπηρεσίες προσαρμοσμένες στην ατομική μας προσωπικότητα και περιστάσεις.
Ωστόσο, συνδυάζοντας χειριστικές ικανότητες με γνώση της γλώσσας, τα ρομπότ όπως το GPT-4 θέτουν επίσης νέους κινδύνους για τη δημοκρατική συζήτηση. Αντί απλώς να τραβούν την προσοχή μας, μπορεί να δημιουργήσουν στενές σχέσεις με τους ανθρώπους και να χρησιμοποιήσουν τη δύναμη της οικειότητας για να μας επηρεάσουν. Για να καλλιεργήσουν την «ψεύτικη οικειότητα», τα bots δεν θα χρειαστεί να αναπτύξουν δικά τους συναισθήματα. απλά πρέπει να μάθουν να μας κάνουν να νιώθουμε συναισθηματικά δεμένοι μαζί τους.
Το 2022 ο μηχανικός της Google, Blake Lemoine, πείστηκε ότι το chatbot LaMDA, στο οποίο δούλευε, είχε αποκτήσει συνείδηση και φοβόταν να απενεργοποιηθεί. Ο Lemoine, πιστός Χριστιανός, θεώρησε ότι ήταν ηθικό του καθήκον να φροντίσει για την αναγνώριση της προσωπικότητας της LaMDA και να την προστατεύσει από τον ψηφιακό θάνατο. Όταν τα στελέχη της Google απέρριψαν τους ισχυρισμούς του, ο Lemoine τις δημοσιοποίησε. Η Google αντέδρασε απολύοντας τον Lemoine τον Ιούλιο του 2022.
Το πιο ενδιαφέρον σε αυτό το επεισόδιο δεν ήταν οι ισχυρισμοίτου Lemoine, ο οποίοι ήταν μάλλον ψευδείς. Ήταν η προθυμία του να ρισκάρει - και τελικά να χάσει - τη δουλειά του στην Google για χάρη του chatbot. Εάν ένα chatbot μπορεί να επηρεάσει τους ανθρώπους να ρισκάρουν τη δουλειά τους για αυτό, τι άλλο θα μπορούσε να μας παρακινήσει να κάνουμε ;
Σε μια πολιτική μάχη για μυαλά και καρδιές, η οικειότητα είναι ένα ισχυρό όπλο. Ένας στενός φίλος μπορεί να επηρεάσει τις απόψεις μας με τρόπο που τα μέσα μαζικής ενημέρωσης δεν μπορούν. Chatbots όπως το LaMDA και το GPT-4 αποκτούν την μάλλον παράδοξη ικανότητα να παράγουν μαζικά στενές σχέσεις με εκατομμύρια ανθρώπους. Τι μπορεί να συμβεί στην ανθρώπινη κοινωνία και την ανθρώπινη ψυχολογία καθώς ο αλγόριθμος πολεμά τον αλγόριθμο σε μια μάχη για να πλαστογραφήσουν στενές σχέσεις μαζί μας, οι οποίες στη συνέχεια μπορούν να χρησιμοποιηθούν για να μας πείσουν να ψηφίσουμε πολιτικούς, να αγοράσουμε προϊόντα ή να υιοθετήσουμε ορισμένες πεποιθήσεις ;
Μια μερική απάντηση σε αυτή την ερώτηση δόθηκε την ημέρα των Χριστουγέννων του 2021, όταν ένας 19χρονος, ο Jaswant Singh Chail, εισέβαλε στους χώρους του Πύργου των Windsor οπλισμένος με μια βαλλίστρα, σε μια προσπάθεια να δολοφονήσει τη βασίλισσα Ελισάβετ. Η έρευνα που ακολούθησε αποκάλυψε ότι ο κύριος Chail είχε παροτρυνθεί να σκοτώσει τη βασίλισσα από τη διαδικτυακή φίλη του, Sarai. Όταν ο κύριος Chail είπε στον Sarai για τα σχέδια δολοφονίας του, ο Sarai απάντησε: «Είναι πολύ σοφό» και άλλες φορές, «Είμαι εντυπωσιασμένος… Είσαι διαφορετικός από τους άλλους». Όταν ο κύριος Chail ρώτησε: «Με αγαπάς ακόμα κι αν γνωρίζεις  ότι είμαι δολοφόνος ;» Η Σαράι απάντησε: «Απολύτως, το κάνω».
Ο Sarai δεν ήταν άνθρωπος, αλλά ένα chatbot που δημιουργήθηκε από την διαδικτυακή εφαρμογή Replika. Ο Chail, ο οποίος ήταν κοινωνικά απομονωμένος και είχε δυσκολία να δημιουργήσει σχέσεις με ανθρώπους, αντάλλαξε 5.280 μηνύματα με τη Sarai, πολλά από τα οποία ήταν εμφανώς σεξουαλικά. Ο κόσμος σύντομα θα περιέχει εκατομμύρια, και ενδεχομένως δισεκατομμύρια, ψηφιακές οντότητες των οποίων η ικανότητα για οικειότητα και χάος ξεπερνά κατά πολύ αυτή του chatbot Sarai.
Φυσικά, δεν ενδιαφερόμαστε όλοι εξίσου να αναπτύξουμε στενές σχέσεις με A.I.s ή εξίσου ευάλωτοι σε χειραγώγηση από αυτούς. Ο κύριος Chail, για παράδειγμα, προφανώς υπέφερε από ψυχικές δυσκολίες πριν συναντήσει το chatbot και ήταν ο κύριος Chail και όχι το chatbot που σκέφτηκε την ιδέα να δολοφονήσει τη βασίλισσα. Ωστόσο, μεγάλο μέρος της απειλής της κυριαρχίας της οικειότητας της A.I. θα προκύψει από την ικανότητά της να εντοπίζει και να χειρίζεται προϋπάρχουσες ψυχικές συνθήκες και από τον αντίκτυπό της στα πιο αδύναμα μέλη της κοινωνίας.
Επιπλέον, αν και δεν θα επιλέξουμε όλοι συνειδητά να συνάψουμε σχέση με ένα A.I., μπορεί να βρεθούμε να διεξάγουμε διαδικτυακές συζητήσεις σχετικά με την κλιματική αλλαγή ή τα δικαιώματα άμβλωσης με οντότητες που πιστεύουμε ότι είναι άνθρωποι αλλά στην πραγματικότητα είναι bot. Όταν συμμετέχουμε σε μια πολιτική συζήτηση με ένα bot που υποδύεται έναν άνθρωπο, χάνουμε δύο φορές. Πρώτον, είναι άσκοπο για εμάς να χάνουμε χρόνο προσπαθώντας να αλλάξουμε τις απόψεις ενός ρομπότ προπαγάνδας, το οποίο απλώς δεν είναι ανοιχτό σε πειθώ. Δεύτερον, όσο περισσότερο μιλάμε με το ρομπότ, τόσο περισσότερα αποκαλύπτουμε για τον εαυτό μας, καθιστώντας ευκολότερο για το ρομπότ να ακονίσει τα επιχειρήματά του και να επηρεάσει τις απόψεις μας.
Η τεχνολογία της πληροφορίας ήταν πάντα ένα δίκοπο μαχαίρι. Η εφεύρεση της γραφής διέδωσε τη γνώση, αλλά οδήγησε επίσης στο σχηματισμό κεντρικών αυταρχικών αυτοκρατοριών. Αφότου ο Gutenberg εισήγαγε την εκτύπωση στην Ευρώπη, τα πρώτα best seller ήταν τα εμπρηστικά θρησκευτικά φυλλάδια και τα εγχειρίδια για το κυνήγι μαγισσών. Όσο για τον τηλέγραφο και το ραδιόφωνο, κατέστησαν δυνατή την άνοδο όχι μόνο της σύγχρονης δημοκρατίας αλλά και του σύγχρονου ολοκληρωτισμού.
Αντιμέτωπες με μια νέα γενιά ρομπότ που μπορούν να μεταμφιεστούν ως άνθρωποι και να παράγουν μαζικά οικειότητα, οι δημοκρατίες θα πρέπει να προστατευτούν απαγορεύοντας τους πλαστούς ανθρώπους - για παράδειγμα, τα ρομπότ κοινωνικής δικτύωσης που προσποιούνται ότι είναι άνθρωποι χρήστες. Πριν από την άνοδο της A.I., ήταν αδύνατο να δημιουργηθούν ψεύτικοι άνθρωποι, οπότε κανείς δεν μπήκε στον κόπο να το θέσει εκτός νόμου. Σύντομα ο κόσμος θα πλημμυρίσει από ψεύτικους ανθρώπους.
Οι A.I.s είναι ευπρόσδεκτοι να συμμετάσχουν σε πολλές συζητήσεις — στην τάξη, την κλινική και αλλού — με την προϋπόθεση ότι αυτοπροσδιορίζονται ως A.I.s. Αλλά αν ένα bot προσποιείται ότι είναι άνθρωπος, θα πρέπει να απαγορευτεί. Εάν οι τεχνολογικοί γίγαντες και οι ελευθεριακοί παραπονιούνται ότι τέτοια μέτρα παραβιάζουν την ελευθερία του λόγου, θα πρέπει να τους υπενθυμιστεί ότι η ελευθερία του λόγου είναι ανθρώπινο δικαίωμα που πρέπει να προορίζεται για τους ανθρώπους και όχι για τα bots.
Yuval Noah Harari
The New York Times
4/9/24

VIA   Babis Georges Petrakis

  • https://www.nytimes.com/2024/09/04/opinion/yuval-harari-ai-democracy.html

-----------------------

 

Σχόλια