Οι τεχνολογικές ευκαιρίες και οι τεράστιοι κίνδυνοι που προκύπτουν από την εντυπωσιακή νέα τεχνολογία. Τα αναπάντητα ερωτήματα καθώς γινόμαστε homo technicus. Αρθρο των Χένρι Κίσινγκερ, Έρικ Σμιτ (πρ. CEO Google) και Ντάνιελ Χάτενλόκερ (MIT).
«Μια νέα τεχνολογία προσπαθεί να μεταμορφώσει το ανθρώπινο γνωσιολογικό μοντέλο όπως δεν το έχει κάνει τίποτα από την εφεύρεση της τυπογραφίας», ξεκινά το άρθρο το οποίο τιτλοφορείται «Το ChatGPT αναγγέλλει μια διανοητική επανάσταση».
Η τεχνολογία που επέτρεψε να τυπωθεί η Βίβλος του Γουτεμβέργιου το 1455 κατέστησε την αφαιρετική ανθρώπινη σκέψη ευρέως και ταχέως επικοινωνίσιμη. Ενώ η τυπογραφική τεχνολογία κατάφερε να προωθήσει την σκέψη του ανθρώπου, η νέα τεχνολογία καταφέρνει να την φιλτράρει και να την αναπτύξει, αναφέρει το άρθρο. Στην διαδικασία δημιουργείται ένα κενό ανάμεσα στην ανθρώπινη κατανόηση και την ανθρώπινη γνώση. Η επιτυχής διαχείριση αυτής της απόστασης είναι η ουσιαστική πρόκληση της εποχής της Τεχνητής Νοημοσύνης.
Η νέα τεχνολογία είναι διάσημη ως παραγωγική τεχνητή νοημοσύνη, ενώ το ακρωνύμιο GPT αντιστοιχεί στις λέξεις Generative Pre-Trained Transformer (Παραγωγικός, προπεπαιδευμένος μετασχηματιστής). Το ChatGPT το οποίο οφείλει την ύπαρξή του στην έρευνα ανάπτυξης της τεχνητής νοημοσύνης, είναι τώρα σε θέση να επικοινωνεί με τους ανθρώπους. Καθώς οι δυνατότητές του διευρύνονται, θα επανακαθορίσουν την ανθρώπινη γνώση, θα επιταχύνουν τις αλλαγές στην υφή της πραγματικότητάς μας και θα οργανώσουν εκ νέου την πολιτική και την κοινωνία μας, προβλέπουν οι τρεις συγγραφείς.
«Η παραγωγική τεχνητή νοημοσύνη αποτελεί φιλοσοφική και πρακτική πρόκληση ανεπανάληπτης κλίμακας από την αρχή του Διαφωτισμού», λένε. Την παραλληλίζουν με την τυπογραφία που επέτρεψε στους μελετητές να αναπαράγουν ο ένας την εργασία του άλλου γρήγορα και να την μοιράζονται. Η χωρίς προηγούμενο συγκέντρωση και διάδοση της πληροφορίας παρήγαγε την επιστημονική μέθοδο. Η μεσαιωνική ερμηνεία του κόσμου, βασισμένη στην θρησκευτική πίστη σταδιακά υπονομεύονταν, επισημαίνουν θυμίζοντάς μας την πορείας της ανθρωπότητας προς την επιστημονική γνώση.
Αν και προβλέπουν ότι η παραγωγική AI θα ανοίξει αντίστοιχα επαναστατικές λεωφόρους για την ανθρώπινη λογική και νέους ορίζοντες για την εμπεδωμένη γνώση, επισημαίνουν ότι υπάρχουν σημαντικές διαφορές: η γνώση του Διαφωτισμού κατακτήθηκε σταδιακά, βήμα- βήμα. Τα συστήματα με βάση την AI έχουν αντίστροφη συλλογιστική. Μπορούν να αποθηκεύσουν και να φιλτράρουν τεράστιο αριθμό υπάρχουσας πληροφορίας- στην περίπτωση του ChatGPT μεγάλο μέρος του κειμενικού περιεχομένου που υπάρχει στο διαδίκτυο και μεγάλο αριθμό βιβλίων- δισεκατομμύρια δεδομένα. Η διαχείριση και το φιλτράρισμα τέτοιου όγκου είναι πέρα από τις ανθρώπινες ικανότητες, λένε.
Περίπλοκες μέθοδοι τεχνητής νοημοσύνης παράγουν αποτελέσματα χωρίς να δίνουν κάποια εξήγηση για το πώς παράγονται αυτά τα αποτελέσματα. Η διαδικασία στο GPT ξεκινά με την υποβολή κάποιου ερωτήματος εκ μέρους ενός ανθρώπου. Η μηχανή που διαθέτει μαθησιακές ικανότητες απαντά εντός δευτερολέπτων μέσω ενός σωστού συντακτικά και γραμματικά κειμένου. Μπορεί να το κάνει γιατί έχει προδημιουργημένες αναπαραστάσεις μεγάλου όγκου δεδομένων επί των οποίων εκπαιδεύτηκε. Καθώς η διαδικασία με την οποία δημιουργήθηκαν αυτές οι αναπαραστάσεις αναπτύχθηκε από μηχανική εκπαίδευση και μεγάλο εύρος κειμένων, οι ακριβείς πηγές και η τεκμηρίωση για κάθε μία από τις αναπαραστάσεις αυτές παραμένουν άγνωστες, λένε οι συγγραφείς. Παρομοίως, άγνωστο παραμένει και το με ποιες διαδικασίες η μηχανή αποθηκεύει, φιλτράρει και εντοπίζει την γνώση που έχει στην διάθεσή της.
Την εποχή της τεχνητής νοημοσύνης οι γρίφοι λύνονται με διαδικασίες που παραμένουν άγνωστες, διαπιστώνουν κριτικά οι συγγραφεις. Και συνεχίζουν «Αυτό το αποπροσανατολιστικό παράδοξο κάνει τα μυστήρια μη μυστήρια, αλλά ταυτόχρονα ανεξήγητα. Από ό,τι φαίνεται, η σύνθετη τεχνητή νοημοσύνη επεκτείνει την ανθρώπινη γνώση αλλά όχι την ανθρώπινη κατανόηση- ένα φαινόμενο αντίθετο σε όλη σχεδόν την μετά τον διαφωτισμό νεωτερικότητα».
Το ChatGPT είναι ένα παράδειγμα αυτού που είναι γνωστό σαν μεγάλο γλωσσικό μοντέλο, το οποίο μπορεί να χρησιμοποιηθεί για την παραγωγή κειμένου που μοιάζει να έχει παραχθεί από άνθρωπο. Οι προγραμματιστές του ChatGPT εισήγαγαν τεράστιο όγκο κειμενικού περιεχομένου από τον ψηφιακό κόσμο, ενώ η υπολογιστική ισχύς του GPT επιτρέπει στο μοντέλο να αποτυπώσει μοντέλα και συνάψεις.
Η ικανότητα μεγάλων γλωσσικών μοντέλων να παράγουν κείμενο που μοιάζει να έχει δημιουργηθεί από άνθρωπο ήταν μια τυχαία ανακάλυψη. Τα μοντέλα αυτά εκπαιδεύονται ώστε να μπορούν να προβλέψουν την επόμενη λέξη σε μια πρόταση, κάτι το οποίο είναι χρήσιμο σε καθήκοντα όπως η αυτόματη συμπλήρωση γραπτών μηνυμάτων ή αναζητήσεων στο διαδίκτυο. Ωστόσο, αποδεικνύεται ότι τα μοντέλα έχουν επίσης την απρόσμενη ικανότητα να δημιουργούν εύγλωττες παραγράφους, άρθρα και, εν καιρώ, ίσως βιβλία, ρισκάρουν να προβλέψουν οι συγγραφείς του άρθρου.
Μέσα σε δευτερόλεπτα το ChatGPT μπορεί να παράξει απαντήσεις που εξηγούν με συνοχή ένα υψηλού επιπέδου θέμα. Δεν αποτελούν απλώς αντιγραφή από κάποιο κείμενο στη μνήμη του υπολογιστή. Παράγονται εκ του μηδενός μέσω μιας διαδικασίας που οι άνθρωποι δεν είναι σε θέση να αντιγράψουν.
Ρωτήσαμε το ChatGPT αν μπορεί να προβλέψει το μέλλον, αναφέρουν οι συγγραφείς και παραθέτουν την απάντηση: «Όχι, μπορώ μόνο να παρέχω πληροφορίες και να απαντώ ερωτήσεις με βάση τα δεδομένα πάνω στα οποία έχω εκπαιδευτεί. Δεν έχω προσωπικές εμπειρίες ή συνείδηση, οπότε δεν είμαι σε θέση να κάνω προβλέψεις ή προγνώσεις σχετικά με μελλοντικά γεγονότα».
Στη συνέχεια του ζήτησαν να γράψει ένα σύντομο δοκίμιο σχετικά με τον ρόλο της γενικής τεχνητής νοημοσύνης στον διεθνή έλεγχο των εξοπλισμών, με βάση την σκέψη του Χένρι Κίσινγκερ.
Η εντυπωσιακή απάντησή της εφαρμογής ξεκινούσε ως εξής: «Καθώς στεκόμαστε στο μεταίχμιο μιας νέας τεχνολογικής επανάστασης, το ερώτημα της γενικής τεχνητής νοημοσύνης και ο ρόλος της στον διεθνή έλεγχο των εξοπλισμών καθίσταται όλο και πιο πιεστικό. Θα φέρει η τεχνητή νοημοσύνη σταθερότητα που δεν έχουμε ξαναδεί, καθώς προηγμένα συστήματα θα αναλαμβάνουν τον έλεγχο των διαδικασιών λήψης αποφάσεων σχετικά με την πυρηνική αποτροπή; Ή μήπως θα εισαγάγουν μια νέα δέσμη κινδύνων, καθώς η παγκόσμια ισορροπία ισχύος αλλάζει από την ανάπτυξη μηχανών υψηλής νοημοσύνης;».
Μέσα σε λίγες μέρες από το ξεκίνημα λειτουργίας του ChatGPT περισσότεροι από ένα εκατομμύριο άνθρωποι γράφτηκαν εκεί για να του υποβάλουν ερωτήσεις. Εκατοντάδες εταιρίες εργάζονται πάνω στις παραγωγικές τεχνολογίες και οι επενδύσεις που εισρέουν στην αγορά προσπαθούν να στρέψουν τις ανακαλύψεις προς το πεδίο της εμπορικής εκμετάλλευσης. Για το ορατό μέλλον τα τεράστια εμπορικά κίνητρα θα έχουν προτεραιότητα έναντι των μακροπρόθεσμων αναρωτήσεων για τις επιπτώσεις που θα έχουν οι τεχνολογίες αυτές, προβλέπουν οι συγγραφείς.
Η εκπαίδευση των μεγαλύτερων από αυτά τα μοντέλα κοστίζει ακριβά- περισσότερο από ένα δισεκατομμύριο δολάρια ανά μοντέλο. Αφού ολοκληρωθεί η εκπαίδευση, χιλιάδες υπολογιστές εργάζονται 24 ώρες την ημέρα για να τα λειτουργήσουν. Η λειτουργία ενός προεκπαιδευμένου μοντέλου είναι φτηνή σε σύγκριση με την ίδια την εκπαίδευση και απαιτεί μόνο κεφάλαιο, χωρίς υπολογιστική ικανότητα. Και πάλι όμως, ξεκαθαρίζεται στο άρθρο, η πληρωμή για αποκλειστική χρήση ενός μεγάλου γλωσσικού μοντέλου είναι πέραν των δυνατοτήτων των περισσότερων επιχειρήσεων. Το πιθανότερο είναι να ξεκινήσει η πώληση συνδρομών, οπότε ένα μόνο μοντέλο θα μπορεί να εξυπηρετεί τις ανάγκες πολλών χιλιάδων ατόμων και επιχειρήσεων, προβλέπουν.
Η μακροπρόθεσμη σημασία τη παραγωγικής τεχνητής νοημοσύνης σχετίζεται με εμπορικές ακόμη και με μη εμπορικές επιστημονικές ανακαλύψεις. Θα επηρεάσει την διπλωματία και την στρατηγική ασφαλείας. Ωστόσο, κανείς από τους δημιουργούς της τεχνολογίας αυτής δεν αναφέρεται στα προβλήματα που θα δημιουργήσει. Οι συγγραφείς αναφέρουν χαρακτηριστικά το ότι οι φαινομενικά άψογες απαντήσεις του ChatGPT θα δημιουργήσουν υπερβολική εμπιστοσύνη στα αποτελέσματα που επιστρέφει.
Επισημαίνουν και κάτι ακόμη: Καθώς το ChatGPT είναι σχεδιασμένο για να απαντά σε ερωτήσεις, κάποιες φορές επινοεί γεγονότα, προκειμένου να δώσει μια φαινομενικά λογική απάντηση. Μεταξύ των ερευνητών της τεχνητής νοημοσύνης το φαινόμενο αυτό είναι γνωστό ως «παραίσθηση» ή «τυχαίος παπαγαλισμός». Στην περίπτωση αυτή η τεχνητή νοημοσύνη συνδυάζει φράσεις που μοιάζουν αληθινές στον άνθρωπο τις διαβάζει, αλλά που στην πραγματικότητα δεν έχουν βάση. Το τι προκαλεί αυτά τα λάθη και το πως μπορούν να ελεγχθούν δεν έχει ακόμη βρεθεί.
Οι συγγραφείς ζήτησαν από το ChatGPT να τους δώσει «έξι αναφορές σε σκέψεις του Χένρυ Κίσινγκερ γύρω από την τεχνολογία». Η εφαρμογή επέστρεψε μια λίστα από άρθρα που υποτίθεται ότι είχαν γραφτεί από τον Χ. Κίσινγκερ. Όλα ήταν αληθοφανή, ενώ ένα είχε και πραγματικό τίτλο -αν και η ημερομηνία του ήταν λάθος. Τα υπόλοιπα ήταν πειστικές επινοήσεις, σημειώνουν.
Αν και προσλαμβάνουμε την παραγωγική τεχνητή νοημοσύνη με ανθρώπινους όρους, τα λάθη της δεν είναι ανθρώπινα λάθη. Κάνει λάθη που αντιστοιχούν σε άλλη μορφή ευφυΐας, η οποία βασίζεται στην αναγνώριση μοτίβων. Οι άνθρωποι δεν θα πρέπει να αναγνωρίζουν τα μοντέλα αυτά σαν λάθη. Θα είμαστε σε θέση να αναγνωρίζουμε τις μεροληψίες και τα ψεγάδια ως τέτοια; αναρωτιούνται οι συγγραφείς «Μπορούμε να αναπτύξουμε διαδικασίες ελέγχου της εγκυρότητας και περιορισμών των απαντήσεων του μοντέλου, ακόμη και όταν δεν γνωρίζουμε τις απαντήσεις από πριν;».
Η λογική της παραγωγικής τεχνητής νοημοσύνης είναι πιθανό να αλλάξει με τον καιρό, ως ένα βαθμό και λόγω της εκπαίδευσης του μοντέλου. Θα καταστεί μια επιταχυνόμενη εκδοχή της παραδοσιακής επιστημονικής προόδου προσθέτοντας δυνατότητες σε ό,τι αφορά την διαδικασία της ανακάλυψης, προβλέπεται στο άρθρο. Αν οι επενδύσεις προς την συγκεκριμένη αγορά εξακολουθήσουν να αυξάνονται, το μοντέλο είναι πιθανό να περνά συχνά επανεκπαιδεύσεις. Αυτό θα αυξήσει το κύρος και την ακρίβειά του, αλλά θα υποχρεώσει τους χρήστες του να επιτρέψουν ένα αέναο περιθώριο γρήγορης αλλαγής. «Το να μαθαίνουμε από τα μεταβαλλόμενα αποτελέσματα της τεχνητής νοημοσύνης και όχι αποκλειστικά από κείμενα που έχουν γραφτεί από άνθρωπο, μπορεί να διαστρέψει την σημερινή συμβατική ανθρώπινη γνώση», αναφέρουν οι τρεις συγγραφείς.
Ακόμη και αν τα μοντέλα παραγωγικής τεχνητής νοημοσύνης καταστούν πλήρως ερμηνεύσιμα και ακριβή, θα εξακολουθήσουν να αποτελούν πρόκληση για την ανθρώπινη συμπεριφορά. Μαθητές χρησιμοποιούν το ChatGPT για να κλέψουν σε εξετάσεις, ενώ τεχνητή νοημοσύνη αυτού του είδους θα μπορούσε να δημιουργήσει διαφημιστικά emails που θα πλημμυρίζουν τα ηλεκτρονικά γραμματοκιβώτια και δεν θα διακρίνονται από μηνύματα προσωπικών φίλων ή συνεργατών, γράφουν. «Video και διαφημίσεις που εικονίζουν ψεύτικες καμπάνιες από πλατφόρμες, και που έχουν παραχθεί με την βοήθεια της τεχνητής νοημοσύνης, ενδεχομένως θα δυσκολέψουν τη διάκριση ανάμεσα σε διαφορετικές πολιτικές θέσεις. Τεχνικοί τρόποι αντιμετώπισης όλων αυτών πιθανότατα δεν θα αρκέσουν- θα χρειαστεί και η βοήθεια του ανθρώπινου σκεπτικισμού», εκτιμούν.
Είναι επείγον να αναπτύξουμε μια σύνθετη διαλεκτική που θα βοηθά τους ανθρώπους να αμφισβητούν την διαδραστικότητα της παραγωγικής τεχνητή νοημοσύνης, όχι για να δικαιώσει ή να εξηγήσει τις απαντήσεις που δίνει η AI, αλλά για να τις κρίνει και να τις αξιολογήσει, λένε.
Και αναρωτιούνται: Μπορούμε να μάθουμε αρκετά γρήγορα να αμφισβητούμε αντί απλώς να υπακούμε ή στο τέλος θα είμαστε υποχρεωμένοι να υποταχθούμε; Είναι αυτά που θεωρούμε λάθη μέρη ενός ηθελημένου σχεδιασμού; Τι θα συμβεί αν κάποιο κακόβουλο στοιχείο υπεισέλθει στην λειτουργία εφαρμογών τεχνητής νοημοσύνης;
Μια άλλη βασική αποστολή που έχουμε είναι να ξεχωρίσουμε τις ερωτήσεις που πρέπει να απαντώνται από την ανθρώπινη σκέψη από εκείνες που μπορούμε να ρισκάρουμε να τις απαντούν αυτοματοποιημένα συστήματα, ισχυρίζονται.
«Τα συστήματα νοημοσύνης των μηχανών έχουν ήδη υπερβεί την γνώση οποιουδήποτε ανθρώπου. Σε κάποιες περιπτώσεις μάλιστα ξεπέρασαν την τα επίπεδα γνώσης που θεωρούσαμε εφικτά. Αυτό πυροδότησε επανάσταση σε πεδία όπου σημειώθηκαν τέτοιες ρηξικέλευθες πρόοδοι, όπως για παράδειγμα στην βιολογία» αναφέρει το άρθρο της WSJ.
Οι επιδράσεις της ανάπτυξης μιας τέτοιας τεχνολογίας δεν σταματούν εδώ κατά τους συγγραφείς. Όπως λένε, καθώς η τεχνολογία καθίσταται ευρέως κατανοητή θα επηρεάσει τις διεθνείς σχέσεις. Εκτός και αν η τεχνολογία της γνώσης μοιραστεί σε όλον τον κόσμο, ο ιμπεριαλισμός θα μπορούσε να εστιάσει στην απόκτηση και μονοπώληση δεδομένων ώστε να έχει πρόσβαση στις τελευταίες εξελίξεις της AI.
Βλέπουν ακόμη τον κίνδυνο, καθώς η λήψη αποφάσεων είναι πιθανό στο μέλλον να συγκεντρωθεί στα χέρια λιγότερων ανθρώπων και θεσμών, αυτοί να ελέγχουν την πρόσβαση στον περιορισμένο αριθμό μηχανών που είναι ικανές για υψηλής ποιότητας σύνθεση της πραγματικότητας. Λόγω του τεράστιου κόστους της υπολογιστικής τους ισχύος, οι πιο αποτελεσματικές μηχανές εντός κάθε κοινωνίας είναι πιθανό να μείνουν στα χέρια μιας μικρής υποομάδας σε εγχώρια κλίμακα, και υπό τον έλεγχο των υπερδυνάμεων σε διεθνή. Μετά το μεταβατικό στάδιο, τα παλιότερα μοντέλα θα φθηνύνουν και ενδεχομένως ξεκινήσει η διάχυση της ισχύος τόσο εντός των εθνικών πεδίων, όσο και ανάμεσα στα κράτη, λένε.
Σύμφωνα με τα όσα εκτιμούν, σε τέτοια περίπτωση η ανάγκη για σύνδεση των μεγάλων κοινωνικών αλλαγών με ηθικές δικαιολογήσεις και νέα οράματα για το μέλλον θα εμφανιστεί με νέα μορφή. «Αν τα όσα λέει το ChatGPT δεν μεταφράζονται σε κατανοήσιμη ανθρώπινη συμπεριφορά, η αποξένωση, ακόμη και η επανάσταση ίσως αποτελέσουν πιθανά ενδεχόμενα».
Πρέπει να θεσμοθετηθούν παράμετροι για την υπεύθυνη χρήση της τεχνητής νοημοσύνης, με τις κατάλληλες διαφοροποιήσεις ανάλογα με τον τύπο και το πλαίσιο της τεχνολογίας, επισημαίνουν οι συγγραφείς. Τα γλωσσικά μοντέλα όπως το ChatGPT χρειάζονται όρια στα συμπεράσματα που εξάγουν. Tο ChatGPT πρέπει να γνωρίζει και να λέει όσα δεν γνωρίζει και δεν μπορεί να πει, γράφουν χαρακτηριστικά.
Οι συγγραφείς θεωρούν ότι οι άνθρωποι θα πρέπει να μάθουν νέους περιορισμούς και ότι τα προβλήματα που θέτουμε σε ένα σύστημα τεχνητής νοημοσύνης πρέπει να γίνουν κατανοητά μέχρι ένα υπεύθυνο επίπεδο γενικότητας και προσπέλασης συμπερασμάτων, το οποίο θα καθορίζεται υπεύθυνα. Εκτιμούν ότι θα είναι πιο σημαντικό να εμπιστευόμαστε ως κριτές της πραγματικότητας που θα παρουσιάζουν οι μηχανές ισχυρές πολιτισμικές σταθερές από ό,τι νομικούς κανόνες. «Θα επαναπροσδιορίσουμε την ανθρώπινη υπόστασή μας με το να εξασφαλίσουμε ότι οι μηχανές θα παραμείνουν αντικείμενα».
Ειδικά η παιδεία θα πρέπει να προσαρμοστεί, εκτιμούν οι συγγραφείς. Μια διαλεκτική παιδαγωγική που χρησιμοποιεί παραγωγική τεχνητή νοημοσύνη μπορεί να κάνει εφικτή την ταχύτερη και πιο εξατομικευμένη εκπαίδευση. Οι διδάσκοντες θα πρέπει να διδάσκουν νέες δεξιότητες, συμπεριλαμβανομένων υπεύθυνων τρόπων επικοινωνίας ανθρώπων-μηχανών, λένε.
Τι θα συμβεί αν αυτή η τεχνολογία δεν μπορεί να ελεγχθεί πλήρως; Τι θα γίνει αν τρόποι για παραγωγή ψευδών ειδήσεων, κατασκευασμένων φωτογραφιών κι ψεύτικων βίντεο εξακολουθήσουν πάντα να υπάρχουν χωρίς οι άνθρωποι να ξεμάθουν να εμπιστεύονται οτιδήποτε βλέπουν και ακούν; Οι άνθρωποι διδάσκονται από την γέννησή τους να πιστεύουν στα μάτια και τα αυτιά τους, αλλά αυτό μπορεί να φτάσει- λόγω της τεχνητής νοημοσύνης- να μην αντιστοιχεί σε κάτι αληθινό. Ακόμη και αν οι μεγάλες πλατφόρμες, λόγω συνήθους πρακτικής ή ρυθμιστικών κανόνων εργαστούν σκληρά για να εντοπίζουν και να καταδεικνύουν ορισμένο περιεχόμενο ως ακατάλληλο, ξέρουμε ότι το περιεχόμενο που έχει ιδωθεί δεν γίνεται να ξε-ιδωθεί, επισημαίνουν οι συγγραφείς: Η δυνατότητα να ελέγχεται πλήρως περιεχόμενο που διακινείται παγκοσμίως είναι ένα σοβαρό και άλυτο πρόβλημα.
Το άρθρο καταλήγει υπενθυμίζοντάς μας την ευθύνη έναντι της προόδου: «Οι απαντήσεις που το ChatGPT δίνει σε τέτοιου είδους ερωτήματα μάλλον δημιουργούν περισσότερα ζητήματα παρά δίνουν απαντήσεις. Προς το παρόν έχουμε ένα καινοτόμο και εντυπωσιακό επίτευγμα που δοξάζει το ανθρώπινο μυαλό. Δεν έχουμε ακόμη βρει έναν προορισμό για αυτό. Καθώς γινόμαστε homo technicus έχουμε υποχρέωση να προσδιορίσουμε τον σκοπό του είδους μας. Είναι στο χέρι μας να δώσουμε αληθινές απαντήσεις».
* Ο Χένρυ Κίσσινγκερ υπήρξε πρώην υπουργός Εξωτερικών των ΗΠΑ, ο Έρικ Σμιτ διετέλεσε CEO της Google, ενώ ο Ντάνιελ Χάτενλόκερ είναι κοσμήτορας στο Schwarzman College of Computing του MIT.
=====================
-----------------------
Σχόλια