Τεχνητή νοημοσύνη (συνέχεια)

Ο Geoffrey Hinton, πρωτοπόρος της τεχνητής νοημοσύνης, παραιτήθηκε τη Δευτέρα 1 Μαΐου από την Google μετά από 10 χρόνια στην υπηρεσία του αμερικανικού κολοσσού. Σε συνέντευξή του στους New York Times, αποκαλύπτει ότι έφυγε για να μπορεί να μιλά ελεύθερα για την τεχνητή νοημοσύνη όπως το ChatGPT χωρίς αυτό να σχετίζεται με την θέση του στην Google. Εκφράζει τη λύπη του για την εμπλοκή του στην εξέλιξη της τεχνητής νοημοσύνης και παρηγορείται κάπως «με την κοινή δικαιολογία : αν δεν το είχα κάνει εγώ, κάποιος άλλος θα το έκανε».

Πτυχιούχος στην πειραματική ψυχολογία με διδακτορικό στην τεχνητή νοημοσύνη, ο Λονδρέζος επιστήμονας έχει αφιερώσει όλη του τη ζωή στην έρευνα για την τεχνητή νοημοσύνη. Είτε ως ερευνητής στο Carnegie Mellon, στο Πανεπιστήμιο του Τορόντο είτε στην Google – στην οποία εντάχθηκε με την ομάδα Google Brain το 2013 – ο Geoffrey Hinton έχει αναπτύξει τεχνητά νευρωνικά δίκτυα – μαθηματικά συστήματα που μαθαίνουν νέες δεξιότητες αναλύοντας τα δεδομένα στα οποία έχουν πρόσβαση . Το 2018 κέρδισε το βραβείο Turing για τα δίκτυα που δημιούργησε. Θεωρούμενος σημαντική προσωπικότητα στον τομέα της τεχνητής νοημοσύνης, ενέπνευσε το έργο των Yann Le Cun και Yoshua Bengio.
Μετανιωμένος, μιλά στους New York Times για τους κινδύνους της τεχνητής νοημοσύνης, εξηγώντας ότι εγκυμονεί «σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα». Αυτοί είναι οι πέντε μεγαλύτεροι φόβοι του.
Όταν η μηχανή ξεπερνά τον δημιουργό της
Ο ανταγωνισμός μεταξύ των μεγάλων τεχνολογικών κολοσσών έχει οδηγήσει σε μία πρόοδο που κανείς δεν μπορούσε να φανταστεί, σύμφωνα με τον Geoffrey Hinton. Η ταχύτητα με την οποία σημειώνονται οι πρόοδοι έχει ξεπεράσει τις προσδοκίες των επιστημόνων : «Μόνο λίγοι άνθρωποι πίστευαν στην ιδέα ότι αυτή η τεχνολογία θα μπορούσε στην πραγματικότητα να γίνει πιο έξυπνη από τους ανθρώπους […] και εγώ ο ίδιος πίστευα ότι θα γινόταν […] σε 30 έως 50 χρόνια ή και παραπάνω. Φυσικά, δεν το νομίζω πια.»
Μέχρι πέρυσι, δεν θεωρούσε αυτήν την πρόοδο επικίνδυνη, αλλά η άποψή μου άλλαξε όταν η Google και το OpenAI ανέπτυξαν νευρωνικά συστήματα ικανά να επεξεργάζονται πολύ μεγάλες ποσότητες δεδομένων και τα οποία θα μπορούσαν να κάνουν αυτά τα συστήματα πιο αποτελεσματικά από τον ανθρώπινο εγκέφαλο, και επομένως πολύ επικίνδυνα .
Μαζικές απώλειες θέσεων εργασίας
Από οικονομική άποψη, ο νονός της τεχνητής νοημοσύνης φοβάται ότι αυτή η τεχνολογία θα μπορούσε να διαταράξει δραστικά την αγορά εργασίας. «Η τεχνητή νοημοσύνη απαλλάσσει από την βαριά δουλειά», είπε, προσθέτοντας ότι «θα μπορούσε να κάνει και πολύ περισσότερα πράγματα», επηρεάζοντας ιδιαίτερα τους μεταφραστές και τους προσωπικούς βοηθούς. Απώλειες θέσεων εργασίας που θα επηρεάσει και τους πιο «ευφυείς» οι οποίοι νομίζουν ότι είναι ασφαλείς.
Η απειλή των «θανατηφόρων ρομπότ»
Ο Goeffrey Hinton που ήταν ο δάσκαλος του Ilya Sutskever –του σημερινού επιστημονικού διευθυντή της OpenAI– θεωρεί την τεχνολογική πρόοδο υπερβολικά γρήγορη, σε σύγκριση με τα μέσα που έχουμε στη διάθεσή μας για τη ρύθμιση της χρήσης της τεχνητής νοημοσύνης. «Δεν νομίζω ότι πρέπει να το επιταχύνουμε μέχρι να καταλάβουμε αν μπορούμε να το ελέγξουμε», λέει ο ερευνητής. Φοβάται ότι οι μελλοντικές εκδόσεις θα γίνουν «απειλές για την ανθρωπότητα».
Οι μελλοντικές εκδόσεις τεχνητής νοημοσύνης θα μπορούν να αναπτύξουν απροσδόκητες συμπεριφορές μετά από ανάλυση μεγάλου όγκου δεδομένων. Αυτό κατέστη δυνατό επειδή τα συστήματα τεχνητής νοημοσύνης δημιουργούν τον δικό τους κώδικα και τον κατευθύνουν… που θα μπορούσε να τα μετατρέψει σε «αυτόνομα όπλα» και «θανατηφόρα ρομπότ», αν και πολλοί ειδικοί σχετικοποιούν αυτήν την απειλή.
Τεχνητή νοημοσύνη στα χέρια κακόβουλων
Σύμφωνα με τον ίδιο, η απειλή προέρχεται και από την κακή χρήση της τεχνητής νοημοσύνης από επικίνδυνους παράγοντες. Είναι «δύσκολο να βρεις τρόπους για να αποτρέψεις κακόβουλους από το να χρησιμοποιήσουν την τεχνητή νοημοσύνη για κακούς σκοπούς», ανησυχεί. Ο Geoffrey Hinton είναι ιδιαίτερα αντίθετος στη χρήση της τεχνητής νοημοσύνης στον στρατιωτικό τομέα. Φοβάται ιδιαίτερα την ανάπτυξη «στρατιωτών ρομπότ» από ανθρώπους. Στη δεκαετία του 1980, αποφάσισε μάλιστα να εγκαταλείψει το Πανεπιστήμιο Carnegie Mellon στις Ηνωμένες Πολιτείες επειδή η έρευνά του εκεί χρηματοδοτούνταν από το Πεντάγωνο.
"Bullshit Generator"
Τελευταία απειλή, και όχι ασήμαντη : αυτή της παραπληροφόρησης που συνδέεται με την τεχνητή νοημοσύνη. Αυτός ο επιστημονικός αναβρασμός, που προστίθεται στη μαζική χρήση της τεχνητής νοημοσύνης, θα καταστήσει σχεδόν αδύνατο να διακρίνουμε «τι είναι αληθινό από αυτό που δεν είναι αληθινό». Ο επιστήμονας μιλάει ακόμη και για «γεννήτρια ηλιθιοτήτων». Μια έκφραση που αναφέρεται στην ικανότητα της τεχνητής νοημοσύνης να παράγει πειστικά δηλώσεις που φαίνονται αληθοφανείς χωρίς να είναι αληθινές.
Ποια είναι η λύση λοιπόν; Ο ειδικός των νευρωνικών δικτύων υποστηρίζει ότι πρέπει να υπάρξει διαπλανητική συναίνεση αλλά δεν τρέφει ψευδαισθήσεις : «Αυτό μοιάζει αδύνατο […]. Όπως και με τα πυρηνικά όπλα, δεν υπάρχει τρόπος να γνωρίζουμε εάν εταιρείες ή χώρες εργάζονται σε αυτά κρυφά. Η μόνη ελπίδα είναι ότι οι μεγαλύτεροι επιστήμονες στον κόσμο να συνεργάζονται μαζί για να βρουν λύσεις για τον έλεγχο της τεχνητής νοημοσύνης.»
Le Point

Σχόλια