Εικόνες του Πάπα ως DJ πίσω από τα πλατώ ή του Εμανουέλ Μακρόν στριμωγμένου ανάμεσα σε οργισμένους διαδηλωτές ή ακόμα και του Ντόναλντ Τραμπ να συλλαμβάνεται επεισοδιακά από αστυνομικούς... Ποτέ η πρόοδος της λεγόμενης γενετικής τεχνητής νοημοσύνης, δηλαδή η στήριξη σε υπάρχον περιεχόμενο για τη δημιουργία νέων, δεν ήταν τόσο απτή. Οι δε επιπτώσεις στην αγορά εργασίας που προκαλεί η τεχνητή νοημοσύνη, η έκφραση της οποίας αναφέρθηκε για πρώτη φορά το 1956 στο συνέδριο του Dartmouth από τον μαθηματικό John McCarthy, γίνονται όλο και πιο συγκεκριμένες.
Οπως δείχνει μια πρόσφατη μελέτη της Goldman Sachs, η οποία επιβεβαιώνει μελέτες του Πανεπιστημίου της Πενσυλβάνια, τουλάχιστον 300 εκατομμύρια θέσεις εργασίας θα επηρεαστούν από την άνοδο στην χρήση λογισμικών όπως το ChatGPT ή του ανταγωνιστικού του Bard από την Google, που μας υπόσχονται απαντήσεις σε κάθε μας ερώτηση. Μηχανές που μπορούν και γράφουν ολόκληρες διδακτορικές διατριβές με ακριβές στυλ ή να ταξινομούν λογιστικές εργασίες, εντυπωσιάζουν ακόμα κι ας μην είναι απρόσβλητες από λάθη, και παρά το γεγονός ότι δεν έχουν κανένα σεβασμό στα πνευματικά δικαιώματα. Για να μην αναφερθούμε στην έλλειψη σεβασμού της ιδιωτικής ζωής που μόλις ώθησε την Ιταλία να απαγορεύσει τη χρήση του ρομπότ συνομιλίας ChatGPT στην επικράτειά της, ενώ η πόλη του Μονπελιέ συμβουλεύει τους εκπροσώπους της να μην το χρησιμοποιούν. Ωστόσο, λένε οι ερευνητές της Goldman Sachs, η αναμενόμενη έκρηξη παραγωγικότητας θα είναι συγκρίσιμη με «αυτή που ακολούθησε την εμφάνιση τεχνολογιών γενικής χρήσης, όπως ο ηλεκτροκινητήρας και ο προσωπικός υπολογιστής».
Οπως ήταν αναμενόμενο όλο και περισσότεροι ερευνητές εκφράζουν τις ανησυχίες τους για το τόσο συναρπαστικό τέρας που φαίνεται να έχει ξεφύγει από κάθε έλεγχο. Μερικοί από αυτούς ζητούν από τους πολιτικούς να επιληφθούν ενώ άλλοι εκλιπαρούν μια σωτήρια παύση. Σε ένα άρθρο της 6ης Μαρτίου στους New York Times, ο Noam Chomsky, καθηγητής γλωσσολογίας στο MIT, ο Ian Roberts, καθηγητής στο Πανεπιστήμιο του Κέιμπριτζ και o Jeffrey Watumull, υπεύθυνος για την τεχνητή νοημοσύνη στην εταιρεία υψηλής Τεχνολογίας Oceanit έγραφαν τα εξής : «Το ChatGPT του OpenAI, το Bard της Google και το Sydney της Microsoft είναι θαύματα μηχανικής μάθησης. Βασικά, παίρνουν τεράστιες ποσότητες δεδομένων, αναζητούν μοτίβα σε αυτά και γίνονται όλο και πιο ικανά στη δημιουργία στατιστικά πιθανών αποτελεσμάτων, με τρόπο που εξομοιώνουν εντυπωσιακά την ανθρώπινη γλώσσα και σκέψη. Αυτά τα προγράμματα έχουν αναδειχθεί ως οι πρώτες αναλαμπές στον ορίζοντα της τεχνητής γενικής νοημοσύνης, ανοίγοντας τον δρόμο στους μηχανικούς εγκεφάλους να ξεπεράσουν τους ανθρώπινους όχι μόνο ποσοτικά ως προς την ταχύτητα επεξεργασίας και το μέγεθος της μνήμης, αλλά και ποιοτικά από την άποψη της διανοητικής, καλλιτεχνικής δημιουργικότητας και οποιαδήποτε άλλη ικανότητα διακριτικής του ανθρώπου», εξηγούν οι τρεις συγγραφείς.
Στη συνέχεια κάνουν την σύγκριση : «Το ανθρώπινο μυαλό δεν είναι, όπως το ChatGPT και τα όμοιά του, μια δυσκίνητη στατιστική μηχανή για την εύρεση μοτίβων, την τροφοδοσία με εκατοντάδες terabyte δεδομένων και την διατύπωση της πιο πιθανής απάντησης συνομιλίας ή της πιο πιθανής απάντησης σε μια επιστημονική ερώτηση . Αντίθετα, το ανθρώπινο μυαλό είναι ένα εκπληκτικά αποτελεσματικό και κομψό σύστημα που λειτουργεί με μικρές ποσότητες πληροφοριών. Δεν επιδιώκει να συσχετίσει μεταξύ τους δεδομένα αλλά να δημιουργήσει εξηγήσεις. Το ChatGPT και τα ισοδύναμά του δεν είναι σε θέση να φέρουν σε κάποια ισορροπία δημιουργικότητα και περιορισμούς. Είτε καταλήγουν σε υπερθετικό βαθμό να παράγουν αλήθειες που είναι ταυτόχρονα και ψέματα ή να υποστηρίζουν αποφάσεις που είναι ταυτόχρονα ηθικές και ανήθικες ή στον κατώτερο βαθμό να μην μπορούν να αποφασίσουν (αλήθεια ή ψέμα, ηθικό ή ανήθικο) αδιαφορώντας για τις συνέπειες.»
Στη συνέχεια ακολούθησε το κάλεσμα του συγγραφέα του Sapiens και καθηγητή στο Πανεπιστήμιο της Ιερουσαλήμ Yuval Noah Harari ο οποίος, στις 23 Μαρτίου, επίσης στους New York Times κάλεσε τους πολιτικούς να ασχοληθούν με την τεχνητή νοημοσύνη. «Οι φαρμακευτικές εταιρείες δεν μπορούν να πουλήσουν νέα φάρμακα στο κοινό χωρίς πρώτα να υποβάλουν τα προϊόντα τους σε αυστηρούς ελέγχους ασφαλείας. […] Ομοίως, τα συστήματα τεχνητής νοημοσύνης της ισχύος του GPT-4 και πέραν αυτού δεν πρέπει να εισβάλλουν στις ζωές δισεκατομμυρίων ανθρώπων με ρυθμό που δεν είναι δικός τους. Οι τοπικοί πολιτισμοί και οι ανθρώπινες κουλτούρες δεν μπορούν να απορροφήσουν με ασφάλεια τέτοιες ταχύτητες. Ο αγώνας για κυριαρχία στην αγορά δεν πρέπει να καθορίζει την ταχύτητα ανάπτυξης της πιο σημαντικής τεχνολογίας της ανθρωπότητας. Πρέπει να κινηθούμε με την ταχύτητα που θα μας επιτρέψει να την απορροφήσουμε αρμονικά. Καταλαμβάνοντας τη γλώσσα, η τεχνητή νοημοσύνη προσφέρει στον εαυτό της το μαγικό σουσάμι του πολιτισμού. [...] Πρέπει να μάθουμε να κυριαρχούμε στην τεχνητή νοημοσύνη προτού μας κυριαρχήσει.»
Τέλος όχι λιγότεροι από 1.300 ερευνητές, επιστήμονες ή ακόμα και επιχειρηματίες – συμπεριλαμβανομένων σημαντικών προσωπικοτήτων της τεχνολογίας, όπως ο δημιουργός του Space X και ο συνιδρυτής του Neuralink Elon Musk, ο συνδημιουργός της Apple, Steve Wozniak , ο καθηγητής στο Πανεπιστήμιο του Μόντρεαλ Yoshua Bengio ή ο ερευνητής του Μπέρκλεϊ Stuart Russell – μόλις δημοσίευσαν στον ιστότοπο της δεξαμενής σκέψης Future of Life ένα κείμενο με τίτλο «Ας κάνουμε ένα διάλειμμα στα γιγάντια πειράματα της τεχνητής νοημοσύνης». Εδώ είναι μερικά αποσπάσματα: «Τα τρέχοντα συστήματα τεχνητής νοημοσύνης γίνονται πλέον ικανά να ανταγωνίζονται τους ανθρώπους σε εργασίες γενικού σκοπού και πρέπει να αναρωτηθούμε : πρέπει να αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια πληροφοριών μας με προπαγάνδα και αναλήθειες ; Πρέπει να αυτοματοποιήσουμε όλες τις θέσεις εργασίας ; [...] Καλούμε όλα τα εργαστήρια που εργάζονται για την τεχνητή νοημοσύνη να αναστείλουν αμέσως την εκπαίδευση συστημάτων AI πιο ισχυρών από το GPT-4 για τουλάχιστον έξι μήνες. Αυτό το διάλειμμα πρέπει να είναι δημόσιο, επαληθεύσιμο και να περιλαμβάνει όλους τους βασικούς παίκτες. Εάν μια τέτοια παύση δεν μπορεί να υλοποιηθεί γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να κηρύξουν μορατόριουμ. […]
Η έρευνα και ανάπτυξη της τεχνητής νοημοσύνης θα πρέπει να επικεντρωθεί εκ νέου στη δημιουργία ισχυρών και υπερσύγχρονων συστημάτων που είναι πιο ακριβή, πιο ασφαλή, ερμηνεύσιμα, διαφανή, στιβαρά, ευθυγραμμισμένα, αξιόπιστα και πιστά. […] Η κοινωνία έχει φρενάρει κι άλλες τεχνολογίες που θα μπορούσαν να έχουν δυνητικά καταστροφικές συνέπειες για αυτήν. Μπορούμε να κάνουμε το ίδιο και εδώ.»
Le Point
30/3/23
via Babis Georges Petrakis
--------------------------------------
Σχόλια