Robot, chatbot, test Turing», Bard, ChatGPT, τεχνητή νοημοσύνη.

Le Point: Μπορείτε να μας ορίσετε τι είναι ένα ρομπότ συνομιλίας και τι θέση μπορεί να πάρει στη ζωή μας ;
Jean-Gabriel Ganascia: Ένα ρομπότ συνομιλίας ή chatbot είναι λογισμικό που αλληλεπιδρά σε μία γλωσσική επικοινωνία. Η ιδέα είναι παλιά. Στο θεμελιώδες άρθρο του για τη νοημοσύνη των μηχανών που έγραψε το 1950, ο Άλαν Τούρινγκ είχε εισαγάγει το concept της λεκτικής αλληλεπίδρασης. Αντιστοιχεί σε αυτό που έκτοτε ονομάζεται «test Turing». Στη δεκαετία του 70, ένας ερευνητής του MIT, ο Joseph Weizenbaum, προγραμμάτισε ένα chatbot που το ονόμασε Eliza. Από το περασμένο καλοκαίρι, με τις πρόσφατες εξελίξεις στην τεχνητή νοημοσύνη, ιδίως με τη χρήση μεγάλων μοντέλων γλώσσας που εκπαιδεύονται με μηχανική μάθηση σε τεράστιο αριθμό δεδομένων που περιέχουν το ισοδύναμο εκατοντάδων χιλιάδων βιβλίων, η πρόοδος ήταν εκπληκτική. Τα chatbot εγκαινιάζουν μια εποχή μεγάλων οικονομικών διακυβευμάτων γι' αυτό και οι μεγάλοι τεχνολογικοί γίγαντες κάνουν τόσες πολλές ανακοινώσεις σχετικά με το θέμα. Πράγματι, όσοι κατέχουν αυτές τις τεχνολογίες θα έρθουν, χάρη σε αυτές, σε άμεση επαφή με ένα τεράστιο παγκόσμιο κοινό. Στη συνέχεια θα γίνουν πύλες μεγάλων οικονομικών δικτύων, όπου θα κατευθύνουν κατά το δοκούν τους πελάτες τους. Με άλλα λόγια θα γίνουν τερματικά μιας ολόκληρη αλυσίδας προστιθέμενης αξίας, γεγονός που θα τους δώσει κυρίαρχο στρατηγικό ρόλο. Ας πάρουμε ένα παράδειγμα : ας υποθέσουμε ότι, όταν ψάχνουμε για ένα εστιατόριο, το βρίσκουμε στο διαδίκτυο με ένα chatbot που κάνει επίσης κράτηση για ένα τραπέζι εκεί. Θα είναι πολύ βολικό... Και φανταζόμαστε ότι οι εταιρείες που θα παρέχουν αυτούς τους συνομιλητές θα επιβάλουν τους όρους τους και θα πάρουν ένα σημαντικό ποσοστό σε όλες τις συναλλαγές...
 
Le Point: Γίνεται συχνά λόγος για «παραισθήσεις» των chatbots. Θα μπορούσατε να μας πείτε τι είναι και γιατί είναι ενδιαφέρον;
 
Μια «παραίσθηση» δηλώνει ένα ψυχικό φαινόμενο κατά το οποίο ένα υποκείμενο βιώνει αντιλήψεις χωρίς κανένα εξωτερικό αντικείμενο να τις προκαλεί. Έτσι μιλάμε για παραισθήσεις κατά τη διάρκεια ψυχωτικών παραληρημάτων ή καταστάσεων που προκαλούνται από ναρκωτικά. Στην περίπτωση των chatbots δεν μπορεί να τεθεί θέμα συναισθημάτων και άρα παραισθήσεων με την πρωταρχική έννοια. Ωστόσο ο όρος «παραισθήσεις» χρησιμοποιείται για να δηλώσει ότι ένα chatbot δημιουργεί εντελώς νέα κείμενα που δεν έχουν πλέον καμία σχέση με τα κείμενα στα οποία εκπαιδεύτηκε ή με την αλήθεια. Οι «παραισθήσεις» των chatbot αντιστοιχούν στο ισοδύναμο της φαντασίας, δηλαδή σε έναν ανασυνδυασμό στοιχείων της μνήμης που, ενώ είναι πλήρως τεχνητά μοιάζουν εντελώς φυσιολογικά. Αυτό αναφέρεται σε δημιουργικές ικανότητες και αυτό είναι που τα κάνει να μοιάζουν τόσο εκπληκτικά.
 
Le Point: Σε τι φάση βρίσκεται η Google, η οποία μόλις παρουσίασε τον Bard, το δικό της ρομπότ για να αντιμετωπίσει το ChatGPT;
 
Η Google βρίσκεται σε δύσκολη θέση. Είτε κάνει δημόσια μια τεχνολογία που όμως δεν έχει αναπτυχθεί πλήρως ή δεν κάνει τίποτα και μένει πίσω. Είναι ακόμη πιο δύσκολο για την εταιρεία αφού το ChatGPT κατασκευάστηκε χρησιμοποιώντας μοντέλα γλώσσας που έχουν αναπτυχθεί από το 2017 από ομάδες του Πανεπιστημίου του Τορόντο και την Google με τις λεγόμενες τεχνικές Transformer. Τα πρώτα γλωσσικά μοντέλα, όπως το Bert, κατασκευάστηκαν το 2019 στη Google πριν ακολουθήσουν πιο πρόσφατα μοντέλα, όπως το MUM, το 2020. Τέλος, μια εφαρμογή διαλόγου με το όνομα LaMDA (Language Model for Dialogue Applications) σχεδιάστηκε και αναπτύχθηκε επίσης από την Google.
 
Le Point: Η LaMda είχε πολυσυζητηθεί …
 
Όλοι θυμόμαστε αυτόν τον μηχανικό, τον Blake Lemoine, ο οποίος υποστήριξε τότε ότι η εφαρμογή LaMDA είχε μια αυθεντική ψυχή. Απολύθηκε για αυτούς τους ισχυρισμούς του που θεωρήθηκαν υπερβολικοί και αβάσιμοι… Ανεξάρτητα από αυτό το επεισόδιο, οι διάλογοι που παρήγαγε η LaMDA ήταν πολύ εντυπωσιακοί, αλλά επιφυλάσσονταν για λίγους μυημένους που ήξεραν πώς να ρυθμίζουν αυτά τα προγράμματα. Ενώ η Google έχει πιθανώς αξιοσημείωτο προβάδισμα έναντι πιθανών ανταγωνιστών όπως η Microsoft, νοιώθει υποχρεωμένη να δοκιμάσει τα εργαλεία της από έμπειρους δοκιμαστές προτού τα καταστήσει διαθέσιμα σε όλους. Η εταιρεία οφείλει τη φήμη της στην αξιοπιστία της μηχανής αναζήτησης της και δεν μπορεί να αντέξει λάθη, κάτι που δεν συμβαίνει με το ChatGPT, που προσφέρεται και για διασκέδαση.
 
Le Point: Οπότε τώρα εναποθέτει όλες τις ελπίδες της στον Bard….
 
Ναι, σύμφωνα με τον CEO της εταιρείας Sundar Pichai ο Bard θα αναλάμβανε μια σειρά από λειτουργίες που υπάρχουν ήδη στην εφαρμογή LaMDA, χωρίς να τις ενσωματώσει όλες. Ο Pichai λέει ότι ο Bard θα ενσωματωθεί στη μηχανή αναζήτησης για να συνθέτει τα αποτελέσματα της χωρίς να προσθέτει κάτι περισσότερο. Προφανώς δεν θέλει η Google να εμφανίζεται απούσα γιατί αυτό θα ήταν μια παραδοχή αδυναμίας, χωρίς ωστόσο να πάει πολύ μακριά, από φόβο μήπως απογοητεύσει τις υπερβολικές προσδοκίες με παρακινδυνευμένες ανακοινώσεις. Είναι κατανοητό : δεν είναι πραγματικά εύκολο να σχεδιάσεις μια μηχανή αναζήτησης και, κυρίως, έναν αποτελεσματικό διάλογο με τον χρήστη χρησιμοποιώντας μόνο τεχνολογίες δημιουργίας κειμένου που βασίζονται σε στατιστικά γλωσσικά μοντέλα. Αυτό θα απαιτούσε τη σύζευξή τους με μια λογική ανάλυση που δεν διαθέτουμε σήμερα.
 
Le Point: Όμως η Google δεν έχει άλλη επιλογή...
 
Για να κατανοήσετε πλήρως τη θέση της Google, πρέπει να γνωρίζετε ότι αυτή η εταιρεία έχει επενδύσει πολλά σε αυτά τα μεγάλα γλωσσικά μοντέλα. Ελπίζει να τα χρησιμοποιήσει στα προϊόντα που θα προσφέρει στο κοινό και να αποκομίσει μεγάλο όφελος από αυτά. Γνωρίζει επίσης, όπως γνωρίζουν όλοι οι μεγάλοι τεχνολογικοί γίγαντες ότι όσον αφορά την ψηφιακή τεχνολογία, είναι απαραίτητο να πραγματοποιηθούν προκαταρκτικές μελέτες και να συλλεχθεί ένας μεγάλος αριθμός feedback από τους χρήστες, για να τελειοποιηθεί το προϊόν προτού το διαθέσει ελεύθερα στο κοινό. Σε αντίθετη περίπτωση, οι ατέλειες θα απομακρύνουν τους χρήστες από την εταιρεία. Το διακύβευμα είναι υψηλό για την Google. Λόγω της επιτυχίας του ChatGPT, η εταιρεία βρίσκεται σε μια λεπτή θέση : είτε δεν κάνει τίποτα και μοιάζει ξεπερασμένη από τις εξελίξεις ή λανσάρει βιαστικά μια νέα υπηρεσία που διατρέχει το ρίσκο να απορριφθεί. Από αυτή την άποψη, δεν είναι ασήμαντο ότι η Google επέλεξε το όνομα Bard για το ρομπότ συνομιλίας της, γιατί αναφέρεται στον βάρδο που με την μαγεία της μουσικής παρουσιάζει τα πράγματα με έναν νέο ευχάριστο τρόπο. Και, ακόμα κι αν φαίνεται ότι το αποτέλεσμα δεν είναι αξιόπιστο προς το παρόν, άλλοι παίκτες, όπως η Meta ή η Amazon, ενδιαφέρονται πολύ για αυτό.
 
Le Point: Γιατί είναι τόσο σημαντικό για την Google αλλά και για τις άλλες εταιρείες Big Tech, όπως η Amazon, η Meta ή η Apple, να διαθέτουν ρομπότ συνομιλίας ;
 
Γιατί αυτά τα ρομπότ προσφέρουν άμεση επαφή με τον πελάτη. Και αν αυτό δουλέψει καλά θα γίνουν υποχρεωτικά περάσματα, διόδια που θα δίνουν πρόσβαση σε όλους τους άλλους τομείς. Και αυτό θα έχει δραματικές επιπτώσεις για πολλούς άλλους τομείς της οικονομίας που κυριολεκτικά θα περάσουν υπό τον έλεγχο τους.
Αυτό συμβαίνει συχνά όταν εμφανίζεται μια τεχνολογία. Και, στη συγκεκριμένη περίπτωση, τα ρομπότ συνομιλίας δεν έχουν βρει ακόμη ούτε ένα οικονομικό μοντέλο ούτε ένα οικολογικό μοντέλο. Και, σε αυτό το τελευταίο σημείο, πρέπει να αναφέρουμε ότι βασίζονται σε γλωσσικά μοντέλα, τα οποία, για να εκπαιδευτούν, βασίζονται σε εντυπωσιακούς υπολογισμούς και σε έναν εντυπωσιακό όγκο δεδομένων, που τα κάνει όμως πολύ ακριβά. Σήμερα, ένα από τα μειονεκτήματα του ChatGPT είναι ότι εκπαιδεύεται σε μία σχετικά παλιά βάση δεδομένων, αυτό που υποσχέθηκε η Google ήταν να βασίζεται σε ένα σώμα που ενημερώνεται τακτικά. Αυτό θα είναι ακόμη πιο ακριβό στον βαθμό που κινδυνεύει να χάσει μερίδιο από την στοχευμένη διαφήμιση, κύρια πηγή των εσόδων της. Όσον αφορά τα πνευματικά δικαιώματα, κανείς δεν είναι ιδιοκτήτης μια φραστικής σειράς. Συνεπώς θα είναι όλο και πιο δύσκολο να εντοπιστεί η πηγή του πραγματικά πρωτότυπου περιεχομένου. Υπάρχουν φυσικά λογισμικά που ανιχνεύουν λογοκλοπή, αλλά, στην περίπτωση του ChatGPT, έχουμε να κάνουμε με αναδιατυπώσεις, επομένως είναι πολύ δύσκολο να βρεθούν οι αρχικοί δημιουργοί.
 
Le Point: Υπάρχει κάποιο φιλοσοφικό όραμα που εμπνέει την Open AI, την εταιρεία που ανέπτυξε το ChatGPT;
 
Αρχικά, η μητρική της εταιρεία, Open AI, ήθελε να αναπτύξει ανοιχτή έρευνα. Ο Elon Musk, ένας από τους συνδημιουργούς της μητρικής εταιρείας Open AI, πιστεύει ότι μακροπρόθεσμα ο άνθρωπος θα γίνει διαπλανητικό είδος χάρη σε πολλές τεχνολογίες. Αυτό είναι ένα μακροπρόθεσμο όραμα που μοιράζεται και ο Nick Bostrom του Πανεπιστημίου της Οξφόρδης. Σύμφωνα με τους παραπάνω τίποτα δεν πρέπει να σταματήσει την ανάπτυξη αυτών των τεχνολογιών.
Le Point : Ποια θα μπορούσε να είναι η επόμενη τεχνολογική πρόκληση σε αυτήν την κούρσα : μια μελέτη που δημοσιεύτηκε από το Πανεπιστήμιο Cornell φαίνεται να δείχνει ότι θα είναι η φωνή…
Δεν θα την ονομάσω πρόκληση, αλλά μάλλον το επόμενο βήμα… Πράγματι, όσοι κατέχουν αυτές τις τεχνολογίες θα έχουν ένα σαφές ανταγωνιστικό πλεονέκτημα. Σήμερα η Apple, με τον Siri, θα μπορούσε να επωφεληθεί από αυτό. Ίσως θα είναι και η Microsoft, με το Vall-E, ένα πρόγραμμα που σας επιτρέπει να αποδομείτε καθώς και να αναδομείτε την ανθρώπινη φωνή, αλλά σήμερα είναι διαθέσιμο μόνο στα αγγλικά. Εν ολίγοις, μια τεχνητή νοημοσύνη που σας επιτρέπει να πείτε τα πάντα σε μια «ανανεωμένη» φωνή. Ποιος θα επικρατήσει σε αυτή τη λεγόμενη «ανανεωτική» τεχνητή νοημοσύνη ; Κανείς δεν ξέρει ακόμα… Το σίγουρο είναι ότι η Open AI κατάφερε να αποσταθεροποιήσει ολόκληρο τον τομέα, κάτι που θα μπορούσε να συμβάλει στο ξαναμοίρασμα της τράπουλας.
 
Le Point: Στο μεταξύ ποιες προφυλάξεις πρέπει να πάρουμε μπροστά σε αυτό το κύμα εξελίξεων ;
Όλοι σκέφτονται τους κινδύνους της εξαπάτησης για παράδειγμα οι μαθητές που χρησιμοποιούν το ChatGPT για να κάνουν την εργασία τους ή επιστήμονες που το χρησιμοποιούν για να γράφουν άρθρα στην θέση τους ή ακόμα και bots που δημιουργούν και διαδίδουν fake news με βιομηχανικό τρόπο και προκαλούν κορεσμό στις μηχανές αναζήτησης. Αλλά το πιο ανησυχητικό ερώτημα είναι οικονομικό : κινδυνεύουμε εξαιτίας της μαεστρίας των chatbots να δούμε να παγιδεύονται ολόκληροι τομείς της οικονομίας του παλιού κόσμου, τουλάχιστον αυτοί που στοχεύουν άμεσα τον καταναλωτή.
Le Point
12/2/23

via Babis Georges Petrakis

-----------------------

Το ολοένα δημοφιλέστερο παγκοσμίως εργαλείο δημιουργικής τεχνητής νοημοσύνης ChatGPT της αμερικανικής εταιρείας Open AI κατάφερε να πετύχει ένα ακόμη ορόσημο: να περάσει τις άκρως απαιτητικές εξετάσεις για άδεια γιατρού στις ΗΠΑ. Ένας υποψήφιος μπορεί να περάσει αυτά τα τεστ μόνο αν έχουν προηγηθεί αρκετά χρόνια ιατρικής εκπαίδευσης και εξάσκησης.

Το ChatGPT έχει καταλάβει εξαπίνης τον κόσμο και φιλοδοξεί να αποτελέσει μια πιο εξελιγμένη και δημιουργική εκδοχή της μηχανής αναζήτησης της Google (γι' αυτό άλλωστε η τελευταία "απάντησε" με το Bard).

Είναι ένα "έξυπνο" σύστημα γνωστό ως μεγάλο γλωσσικό μοντέλο (Large Language Model-LLM), σχεδιασμένο για να αξιοποιεί πληροφορίες από το διαδίκτυο και σε λίγα δευτερόλεπτα να γράφει σαν άνθρωπος διάφορα κείμενα με βάση τις ανάγκες του χρήστη, από επιστημονικά άρθρα μέχρι ποιήματα.

Οι ερευνητές της εταιρείας ιατρικής τεχνολογίας Ansible Health, οι οποίοι έκαναν τη σχετική δημοσίευση στο περιοδικό για θέματα ψηφιακής υγείας "PLoS Digital Health", δοκίμασαν κατά πόσο το ChatGPT μπορεί να απαντήσει τις περίπου 350 ερωτήσεις των τριών τεστ USMLE (United States Medical Licensing Exam). Οι εξετάσεις αυτές αξιολογούν τις ιατρικές γνώσεις σε ένα ευρύ φάσμα, από τη βιοχημεία μέχρι τη διαγνωστική ικανότητα και τη βιοηθική.

Το ChatGPT πέτυχε σκορ 52,4% έως 70%, όταν το όριο που πρέπει να περάσει ένας γιατρός, είναι περίπου το 60%. Μάλιστα στο 89% των ερωτήσεων το "έξυπνο" σύστημα παρήγαγε τουλάχιστον μία σημαντική εμπνευσμένη απάντηση, που ήταν πρωτότυπη, μη προφανής και κλινικά βάσιμη. Επίσης το ChatGPT ξεπέρασε σε επιδόσεις το PudMedGPT, ένα ανάλογο "έξυπνο" μοντέλο εκπαιδευμένο αποκλειστικά στο βιοϊατρικό πεδίο, το οποίο δεν ξεπέρασε σε βαθμολογία το 51%.

"Η επίτευξη βαθμολογίας πάνω από το όριο επιτυχίας σε αυτές τις γνωστές για τη δυσκολία τους εξειδικευμένες ιατρικές εξετάσεις, και μάλιστα χωρίς την παραμικρή ανθρώπινη βοήθεια, σηματοδοτεί ένα αξιοσημείωτο ορόσημο για την ωρίμανση της κλινικής τεχνητής νοημοσύνης", επεσήμαναν οι ερευνητές. Μάλιστα έκαναν γνωστό ότι το ίδιο το ChatGPT τους βοήθησε σημαντικά στο να γράψουν την επιστημονική δημοσίευση τους.

Όπως είπαν, "αλληλεπιδράσαμε με το ChatGPT σαν να ήταν συνάδελφος μας, ζητώντας του να συνθέσει, να απλοποιήσει και να προσφέρει επιχειρήματα στο προσχέδιο της μελέτης μας. Όλοι οι συν-συγγραφείς εκτιμήσαμε πολύ τη συμβολή του ChatGPT".

Η διεύθυνση για την επιστημονική δημοσίευση:

https://journals.plos.org/digitalhealth/article?id=10.1371/journal.pdig.0000198

Σχόλια