Τεχνητή νοημοσύνη: Θα μας φλομώσουν στο ψέμα

 


Μαύρου Όλγα

Στους ιδιαίτερους κινδύνους που θα αντιμετωπίσουμε όλοι από τις ριζοσπαστικές προόδους στην Τεχνητή Νοημοσύνη (ΤΝ) αναφέρθηκε με συνέντευξή τους στους New York Times ο πρωτοπόρος στον τομέα αυτό Τζέφρι Χίντον, που ήταν και υπεύθυνος του συναφούς τμήματος στην Google. Όπως είπε μάλιστα, παραιτήθηκε για να μπορεί να μιλάει ελεύθερα για τους κινδύνους που ενέχει η τεχνολογία της ΤΝ  -ή στα αγγλικά AI (Artificial Intelligence). ΣΥΝΕΧΕΙΑ ΕΔΩ

Για το θέμα έγραψε το SLpress κάνοντας ιδιαίτερη αναφορά στο πόσο εύκολη γίνεται πλέον η προβοκάτσια, και κάναμε και “ρεπορτάζ” ρωτώντας μια πλατφόρμα τεχνητής νοημοσύνης για το Κυπριακό, αλλά και για τον Πούτιν. Μέγα πρόβλημα που θίγει και ο παραιτηθείς επιστήμονας, είναι το άλμα στην εκμάθηση των μηχανών και η πιθανή αυτονόμησή τους, καθώς πρόσφατα οι ειδικοί έπαθαν σοκ όταν διαπίστωσαν ότι οι υπολογιστές έπλασαν λέξεις που εκείνοι δεν καταλάβαιναν και τις οποίες οι “μηχανές” χρησιμοποιούσαν για να επικοινωνούν μεταξύ τους.

Από πολλούς ο Χίντον θεωρείται πνευματικός πατέρας ή “νονός” της τεχνολογίας αυτής.
Ο Χίντον εργάσθηκε πάνω από μια δεκαετία στην Google στο τμήμα αλγορίθμων μηχανικής μάθησης όμως ασχολείται με τα τεχνητά νευρωνικά δίκτυα (που μιμούνται τα ανθρώπινα) από φοιτητής. Προφανώς όσο απασχολείτο στην συγκεκριμένη εταιρεία δεν μπορουσε να αναφέρεται στα μειονεκτήματα της τεχνολογίας αυτής (όπως του chatGPT) και έκρινε ότι ο μόνος τρόπος να δημοσιοποιήσει τις αγωνίες του χωρίς εταιρική λογοκρισία ή χωρίς να έχει πλέον την ευθύνη για τέτοια προγράμματα, ήταν να παραιτηθεί.

Ο λόγος ξεκαθαρίζει δεν ήταν πως ήθελε να μπορεί ελεύθερα να κατακρίνει την Google εν γένει ως εταιρεία, όπως ακόμα και οι New York Times έμμεσα του καταλογίζουν. Διασαφηνίζει μάλιστα ότι κατά την γνώμη του η Google έχει αντιμετωπίσει το θέμα με υπευθυνότητα, αλλά το πρόβλημα είναι εγγενές στην τεχνητή νοημοσύνη καθ΄ αυτή.

Όπως λέει, οι υπολογιστές μπορεί να γίνουν εξυπνότεροι από τον άνθρωπο πολύ νωρίτερα από ό,τι ο ίδιος και άλλοι ειδικοί ανέμεναν. «Παραιτήθηκα ώστε να μπορώ να μιλάω για τους κινδύνους από την ΤΝ χωρίς να πρέπει να ζυγίζω τα συμφέροντα της εταιρείας στην οποία εργάζομαι», είπε ο Τζέφρι Χίντον. Εξέφρασε την ανησυχία του σχετικά με την ικανότητα της τεχνητής νοημοσύνης να δημιουργεί πειστικές ψευδείς εικόνες και κείμενα συνθέτοντας έναν κόσμο στον οποίο οι άνθρωποι «δεν θα μπορούν πλέον να γνωρίζουν τι είναι αληθινό».

Αυτονόμηση

Οι άνθρωποι, χρησιμοποιώντας την τεχνητή νοημοσύνη, μπορουν να παράγουν ψευδείς ειδήσεις, ψευδείς φωτογραφίες, ψευδή βίντεο κ.λπ., όμως ο Χίντον αναφέρει και την παράμετρο μεταξύ άλλων, της αυτονόμησης, καθώς η τεχνητή νοημοσύνη θα πάρει πρωτοβουλίες νωρίτερα από όσο φανταζόμασταν. «Είναι δύσκολο να δει κάποιος πώς μπορεί να εμποδίσει τους κακόβουλους χρήστες από το να τη χρησιμοποιήσουν για κακούς σκοπούς. Η τεχνολογία αυτή μαθαίνει νέες συμπεριφορές διαρκώς. Η ιδέα ότι αυτό το πράγμα θα μπορούσε ουσιαστικά να γίνει εξυπνότερο από τον άνθρωπο, λίγοι το πίστευαν. Οι περισσότεροι θεωρούσαν ότι ήταν μακρινός κίνδυνος. Ακόμα κι εγώ εκτιμούσα ότι θα συνέβαινε σε 30-40 χρόνια. Προφανώς δεν το πιστεύω πλέον» είπε ο Χίντον στους New York Times.

Η Google  από πλευράς της αναφέρει σε ανακοίνωση τα εξής: «Παραμένουμε δεσμευμένοι σε μια υπεύθυνη προσέγγιση της τεχνητής νοημοσύνης. Διαρκώς μαθαίνουμε να αντιλαμβανόμαστε τους αναδυόμενους κινδύνους, ενώ ταυτόχρονα καινοτομούμε τολμηρά». Ομως το πρόβλημα δεν είναι μόνον της Google αφού ο τομέας αυτός ξαφνικά φύτρωσε σαν αγριόχορτο παντού και απασχολούνται σε αυτόν κυριολεκτικά χιλιάδες ειδικοί επιστήμονες και άλλοι τόσοι μη ειδικοί. Και υπάρχουν βέβαια τα εκατομμύρια (αν όχι δισεκατομμύρια) των χρηστών, δηλαδή όλων ημών που μπορούμε με κάποια από τις δεκάδες σχετικές πλατφόρμες να κάνουμε ό,τι θέλουμε.

Ο Χίντον έχει τρομάξει με την ταχύτητα με την οποία οι υπολογιστές πλέον μαθαίνουν τα πάντα, καθώς αναλύουν άπειρα δεδομένα με ένα κριτήριο που τους έχει μεν μάθει ο άνθρωπος, αλλά πλέον είναι δικό τους και ίσως το αναδιαμορφώσουν. Ταυτόχρονα επισημαίνει και τον αυτονόητο κίνδυνο της τραγικής “αξιοποίησης” της ΤΝ, καθώς παγκοσμίως γίνεται ήδη ένας νέος ψυχρός πόλεμος για το ποια υπερδύναμη (ή και μεσαία ή μικρή δύναμη) θα αναπτύξει την χρήση οπλικών συστημάτων με αυτόνομο νευρωνικό δίκτυο (lethal autonomous weapons systems ή LAWS).

Φαρσέρ

Όσον αφορά την ευθύνη του ως εφευρέτη βασικών στοιχείων που οδήγησαν στο σημερινό άλμα, θυμίζει εφιαλτικά όσους επιστήμονες συνέβαλαν στην δημιουργία της ατομικής βόμβας. «Με παρηγορεί μόνον η σκέψη της φυσιολογικής δικαιολογίας ότι αν δεν το είχα κάνει εγώ, θα το είχε κάνει κάποιος άλλος», είπε. Προς το παρόν η μεγάλη έγνοια είναι η πολύ πειστική παραπληροφόρηση. καθώς αυτά τα λογισμικά είναι προσβάσιμα στον καθένα.

Μέχρι στιγμής δεν έχει συμβεί κάτι τραγικό, αλλά είναι πολύ ανησυχητικό ότι κάποια άτομα που ήταν απλοί φαρσέρ, παρέσυραν έντυπα όπως η βρετανική Daily Mail, αλλά και το αμερικανικό Forbes, κάτι που δείχνει ότι ακόμα και κοινοί “πλακατζήδες” μπορούν να ξεγελάσουν επαγγελματίες της πληροφόρησης, πόσο μάλλον έναν απλό αναγνώστη στο διαδίκτυο. Η Daily Mail “την πάτησε” με ρεπορτάζ για ανύπαρκτο Καναδό ηθοποιό που υποτίθεται ότι πέθανε στο χειρουργικό τραπέζι στη διάρκεια πλαστικής επέμβασης.

Η εφημερίδα θεώρησε αυθεντικό το σχετικό δελτίο τύπου, γιατί οι φαρσέρ είχαν καταφέρει να μπουν στο λογισμικό μιας υπαρκτής εταιρείας δημοσίων σχέσεων και είχαν αναρτήσει εξαιρετικές “φωτογραφίες” που ήταν δημιουργήματα τεχνητής νοημοσύνης.  Στα social media έγινε σάλος από δημοσίευμα που υποτίθεται ότι είχε αναρτήσει το Forbes , σύμφωνα με το οποίο ένας Κινέζος διευθύνων σύμβουλος αμερικανικής εταιρείας, ήταν μέλος του κομμουνιστικού κόμματος Κίνας. Όμως το Forbes δεν είχε δημοσιεύσει ποτέ αυτό το “ρεπορτάζ”.

Οι φαρσέρ παρέσυραν όλα τα “κοινωνικά δίκτυα” επειδή κατάφεραν να “φυτέψουν” στην Τεχνητή Νοημοσύνη “στοιχεία” για το βιογραφικό του κινεζικής καταγωγής επιχειρηματία, και την παραπλάνησαν ταυτόχρονα με ανύπαρκτο άρθρο παρομοίου περιεχομένου που υποτίθεται ότι είχε γραφτεί στο Forbes. Aυτό το πρόβλημα πάντως το είχαμε διαπιστώσει κι εμείς, όταν σε ρεπορτάζ μας ζητήσαμε στοιχεία για ανύπαρκτα πρόσωπα και η το chatGPT μας τα βρήκε πρόθυμα, χωρίς καν να τα φυτέψει κάποιος.

===============

 

Η κινεζική εταιρεία Tencent Cloud έχει λανσάρει μια πλατφόρμα παραγωγής "ψηφιακού ανθρώπου" που μπορεί να χρησιμοποιηθεί για να απαντήσει σε πραγματικό χρόνο σε ερωτήσεις , να κάνει ζωντανές μεταδόσεις και πολλά άλλα.
Διαθέσιμοι σε μισό και πλήρες σώμα, αυτοί οι ψηφιακοί άνθρωποι υψηλής ευκρίνειας μπορούν να παραχθούν σε μόλις 24 ώρες έναντι ενός κόστους 1.000 γουάν (145 δολάρια ΗΠΑ). Κατά βάση, η εταιρεία έχει λανσάρει την υπηρεσία Deepfake-as-a-Service (DFaaS), όπως αναφέρεται στην είδηση του Register.
Η πρόσφατη αύξηση στη χρήση της γενικής τεχνητής νοημοσύνης (AI) έχει αυξήσει τους φόβους στο να καθίσταται δύσκολο να διακρίνεις το ψεύτικο περιεχόμενο από το πραγματικό.
Πριν ακόμη ο κόσμος είναι έτοιμος να κατανοήσει τις ψεύτικες ΑΙ εικονες που έγιναν viral, όπως πχ του Πάπα με το πανάκριβο μπουφάν ή του Trump που τον συνέλαβαν, η Tencent έχει προχωρήσει ακόμα πιο πέρα με τα AI-generated βίντεο της.
Πώς λειτουργεί η υπηρεσία της Tencent;
Σύμφωνα με δημοσιεύματα των μέσων ενημέρωσης, η υπηρεσία απαιτεί τρία λεπτά βίντεο με δράση από το πραγματικό άτομο και 100 εκφωνημένες προτάσεις για την εκπαίδευση του ψηφιακού ανθρώπου. Αφού πληρωθεί το κόστος των 1.000 γουάν, η εταιρεία μπορεί να δημιουργήσει τον ψηφιακό άνθρωπο σε 24 ώρες, και είναι διαθέσιμος στα αγγλικά και στα κινεζικά.
Η εταιρεία επιδιώκει να δημιουργήσει μια πλήρως αυτοματοποιημένη πλατφόρμα "AI+ Digital Intelligent Human Factory", όπου οι άνθρωποι θα μπορούν απλά online παραγγείλουν ψηφιακούς ανθρώπους. Επιπλέον, η υπηρεσία επιτρέπει την προσαρμογή ορισμένων στοιχείων.
Αν αυτά συνδυαστούν με τις δυνατότητες αντιγραφής οποιασδήποτε φωνής ή ακόμα και τη δυνατότητα δημιουργίας ρεαλιστικού video απλά από φωτογραφίες προσώπων, καταλαβαίνουμε ότι ένα τεράστιο θέμα που ανακύπτει είναι η τεράστια διασπορά ψευδών ειδήσεων με τη χρήση video ακόμα και σε πραγματικό χρόνο.
Μπαίνουμε σε δύσκολους καιρούς..
================
 

  Κατά την φυσιολογία, ακόμα και φλυαρία έχει τα όριά της. Εντούτοις, δεν υπάρχει νόμος της φύσης που να περιορίζει την ανοησία των όσων λέγονται. Μπορώ κάλλιστα να ξεστομίσω την μεγαλύτερη βλακεία του κόσμου: ούτε σπυρί στη γλώσσα θα βγάλω, ούτε θα πάθω κρίση επιληψίας. Δικαιούμαι άραξε άλλης τιμωρίας; Κατά κανόνα, όχι. Ακόμα κι να επιβληθεί μια τέτοια τιμωρία, δεν πρόκειται να είναι αυστηρή.

    Πρώτα απ' όλα είναι σπάνιο το να επισημάνει κανείς μια βλακεία. Ακόμα κι αν την επισημάνει, δεν θα ' χει ούτε το χρόνο, ούτε την όρεξη, ούτε την ευκαιρία να την αποδείξει. Ακόμα κι αν προσκομίσει αποδείξεις, ελάχιστοι θα είναι εκείνοι που θα προσέξουν τις ενστάσεις του. Κι ακόμα κι αν τις προσέξει κάποιος, δεν πρόκειται να τις αξιοποιήσει.

    Τα ίδια ισχύουν και ως προς το ψεύδος. Βεβαίως, αν το ψεύδος αφορά σε συγκεκριμένα γεγονότα, μπορεί και να έχει αλγεινές συνέπειες για τον ψεύτη. Το ψεύδος αυτού του είδους αποκαλείται συκοφαντία, απάτη, ψευδομαρτυρία. Μπορεί ακόμα να καταλήξει στο δικαστήριο, αν και δεν είναι διόλου αναγκαίο. Αντιθέτως, αν το ψεύδος αφορά σε μια ιδέα, σ' ένα πράγμα δηλαδή που δεν μπορούμε να τ' αγγίξουμε ούτε να το δούμε, μένει ατιμώρητο. Ακριβώς όπως μένει και η βλακεία.

    Ονειρεύομαι ένα νέο νόμο της φύσης, εις εφαρμογήν του οποίου κάθε άτομο θα εδικαιούτο μιας περιορισμένης καθημερινής μερίδας λέξεων. Τόσες λέξεις την ημέρα - ούτε μια παραπάνω. Κι όταν θα τις έχει πει κανείς αυτές τις λέξεις που δικαιούται, να μένει μουγκός ίσαμε το άλλο πρωί.

    Μια θανατερή σιωπή θα βασίλευε εκεί γύρω στο μεσημέρι, μια σιωπή που θα διακοπτόταν που και που από φράσεις όλο νόημα εκ μέρους εκείνων που έχουν ικανότητα να σκέφτονται πριν μιλήσουν ή που, γι άλλους λόγους, φείδονται των λέξεών τους. Και όπως τα λόγια αυτά θα διατρυπούσαν τη σιωπή, θα μπορούσαν επιτέλους να ακουστούν.

    Πώς και σε ποιόν κάνει κακό η βλακεία;
Η πληροφόρηση είναι ο σύνδεσμός μας με την πραγματικότητα. Από την πιο απλή μορφή της ("Ο αμανίτης ο μυοκτόνος είναι δηλητηριώδης", "Τα πορτοκάλια είναι φαγώσιμα") ως λογοτεχνία, που είναι κι αυτή πληροφόρηση, αλλά πιο σύνθετη.

    Η πληροφόρηση είναι η βάση των πράξεών μας. Μια λανθασμένη πληροφόρηση οδηγεί σε άφρονες πράξεις, κάτι που οδηγεί που γνωρίζουν όσοι να φάνε αμανίτες μυοκτόνους επειδή τους είχαν πει ότι ήταν πορτοκάλια. Ένα κακό ποίημα δεν είναι θανατηφόρο, είναι όμως, με τον τρόπο του βλαβερό.

    Πώς και σε ποιόν κάνει κακό το ψεύδος;

    Προφανώς σ' αυτόν κατά του οποίου στρέφεται, εμμέσως όμως βλάπτει κι όλους εμάς, αφού διαλύει το θεμελιώδες συστατικό της πληροφόρησης: την εμπιστοσύνη. Το ψεύδος, δηλαδή η παραπληροφόρηση, χαρίζει στον ψεύτη ένα άμεσο προσωπικό πλεονέκτημα, εις βάρος της κοινότητας. Ο ψεύτης είναι παράσιτο. Αποδυναμώνει τον οργανισμό εντός του οποίου παρασιτεί, και μπορεί να τον οδηγήσει σε αφανισμό.

    Όταν δεν θα υπάρχει εμπιστοσύνη, δεν θα υπάρχουν ψεύτες, αλλά ούτε και πληροφορίες - με λίγα λόγια, δεν θα υπάρχει τίποτα. Θα χάσουμε την επαφή με την πραγματικότητα να προσαρμόζουμε τις πράξεις μας και, επομένως, να εξελισσόμαστε. Ο βλαξ και ο ψεύτης θα μας αφανίσουν.

    Κι ύστερα, δεν θα μείνει παρά ο βλαξ.

    Κείμενο του ΣΛΑΒΟΜΙΡ ΜΡΟΖΕΚ από το περιοδικό Lettre International. Μετάφραση: Αχιλλέας Κυριακίδης
================
  • ..για να υπάρχει επικοινωνία πρέπει να υπάρχει εμπιστοσύνη. Χωρίς εμπιστοσύνη δεν υπάρχει επικοινωνία. Με την παραπάνω δυνατότητα τα πάντα (εκτός από την διά ζώσης επικοινωνία) μπορεί να είναι ψεύτικα, άρα έτσι υπονομεύεται κάθε επικοινωνία και επιστρέφουμε στη σιωπή...

Σχόλια