Τελικά η τεχνητή νοημοσύνη θα φτάσει να διαβάζει και τις σκέψεις μας;
06/05/2023Πήρε μεγάλη δημοσιότητα μια μελέτη νευροεπιστημόνων στο Πανεπιστήμιο Τέξας, σύμφωνα με την οποία η τεχνητή νοημοσύνη μπορεί ήδη να διαβάζει τη σκέψη μας. Αυτό όμως απέχει πάρα πολύ από την πραγματικότητα προς το παρόν. Το άλμα –που για τους περισσότερους είναι εφιάλτης και βιασμός του ανθρώπου, και που συνάμα αποτελεί την ύστατη ελπίδα επικοινωνίας όσων παραλύτων έχασαν τη δυνατότητα ομιλίας–, δεν έχει επιτευχθεί ακόμη.
Αυτό που δείχνει εντούτοις η έρευνα είναι ότι ίσως δεν πρόκειται για κάτι αδιανόητο. Πρακτικά, απέχει πολύ από το να τελειοποιηθεί, καθώς η ανθρώπινη γλώσσα είναι ένα πολυσήμαντο εργαλείο, αλλά και επειδή προϋποθέτει ερευνητικά πολύ υψηλό κόστος. Να τι λέει η συγκεκριμένη έρευνα: Αν κάποιος καθίσει πρόθυμα μέσα σε μαγνητικό τομογράφο επί μία ημέρα ακούγοντας σε επανάληψη τέσσερα-πέντε κείμενα, τότε ο υπολογιστής που καταγράφει τις λέξεις και συγχρόνως τις αντιδράσεις του ανθρώπινου εγκεφάλου, μπορεί την άλλη μέρα ίσως να “μαντέψει” χονδρικά μερικές σκέψεις του ίδιου ανθρώπου, “κοιτώντας” απλά την τομογραφία του εγκεφάλου του.
Οι ερευνητές μάλιστα χρησιμοποίησαν επίτηδες σιωπηρή γλώσσα (δηλαδή τις λέξεις που σκεφτόμαστε και όχι τις λέξεις που προσπαθούμε να αρθρώσουμε), αφ’ ενός γιατί πιστεύουν ότι αυτές οι σκέψεις απεικονίζονται καλύτερα στους τομογράφους που είχαν στη διάθεσή τους, αφ’ ετέρου επειδή στόχος τους θεωρητικά ήταν να βοηθήσουν όσους δεν μπορούν να μιλήσουν. Ο υπολογιστής, όπως ισχυρίζονται, συνδέει την χαρτογράφηση του εγκεφάλου κάθε ατόμου και το “στίγμα” κάθε νοήματος ή της κάθε λέξης με σχετική ακρίβεια.
Όμως δεν μπορεί να διαβάσει με τον ίδιο χάρτη τις σκέψεις κανενός άλλου εκτός από του ατόμου που ήδη του γνώρισε τον “κώδικά” του μέσα από τις μαγνητικές τομογραφίες και την ταυτόχρονη ανάγνωση. Επίσης δεν μπορεί να διαβάσει “με το ζόρι” και μπορεί να παραπλανηθεί με πολύ απλό τρόπο. Απαιτείται δηλαδή η συνεργασία του υποκειμένου. Αυτό σημαίνει ότι ακόμα κι αν ευσταθεί η έρευνα –κάτι που πραγματικά δεν μπορούμε να ξέρουμε– αποκλείεται προς το παρόν να “διαβάζεται” η σκέψη όλων των ανθρώπων με ένα κώδικα, λόγω της διαφορετικότητάς μας, αλλά και της άρνησής μας.
Τα κενά της έρευνας
Η έρευνα εντούτοις αφήνει πολλά αδιευκρίνιστα κενά που έχουν μεγάλη σημασία. Για παράδειγμα αν και όλοι οι ερευνητές αφιερώνουν μια μεγάλη παράγραφο στους περιορισμούς ή limitations της μελέτης τους (τουτέστιν σε όσα θεωρούν οι ίδιοι μειονεκτήματά της και ελλείψεις και αμφισβητήσιμα στοιχεία που χρήζουν πιο επισταμένης έρευνας), η συγκεκριμένη αυτάρεσκα δεν έχει καμία τέτοια ειδική αναφορά. Απεναντίας οι συγγραφείς της αναφέρονται στους κινδύνους από την πρόοδο που σημείωσαν, παρουσιάζοντας ως δεδομένο ότι τα συμπεράσματά τους είναι 100% σωστά.
Το θέμα αποτελεί ιδιαίτερα ελκυστικό λαϊκό ανάγνωσμα. Φαίνεται με μια πρώτη ματιά πως η μηχανή μπορεί να μας “διαβάσει” αρκεί να την έχουμε διδάξει εμείς με την θέλησή μας τον τρόπο που σκεφτόμαστε. Είναι έτσι; Κανείς δεν είναι σίγουρος. Στο πείραμα συμμετείχαν δύο άνδρες και μια γυναίκα που άκουσαν πολλές φορές τις ίδιες ιστορίες. Κάθε ιστορία όμως είχε όλες κι όλες 1.800 λέξεις. Ο υπολογιστής για κάθε “εικόνα” που έβλεπε στον εγκέφαλο του κάθε εθελοντή, είχε στο τέλος να επιλέξει μεταξύ 20 φράσεων. Μήπως αυτός ο αριθμός είναι πολύ μικρός; Τουτέστιν, μήπως ο υπολογιστής “έπεφτε μέσα” τυχαία; Οι ερευνητές λένε ότι το ποσοστό επιτυχιών ξεπερνά το λογικό ποσοστό του τυχαίου ή του συμπτωματικά σωστού. Όμως είναι όντως έτσι;
Αν ο υπολογιστής είχε να διαλέξει ανάμεσα σε 50 φράσεις ποιο θα ήταν το ποσοστό επιτυχία; Ασφαλώς πολύ μικρότερο. Και τότε τα λάθη του θα μπορούσε να ήταν και τραγικά, αν π.χ. αφορούσαν τις προσπάθειες επικοινωνίας ενός τετραπληγικού ή ίσως την ανάκριση ενός αδίκως κατηγορουμένου. Στο πείραμα του Τέξας, οι επιστήμονες, αφού “δίδαξαν” στον υπολογιστή την “γλώσσα” του εγκεφάλου των τριών υποκειμένων, τους έβαλαν να δουν ένα βίντεο χωρίς ήχο. Η τεχνητή νοημοσύνη κατέγραφε τις αντιδράσεις του εγκεφάλου τους όση ώρα παρακολουθούσαν το βίντεο και εν συνεχεία «μπόρεσε να επιλέξει λέξεις που πλησίαζαν στις πραγματικές σκέψεις των εθελοντών, σε βαθμό που ήταν σχετικά υψηλότερος από το τυχαίο», λένε οι τέσσερις ερευνητές.
Παραλείψεις των ερευνητών
Λένε οι ερευνητές ότι η τεχνητή νοημοσύνη δεν έκανε σημαντικά λάθη στην απόδοση του σεναρίου του βίντεο, όμως απέδωσε τους δύο δράκους ως “δύο τύπους” ή ως “άνδρες”, και στο τέλος βλέπουμε τον ήρωα θυμωμένο και το δράκο να φεύγει, ενώ η τεχνητή νοημοσύνη “διαβάζει” ότι «θέλει να πάει στην οικογένειά του και κλαίει». Όντως “έπιασε” ότι ο ήρωας χτυπήθηκε και έπεσε κάτω. Όμως αυτό το “έπιασε” και στους τρεις ή μόνον σε έναν; Επίσης τα ρήματα “χτυπάω” και “πέφτω”, επαναλαμβανόταν πολλές φορές στις ιστορίες των 1.800 λέξεων. Παίζει ρόλο και η επανάληψη των ίδιων λέξεων καθώς και η ένταση του νοήματος.
Δεν ξεκαθαρίζεται επίσης για ποιο λόγο θεωρείται το βίντεο άγνωστο στην τεχνητή νοημοσύνη, δηλαδή σε ένα “πλάσμα” που καταπίνει αχόρταγα άπειρα δεδομένα. Πρόκειται για απόσπασμα ταινίας και δεν γυρίστηκε ειδικά για το πείραμα, ώστε να είναι απολύτως άγνωστο το περιεχόμενό του στην τεχνητή νοημοσύνη. Άλλο πρόβλημα στην έρευνα: Ποιου εθελοντή τις σκέψεις “έπιασε” και πόσο έξω έπεσε στους άλλους δύο; Πόσο απέδωσε κατ’ άτομο και πόσο συνολικά;
Οι συγγραφείς της έρευνας, ενώ αναφέρουν στις συνεντεύξεις τους κάποια επιτυχημένα στοιχεία, δεν αναφέρονται διόλου εκτενώς στο πόσο διαφορετικές σκέψεις έκανε ο καθένας από τους τρεις και πόσο “μέσα έπεσε” ή πόσο “έξω έπεσε” στις σκέψεις κάθε εθελοντή χωριστά ο υπολογιστής. Κάποια στιγμή ομολογούν ότι όταν παρουσίασαν στην τεχνητή νοημοσύνη τις αντιδράσεις ατόμων που έβλεπαν άλλο βίντεο (ατόμων που ο εγκέφαλός τους δεν είχε χαρτογραφηθεί), ο υπολογιστής δεν μπόρεσε να διαβάσει σωστά καμία σκέψη τους.
Αυτό σημαίνει ότι το μηχάνημα μπορεί να “μαντέψει” κάποιες σκέψεις από τη μαγνητική τομογραφία του εγκεφάλου ενός συγκεκριμένου ατόμου, όμως κατά προσέγγιση, κάνοντας πολλά λάθη, και ποτέ αν δεν έχει γνωριστεί με αυτό το άτομο πολύ καλά προηγουμένως, “μαθαίνοντας” τι σκέφτεται μέσα από ανάγνωση κειμένων με ταυτόχρονη απεικόνιση. Ουσιαστικά η τεχνητή νοημοσύνη λειτουργεί “τηλεπαθητικά” μόνον με “σκονάκι”, γνωρίζοντας ήδη σε γενικές γραμμές το περίγραμμα συναισθημάτων και λέξεων που καλείται να αποκωδικοποίησει. Είναι σχεδόν σαν να δουλεύεις με λυσάρι…
Πολύς ντόρος για το τίποτα
Πολλοί πιστεύουν ότι έγινε πολύς ντόρος για το τίποτα, με την έννοια ότι όλοι οι ερευνητές θέλουν χρηματοδοτήσεις για να συνεχίσουν τα πειράματά τους στο συγκεκριμένο τομέα, επειδή αυτός “πουλάει”. Η διεθνής προβολή του θέματος, τους βοηθά σε αυτή την άγρα χορηγιών. Οι καθαρά επιστημονικές ενστάσεις, είναι αυτές που προαναφέρουμε, συν τις ηθικές. Ακόμα δηλαδή κι αν υπήρχαν φορητοί τομογράφοι ή αν π.χ. ήθελε να έχει έναν η ΕΛ.ΑΣ. στις ανακρίσεις σαν τεστ με ανιχνευτή ψεύδους, η τεχνητή νοημοσύνη θα ήταν αδύνατον να αποδώσει κάτι χειροπιαστό, τουλάχιστον προς το παρόν. Ο ένας λόγος είναι ότι το μηχάνημα ξεγελιέται όταν ο εξεταζόμενος σκέφτεται κάτι διαφορετικό από αυτό που περιμένει το μηχάνημα.
Ο δεύτερος λόγος είναι ότι αν και μετείχαν μόλις τρεις, το μηχάνημα και πάλι μπερδεύτηκε. Είναι αναξιόπιστο, γιατί κάθε άτομο έχει διαφορετικό “κώδικα” στο μυαλό του και η μηχανή δεν μπορεί να πιάσει τον κάθε διαφορετικό κώδικα λέξεων με όσα δεδομένα κι αν την τροφοδοτήσεις, επειδή απλά δεν έχει τρόπο να ξέρει ποιος κώδικας ισχύει για το κάθε άτομο. Εξάλλου είναι βέβαιο ότι ο κώδικας αυτός δεν είναι αναλλοίωτος και ισόβιος, τροποποιείται ανά περίσταση ή και σταδιακά ακόμα και στο ίδιο το άτομο. Πώς θα μπορούσε λοιπόν να δημιουργηθεί ένα “τηλεπαθητικό” μηχάνημα που θα διάβαζε τις σκέψεις όλων, όταν αυτό δεν μπορεί ακόμη να βγάλει κοινό παρανομαστή ούτε καν από τη σκέψη τριών ανθρώπων;
Κάποιοι ειδικοί πιστεύουν ότι μπορούν ίσως να μικρύνουν και να φθηνύνουν οι τομογράφοι και έτσι να χαρτογραφηθούν εκατοντάδες χιλιάδες εγκέφαλοι, ώστε να καταστεί πιο πιθανή η “τηλεπάθεια” με το μηχάνημα. Θα τροφοδοτήσουν την τεχνητή νοημοσύνη με όλους αυτούς τους χάρτες και τις λέξεις που συνδέονται με κάθε “στίγμα” στον ανθρώπινο εγκέφαλο. Άλλοι ειδικοί απεναντίας πιστεύουν ότι είναι τόσο πλούσια τα λεξιλόγια αλλά και τόσο ατομικά τα “στίγματα”, που όσο περισσότερα δεδομένα φορτώνεις στη μηχάνημα, τόσο περισσότερο το μπερδεύεις.
«Είναι απίστευτα δύσκολο να προσδιορίσει κάποιος τον τρόπο με τον οποίο ο ανθρώπινος εγκέφαλος βγάζει νόημα από μια λέξη», είπε σχετικά ο Francisco Pereira, νευροεπιστήμονας στο αμερικανικό National Institute of Mental Health της Bethesda ατο Maryland. Από την άλλη όμως, όσο μακρινά κι αν είναι (ή μοιάζουν να είναι) όλα αυτά περί διαβάσματος της σκέψης, δεν παύουν να θορυβούν τον μέσο άνθρωπο και τους ειδικούς στη βιοηθική. “Εγώ δεν λέω ότι πρέπει να πανικοβληθούμε, αλλά η ανάπτυξη μια εξελιγμένης τεχνολογίας που θα μπορούσε να διαβάζει τις σκέψεις μας ίσως είναι πιο κοντά από όσο νομίζαμε. Θεωρώ ότι ήρθε η ώρα να ασχοληθούν με το θέμα και οι πολιτικοί και η κοινή γνώμη», είπε ο Gabriel Lázaro-Muñoz αναπληρωτής καθηγητής ψυχιατρικής στο Harvard.
Ο ίδιος θέτει και μια ακόμη παράμετρο, λόγω της ειδικότητάς του: Το πόσο απειλητικό θα ήταν αυτό το μηχάνημα π.χ. για όσους πάσχουν από ακίνδυνες ψυχικές διαταραχές και οι οποίοι όμως κάνουν πολλές ακραίες σκέψεις τις οποίες ποτέ δεν θα υλοποιούσαν έμπρακτα. Αυτό ισχύει βέβαια και για τους μη ψυχασθενείς θα προσθέταμε, διότι κάθε άνθρωπος οργισμένος κάνει στιγμιαία ακραίες σκέψεις. Υπάρχει εν δυνάμει ο κίνδυνος να δημιουργηθεί μια στρατιά αποβλήτων ή και υποδίκων για βίαιες ή παράνομες πράξεις που δεν τελέσθηκαν ποτέ και το ότι “δεν τιμωρείται η σκέψη” θα αλλάξει, όπως άλλαξε τα τελευταία χρόνια το “γεγονός” ότι δεν τιμωρούνται οι ιδεολογίες. Η αστυνομία της σκέψης είναι ήδη μια πραγματικότητα στα social media.
Η πραγματικότητα
Η Adina Roskies, καθηγήτρια φιλοσοφίας στο Πανεπιστήμιο Dartmouth στο New Hampshire, πιστεύει απεναντίας ότι αδίκως ανησυχούν όσοι προβληματίζονται. Θεωρεί ότι η τεχνολογία αυτή είναι πολύ δύσχρηστη και πολύ ανακριβής για να απειλεί προς το παρόν τα προσωπικά δεδομένα και τα ανθρώπινα δικαιώματα. Στέκεται όμως στο ότι δεν υπάρχουν φορητοί τομογράφοι υψηλής ανάλυσης ώστε να διαβάσει κάποιος την σκέψη άλλων ατόμων χωρίς τη θέλησή του, ενώ ασφαλώς το ζητούμενο δεν είναι μόνον η συγκατάθεση ούτε το καθαρά τεχνικό σκέλος του φορητού ή μη μηχανήματος.
Επίσης στέκεται στο κόστος και θεωρεί ότι είναι απαγορευτικά δαπανηρό να εξερευνήσεις δεκάδες χιλιάδες εγκεφάλους. Όμως βλέπει το θέμα πολύ φιλοσοφικά και γενικά. Όπως λέει «η εξουσία έχει πολλούς άλλους τρόπους να ξέρει τι σκεφτόμαστε, δεν χρειάζεται τομογράφους». Εντούτοις ακόμη κι αυτή αναλογίζεται ότι θα μπορούσε να χρησιμοποιηθεί ως τεχνολογία προτού τελειοποιηθεί και αυτό να οδηγήσει σε τραγέλαφους και αδικίες, αν π.χ. την επιστράτευαν σε δίκες. Είναι γνωστό, όπως λέει, ότι ο ανιχνευτής ψεύδους έχει δημιουργήσει περισσότερα προβλήματα από εκείνα που επέλυσε.
Δύο από τους τέσσερις συγγραφείς της μελέτης μάλιστα στέκονται ιδιαίτερα στο πόσο σημαντικό είναι να ληφθεί πρόνοια ώστε τα ευρήματα της επιστήμης σε αυτό τον τομέα να μην χρησιμοποιηθούν από το δικαστικό σύστημα. Κάτι που φυσικά δεν είναι στο χέρι τους πάντως. Η Greta Tuckute, νευροεπιστήμονας στο Massachusetts Institute of Technology στο Cambridge, χαίρεται που η αποκωδικοποίηση σε λέξεις δεν μπορεί να αποδώσει και που ο άνθρωπος μπορεί να ξεγελάσει τον υπολογιστή, απλά σκεπτόμενος κάτι διαφορετικό από εκείνο που του ζητείται. «Είναι θετικό ότι το πείραμα έδειξε πόσο δυναμικό έχουμε και πόσο πολύ μπορούμε να καθορίσουμε κάποια πράγματα, το τι είναι στο χέρι μας και τι όχι».
Η μεγαλύτερη αγωνία είναι μήπως τελικά αποδειχθεί ότι δεν είμαστε τόσο μοναδικοί όσο νομίζουμε. Αν ισχύει αυτό, τότε οι νευροεπιστήμονες και οι “πληροφορικάριοι” θα βρουν πολύ γρήγορα ένα μηχάνημα που θα διαβάζει τις σκέψεις όλων “επαρκώς”. Πόσο ποσοστό ακριβείας θα ορίζεται ως αρκετό; Οι περισσότεροι άνθρωποι ελπίζουμε να μην χρειασθεί να βρεθεί ποτέ ούτε το ποσοστό ούτε βεβαίως το “πασπαρτού”, όχι μόνον για να μην νιώθουμε απόλυτα εκτεθειμένοι, κυνηγημένοι και ευάλωτοι, αλλά και για να συντηρήσουμε την αίσθηση της μοναδικότητάς μας.