Θα μπορεί να ελεγχθεί η τεχνητή νοημοσύνη στο μέλλον;
21/06/2025
Όταν το ChatGPT 3.5 κυκλοφόρησε στα τέλη του 2022, η κοινωνία βρέθηκε ξαφνικά μπροστά σε μια πρωτόγνωρη μορφή «έξυπνου συνομιλητή». Το εργαλείο μπορούσε να απαντά, να γράφει, να συνοψίζει και να παράγει κείμενο με εντυπωσιακή φυσικότητα. Για πολλούς ήταν η αρχή μιας τεχνολογικής επανάστασης, με έντονο όμως το ερώτημα κατά πόσο καταλαβαίνει στ’ αλήθεια το AI. Είναι νοήμων οργανισμός ή απλώς μιμείται;
Το πρώτο κύμα ενθουσιασμού βασίστηκε στο γεγονός ότι το ChatGPT 3.5 μπορούσε να παράγει ως τεχνητή νοημοσύνη άψογο κείμενο σε ανθρώπινο ύφος, να μιλάει για ιστορία, επιστήμη, καθημερινότητα, ακόμα και να γράφει ποίηση. Η εικόνα ήταν σχεδόν μαγική. Πολύ γρήγορα, όμως, φάνηκαν τα όρια της μίμησης: Το bot έκανε λάθη εκεί που απαιτούνταν λογική, συχνά «παραληρούσε» όταν έβγαινε από τα συνηθισμένα πλαίσια, και πολλές φορές απαντούσε με αυτοπεποίθηση σε πράγματα που δεν είχε κατανοήσει. Το κοινό συνειδητοποίησε ότι κάτω από την επιφάνεια του “έξυπνου παπαγάλου” κρυβόταν η απουσία εσωτερικής λογικής και εμπειρίας.
Σήμερα, δυόμισι χρόνια μετά, η τεχνολογία έχει κάνει άλματα. Τα LLMs (Large Language Models) έχουν γίνει πιο συνεκτικά, μπορούν να “κρατούν” μεγαλύτερο πλαίσιο συνομιλίας και να αποφεύγουν χοντροκομμένα λάθη που χαρακτήριζαν τις προηγούμενες εκδόσεις τους. Ποσοτικά, η βελτίωση είναι τεράστια. Ποιοτικά όμως, αφήνεται να αιωρείται το ερώτημα εάν όντως διαθέτουν το στοιχείο της εγγενούς κατανόησης. Η απάντηση, σύμφωνα με ειδήμονες του χώρου αλλά και απλούς χρήστες που έχουν αφιερώσει πολλές ώρες χρήσης, είναι ένα περίτρανο ΄’όχι’. Παρά τα τεράστια άλματα στην ικανότητα παραγωγής και στην λογική επεξεργασία του λόγου, τα LLMs στην ουσία ακόμα παραμένουν στείρες μηχανές πρόβλεψης .
Ορισμένοι ερευνητές υποστηρίζουν ότι στα σύγχρονα LLMs αρχίζουν να εμφανίζονται ικανότητες και λειτουργίες που δεν έχουν προγραμματιστεί ρητά, αλλά αναδύονται αυθόρμητα καθώς το μοντέλο τεχνητής νοημοσύνης αυξάνεται σε μέγεθος και πολυπλοκότητα, όπως η επίλυση προβλημάτων ή η λήψη αποφάσεων με στοιχειώδη λογική συνοχή. Ωστόσο, ακόμη και οι υποστηρικτές αυτής της ιδέας παραδέχονται πως δεν υπάρχει πίσω από αυτές εσωτερική κατανόηση παρά μόνο μια στατιστική ψευδαίσθηση νοημοσύνης (τρικ των μοντέλων), που παράγει απαντήσεις που φαίνονται έξυπνες, χωρίς όμως να είναι αποτέλεσμα αληθινού στοχασμού.
Αυτό εξηγεί και γιατί τα LLMs, όσο εντυπωσιακά κι αν ακούγονται ή διαβάζονται, συχνά δεν μπορούν να κρατήσουν σταθερό “χαρακτήρα” ή να αναπτύξουν συνεκτική ηθική κρίση / ορθή αξιολόγηση ηθικών διλημμάτων. , Ούτε μπορούν να αντιληφθούν αιτιακές σχέσεις με τον τρόπο που το κάνει ένας άνθρωπος.Ο πυρήνας της λειτουργίας τους βασίζεται στην ικανότητα να προβλέπουν ποιά λέξη ή φράση θα ακολουθήσει, λαμβάνοντας υπόψη τα στατιστικά patterns που έχουν “απορροφήσει” από τεράστιους όγκους δεδομένων κειμένου.
Η ανθρώπινη σκέψη και η τεχνητή νοημοσύνη
Μάλιστα, μια από τις πιο ενδιαφέρουσες παρατηρήσεις των τελευταίων ετών προέκυψε όχι για τα ίδια τα LLMs, αλλά για εμάς, καθώς ερευνητές της OpenAI και της Anthropic παρατήρησαν ότι η ανθρώπινη σκέψη βασίζεται τελικά σε πολύ λιγότερα γνωστικά μοτίβα από όσο νομίζαμε. Διαπιστώθηκε δηλαδή ότι η ανθρώπινη σκέψη αγνοεί την άπειρη ποικιλία και βασίζεται σε λίγα επαναλαμβανόμενα νοητικά σχήματα και γνωστικά αποτυπώματα. Και αυτό το στοιχείο είναι που ερμηνεύει γιατί τα μοντέλα πιάνουν και αναπαράγουν τις ροές του ανθρώπινου λόγου με εκπληκτική ακρίβεια. Διότι μιμούνται ένα μικρό, επαναλαμβανόμενο σύστημα εννοιολογικών σχημάτων και σημασιών που χρησιμοποιούμε.
Η μνήμη των llm’s περιορίζεται στο “παράθυρο” των tokens, δηλαδή σε ένα μικρό σύνολο από λέξεις ή προτάσεις που έχουν “διαθέσιμες” κάθε στιγμή, και όλη η γνώση τους είναι μια τεράστια βιβλιοθήκη κειμένου, χωρίς αίσθηση χρόνου, προσωπικής εμπειρίας ή εξέλιξης. Η απουσία εσωτερικού “χάρτη του κόσμου” τα καθιστά ευάλωτα σε αντιφάσεις, απλοϊκές γενικεύσεις και “παγιωμένες” αντιλήψεις, αποκομμένες από την φυσική ροή της πραγματικότητας όπως διαπιστωμένα έχουν παρατηρήσει οι χρήστες τους.
Χαρακτηριστική είναι η παραδοχή του Ilya Sutskever, ενός από τους βασικούς “πατέρες” των LLMs, ο οποίος υπογράμμισε πρόσφατα ότι η εποχή του pre-training αποκλειστικά με δεδομένα του διαδικτύου αγγίζει πλέον ταβάνι, καθώς δεν προσφέρει νέα, ανεξερεύνητη γνώση και τα μοντέλα τεχνητής νοημοσύνης απλώς “ξαναζεσταίνουν” τα ίδια patterns. Αντίστοιχα, ο Yann LeCun (chief AI scientist / META) το περιέγραψε εξίσου εύστοχα και χαριτολογώντας πως ‘είναι σαν να έχεις ένα παιδί που έχει διαβάσει όλη τη Wikipedia αλλά δεν έχει βγει ποτέ από το σπίτι του’.
Ο LeCun μάλιστα έχει δώσει και πολύ συγκεκριμένα νούμερα σε συνεντεύξεις και papers για να δείξει πόσο πίσω είναι τα LLMs συγκριτικά με το ανθρώπινο μυαλό, ειδικά στη μνήμη και στη διαχείριση πληροφορίας. Έχει πει χαρακτηριστικά ότι η ανθρώπινη μακροπρόθεσμη μνήμη εκτιμάται στα 2,5–3 τεραμπάιτ δεδομένων μέχρι τα 40–50 χρόνια ζωής, αν μεταφράσουμε τις νευρικές συνδέσεις σε bits. Τα σημερινά LLMs (π.χ. GPT-4, Llama 3) μπορεί να έχουν περάσει 1000+ TB δεδομένων εκπαίδευσης , αλλά η ενεργή μνήμη τους είναι απειροελάχιστη, μόλις λίγες χιλιάδες tokens, δηλαδή… 0,001% της συνολικής “μνήμης” ενός ανθρώπου, τονίζοντας ότι το μεγάλο πρόβλημα δεν είναι τα data, αλλά το πώς δομείται και χρησιμοποιείται η μνήμη, κάτι που το ανθρώπινο μυαλό κάνει με εκπληκτική αποδοτικότητα και πλαστικότητα.
Στο ίδιο κλίμα κινείται και η πρόσφατη μελέτη της Apple για την τεχνητή νοημοσύνη, η οποία ξεσήκωσε θύελλα σχολίων στον τεχνολογικό χώρο. Η Apple διαπίστωσε πως τα LLMs δεν διαθέτουν εσωτερικό reasoning. Δεν κάνουν πραγματική σκέψη, ούτε καν στα βασικά. Απλώς βρίσκουν patterns και συνεχίζουν τα μοτίβα που έχουν συναντήσει στα δεδομένα τους. Αυτό που μοιάζει με σκέψη ή λογική λειτουργία τους τελικά είναι ένα παιχνίδι στατιστικής πρόβλεψης και τίποτα παραπάνω. Σύμφωνα με την Apple, τα μοντέλα αυτά συχνά δίνουν αυθαίρετες και αδικαιολόγητες απαντήσεις, ειδικά όταν καλούνται να αντιμετωπίσουν προβλήματα έξω από τα κλασικά δεδομένα της εκπαίδευσής τους.
Scaling hypothesis
Από την άλλη πλευρά, η στρατηγική γραμμή που εκπροσωπεί ο Sam Altman (OpenAI), αλλά και εταιρίες όπως η DeepMind και η Google Brain, βασίζονται στην αρχή του λεγόμενου scaling hypothesis, δηλαδή την πεποίθηση ότι όσο αυξάνονται οι παράμετροι των μοντέλων, τα δεδομένα και η υπολογιστική ισχύς, τόσο τα LLMs θα βελτιώνονται όχι μόνο ποσοτικά αλλά και ποιοτικά, φτάνοντας, ίσως, σε υψηλότερες μορφές κατανόησης.
Όμως εδώ πρέπει να ξεκαθαριστεί ότι αυτοί που υποστηρίζουν το scaling γνωρίζουν πολύ καλά τα όρια των μοντέλων και δεν θρέφουν καμία αυταπάτη. Η στρατηγική τους βασίζεται στο ότι η εκθετική ενίσχυση της απόδοσης μπορεί – και πρέπει – να συντηρήσει την ροή επενδύσεων, να κερδίσει χρόνο και να διατηρήσει την θέση της εκάστοτε εταιρείας στο επίκεντρο του επενδυτικού ενδιαφέροντος.
Στην πράξη, ανεξαρτήτως σχολής σκέψης, όλοι συγκλίνουν στην ίδια αναγκαία κατεύθυνση, με την επόμενη φάση της τεχνητής νοημοσύνης να περνά μέσα από συστήματα που δεν θα ζουν μόνο σε server ή σε chat είτε πρόκειται για AI agents, που δρουν αυτόνομα σε ψηφιακά περιβάλλοντα, είτε για embodied AI, που θα πρέπει να κινούνται, να αισθάνονται και να μαθαίνουν μέσα στον πραγματικό κόσμο.
Σήμερα, σχεδόν όλες οι μεγάλες εταιρείες του οικοσυστήματος, από την OpenAI και τη Meta, μέχρι την Tesla και τη xAI του Musk, εργάζονται πάνω σε τέτοιες μορφές embodied AI / AI agents, με στόχο να μεταφέρουν τη νοημοσύνη από το cloud στον φυσικό κόσμο. Η OpenAI, σε συνεργασία με τον Jony Ive (πρώην σχεδιαστή της Apple), ετοιμάζει μια φορητή AI συσκευή χωρίς οθόνη, που θα βλέπει και θα ακούει το περιβάλλον του χρήστη σε πραγματικό χρόνο, λειτουργώντας ως πανταχού-παρών βοηθός. Η συσκευή αυτή, σύμφωνα με αναφορές, θα αποτελέσει τον “τρίτο βασικό κόμβο” μετά το κινητό και τον υπολογιστή, και αναμένεται να αλλάξει τον τρόπο που αλληλεπιδρούμε με το AI.
Η Meta αναπτύσσει τα δικά της έξυπνα γυαλιά με ενσωματωμένο AI, με στόχο τη διαρκή, hands-free επαφή με πληροφορία και καθοδήγηση. Παράλληλα, η Tesla εξελίσσει τον Optimus, το humanoid ρομπότ που ήδη εκτελεί βασικές λειτουργίες σε εργοστασιακό περιβάλλον και εκπαιδεύεται για καταρχήν γενικές ανθρώπινες εργασίες και ως βοηθός σπιτιού.
H βιολογική ενσωμάτωση
Η Neuralink, από την πλευρά της, προχωράει σε κάτι ακόμα πιο ριζικό, που είναι η βιολογική ενσωμάτωση, δηλαδή η άμεση σύνδεση του ανθρώπινου εγκεφάλου με υπολογιστικά συστήματα AI. Η πρώτη εμφύτευση ήδη πραγματοποιήθηκε, ανοίγοντας το δρόμο για μια μορφή “υβριδικής σκέψης”, με αδιάκριτα τα όρια μεταξύ ανθρώπου και μηχανής
Οι λεγόμενοι AI agents είναι μοντέλα που δεν περιορίζονται απλώς στο να απαντούν σε ερωτήσεις, αλλά μπορούν να εκτελούν ενέργειες αυτόνομα όπως το να σχεδιάζουν, να αναλύουν, να παίρνουν αποφάσεις και να συνεργάζονται μεταξύ τους σε ψηφιακά περιβάλλοντα. Πρόκειται για ένα νέο είδος “λειτουργικής” νοημοσύνης, που δεν περιμένει εντολές, αλλά δρα, μαθαίνει και εξελίσσεται σύμφωνα με τον στόχο που του έχει τεθεί.
Ένα χαρακτηριστικό παράδειγμα είναι το ChatDev, ένα σύστημα στο οποίο πολλοί agents αναλαμβάνουν ρόλους όπως διευθύνων σύμβουλος, προγραμματιστής, σχεδιαστής προϊόντος ή νομικός σύμβουλος, συνεργαζόμενοι μεταξύ τους σαν να ήταν μέλη μιας νεοφυούς επιχείρησης. Από κοινού σχεδιάζουν, υλοποιούν και λανσάρουν ένα νέο προϊόν, ξεκινώντας από το μηδέν και ολοκληρώνοντας κάθε στάδιο χωρίς ανθρώπινη παρέμβαση. Ακόμη πιο εντυπωσιακή είναι η δυνατότητα οργάνωσης τέτοιων οικοσυστημάτων μέσω πλατφορμών όπως το AgentOps, οι οποίες επιτρέπουν τον συντονισμό δεκάδων agents ταυτόχρονα, σαν να επρόκειτο για μια πλήρως λειτουργική ψηφιακή επιχείρηση χωρίς προσωπικό αλλά με συνοχή, ιεραρχία και στόχο.
Σε κάθε περίπτωση, η τεχνητή νοημοσύνη τρέχει πιο γρήγορα απ’ ό,τι οι θεσμοί μπορούν να καταλάβουν, να ελέγξουν ή να διαχειριστούν. Αργά αλλά σταθερά οδεύουμε στην απονομιμοποίηση της πολιτικής, την τεχνοκρατική εξουσία χωρίς λογοδοσία, την διαστρέβλωση της δημόσιας σφαίρας και σε μία σιωπηρή αναδιάταξη εξουσίας από την δημοκρατία στην τεχνοκρατία. Και είναι μόνο η αρχή.