ΘΕΜΑ

Τεχνητή νοημοσύνη: Θα μας φλομώσουν στο ψέμα

Τεχνητή νοημοσύνη: Θα μας φλομώσουν στο ψέμα, Όλγα Μαύρου

Στους ιδιαίτερους κινδύνους που θα αντιμετωπίσουμε όλοι από τις ριζοσπαστικές προόδους στην Τεχνητή Νοημοσύνη (ΤΝ) αναφέρθηκε με συνέντευξή τους στους New York Times ο πρωτοπόρος στον τομέα αυτό Τζέφρι Χίντον, που ήταν και υπεύθυνος του συναφούς τμήματος στην Google. Όπως είπε μάλιστα, παραιτήθηκε για να μπορεί να μιλάει ελεύθερα για τους κινδύνους που ενέχει η τεχνολογία της ΤΝ  -ή στα αγγλικά AI (Artificial Intelligence).

Για το θέμα έγραψε το SLpress κάνοντας ιδιαίτερη αναφορά στο πόσο εύκολη γίνεται πλέον η προβοκάτσια, και κάναμε και “ρεπορτάζ” ρωτώντας μια πλατφόρμα τεχνητής νοημοσύνης για το Κυπριακό, αλλά και για τον Πούτιν. Μέγα πρόβλημα που θίγει και ο παραιτηθείς επιστήμονας, είναι το άλμα στην εκμάθηση των μηχανών και η πιθανή αυτονόμησή τους, καθώς πρόσφατα οι ειδικοί έπαθαν σοκ όταν διαπίστωσαν ότι οι υπολογιστές έπλασαν λέξεις που εκείνοι δεν καταλάβαιναν και τις οποίες οι “μηχανές” χρησιμοποιούσαν για να επικοινωνούν μεταξύ τους.

Από πολλούς ο Χίντον θεωρείται πνευματικός πατέρας ή “νονός” της τεχνολογίας αυτής.
Ο Χίντον εργάσθηκε πάνω από μια δεκαετία στην Google στο τμήμα αλγορίθμων μηχανικής μάθησης όμως ασχολείται με τα τεχνητά νευρωνικά δίκτυα (που μιμούνται τα ανθρώπινα) από φοιτητής. Προφανώς όσο απασχολείτο στην συγκεκριμένη εταιρεία δεν μπορουσε να αναφέρεται στα μειονεκτήματα της τεχνολογίας αυτής (όπως του chatGPT) και έκρινε ότι ο μόνος τρόπος να δημοσιοποιήσει τις αγωνίες του χωρίς εταιρική λογοκρισία ή χωρίς να έχει πλέον την ευθύνη για τέτοια προγράμματα, ήταν να παραιτηθεί.

Ο λόγος ξεκαθαρίζει δεν ήταν πως ήθελε να μπορεί ελεύθερα να κατακρίνει την Google εν γένει ως εταιρεία, όπως ακόμα και οι New York Times έμμεσα του καταλογίζουν. Διασαφηνίζει μάλιστα ότι κατά την γνώμη του η Google έχει αντιμετωπίσει το θέμα με υπευθυνότητα, αλλά το πρόβλημα είναι εγγενές στην τεχνητή νοημοσύνη καθ΄ αυτή.

Όπως λέει, οι υπολογιστές μπορεί να γίνουν εξυπνότεροι από τον άνθρωπο πολύ νωρίτερα από ό,τι ο ίδιος και άλλοι ειδικοί ανέμεναν. «Παραιτήθηκα ώστε να μπορώ να μιλάω για τους κινδύνους από την ΤΝ χωρίς να πρέπει να ζυγίζω τα συμφέροντα της εταιρείας στην οποία εργάζομαι», είπε ο Τζέφρι Χίντον. Εξέφρασε την ανησυχία του σχετικά με την ικανότητα της τεχνητής νοημοσύνης να δημιουργεί πειστικές ψευδείς εικόνες και κείμενα συνθέτοντας έναν κόσμο στον οποίο οι άνθρωποι «δεν θα μπορούν πλέον να γνωρίζουν τι είναι αληθινό».

Αυτονόμηση

Οι άνθρωποι, χρησιμοποιώντας την τεχνητή νοημοσύνη, μπορουν να παράγουν ψευδείς ειδήσεις, ψευδείς φωτογραφίες, ψευδή βίντεο κ.λπ., όμως ο Χίντον αναφέρει και την παράμετρο μεταξύ άλλων, της αυτονόμησης, καθώς η τεχνητή νοημοσύνη θα πάρει πρωτοβουλίες νωρίτερα από όσο φανταζόμασταν. «Είναι δύσκολο να δει κάποιος πώς μπορεί να εμποδίσει τους κακόβουλους χρήστες από το να τη χρησιμοποιήσουν για κακούς σκοπούς. Η τεχνολογία αυτή μαθαίνει νέες συμπεριφορές διαρκώς. Η ιδέα ότι αυτό το πράγμα θα μπορούσε ουσιαστικά να γίνει εξυπνότερο από τον άνθρωπο, λίγοι το πίστευαν. Οι περισσότεροι θεωρούσαν ότι ήταν μακρινός κίνδυνος. Ακόμα κι εγώ εκτιμούσα ότι θα συνέβαινε σε 30-40 χρόνια. Προφανώς δεν το πιστεύω πλέον» είπε ο Χίντον στους New York Times.

Η Google  από πλευράς της αναφέρει σε ανακοίνωση τα εξής: «Παραμένουμε δεσμευμένοι σε μια υπεύθυνη προσέγγιση της τεχνητής νοημοσύνης. Διαρκώς μαθαίνουμε να αντιλαμβανόμαστε τους αναδυόμενους κινδύνους, ενώ ταυτόχρονα καινοτομούμε τολμηρά». Ομως το πρόβλημα δεν είναι μόνον της Google αφού ο τομέας αυτός ξαφνικά φύτρωσε σαν αγριόχορτο παντού και απασχολούνται σε αυτόν κυριολεκτικά χιλιάδες ειδικοί επιστήμονες και άλλοι τόσοι μη ειδικοί. Και υπάρχουν βέβαια τα εκατομμύρια (αν όχι δισεκατομμύρια) των χρηστών, δηλαδή όλων ημών που μπορούμε με κάποια από τις δεκάδες σχετικές πλατφόρμες να κάνουμε ό,τι θέλουμε.

Ο Χίντον έχει τρομάξει με την ταχύτητα με την οποία οι υπολογιστές πλέον μαθαίνουν τα πάντα, καθώς αναλύουν άπειρα δεδομένα με ένα κριτήριο που τους έχει μεν μάθει ο άνθρωπος, αλλά πλέον είναι δικό τους και ίσως το αναδιαμορφώσουν. Ταυτόχρονα επισημαίνει και τον αυτονόητο κίνδυνο της τραγικής “αξιοποίησης” της ΤΝ, καθώς παγκοσμίως γίνεται ήδη ένας νέος ψυχρός πόλεμος για το ποια υπερδύναμη (ή και μεσαία ή μικρή δύναμη) θα αναπτύξει την χρήση οπλικών συστημάτων με αυτόνομο νευρωνικό δίκτυο (lethal autonomous weapons systems ή LAWS).

Φαρσέρ

Όσον αφορά την ευθύνη του ως εφευρέτη βασικών στοιχείων που οδήγησαν στο σημερινό άλμα, θυμίζει εφιαλτικά όσους επιστήμονες συνέβαλαν στην δημιουργία της ατομικής βόμβας. «Με παρηγορεί μόνον η σκέψη της φυσιολογικής δικαιολογίας ότι αν δεν το είχα κάνει εγώ, θα το είχε κάνει κάποιος άλλος», είπε. Προς το παρόν η μεγάλη έγνοια είναι η πολύ πειστική παραπληροφόρηση. καθώς αυτά τα λογισμικά είναι προσβάσιμα στον καθένα.

Μέχρι στιγμής δεν έχει συμβεί κάτι τραγικό, αλλά είναι πολύ ανησυχητικό ότι κάποια άτομα που ήταν απλοί φαρσέρ, παρέσυραν έντυπα όπως η βρετανική Daily Mail, αλλά και το αμερικανικό Forbes, κάτι που δείχνει ότι ακόμα και κοινοί “πλακατζήδες” μπορούν να ξεγελάσουν επαγγελματίες της πληροφόρησης, πόσο μάλλον έναν απλό αναγνώστη στο διαδίκτυο. Η Daily Mail “την πάτησε” με ρεπορτάζ για ανύπαρκτο Καναδό ηθοποιό που υποτίθεται ότι πέθανε στο χειρουργικό τραπέζι στη διάρκεια πλαστικής επέμβασης.

Η εφημερίδα θεώρησε αυθεντικό το σχετικό δελτίο τύπου, γιατί οι φαρσέρ είχαν καταφέρει να μπουν στο λογισμικό μιας υπαρκτής εταιρείας δημοσίων σχέσεων και είχαν αναρτήσει εξαιρετικές “φωτογραφίες” που ήταν δημιουργήματα τεχνητής νοημοσύνης.  Στα social media έγινε σάλος από δημοσίευμα που υποτίθεται ότι είχε αναρτήσει το Forbes , σύμφωνα με το οποίο ένας Κινέζος διευθύνων σύμβουλος αμερικανικής εταιρείας, ήταν μέλος του κομμουνιστικού κόμματος Κίνας. Όμως το Forbes δεν είχε δημοσιεύσει ποτέ αυτό το “ρεπορτάζ”.

Οι φαρσέρ παρέσυραν όλα τα “κοινωνικά δίκτυα” επειδή κατάφεραν να “φυτέψουν” στην Τεχνητή Νοημοσύνη “στοιχεία” για το βιογραφικό του κινεζικής καταγωγής επιχειρηματία, και την παραπλάνησαν ταυτόχρονα με ανύπαρκτο άρθρο παρομοίου περιεχομένου που υποτίθεται ότι είχε γραφτεί στο Forbes. Aυτό το πρόβλημα πάντως το είχαμε διαπιστώσει κι εμείς, όταν σε ρεπορτάζ μας ζητήσαμε στοιχεία για ανύπαρκτα πρόσωπα και η το chatGPT μας τα βρήκε πρόθυμα, χωρίς καν να τα φυτέψει κάποιος.

Οι απόψεις που αναφέρονται στο κείμενο είναι προσωπικές του αρθρογράφου και δεν εκφράζουν απαραίτητα τη θέση του SLpress.gr

Απαγορεύεται η αναδημοσίευση του άρθρου από άλλες ιστοσελίδες χωρίς άδεια του SLpress.gr. Επιτρέπεται η αναδημοσίευση των 2-3 πρώτων παραγράφων με την προσθήκη ενεργού link για την ανάγνωση της συνέχειας στο SLpress.gr. Οι παραβάτες θα αντιμετωπίσουν νομικά μέτρα.

Ακολουθήστε το SLpress.gr στο Google News και μείνετε ενημερωμένοι