ΘΕΜΑ

Βλέπουν οι Ευρωπαίοι νομοθέτες για την Τεχνητή Νοημοσύνη Black Mirror;

Βλέπουν οι Ευρωπαίοι νομοθέτες για την Τεχνητή Νοημοσύνη Black Mirror; Μάκης Ανδρονόπουλος

Αν οι νομοθέτες του νομοσχεδίου “AI EU Act” που δημοσιοποιήθηκε στις 14/6/2023 είχαν δει το πρώτο επεισόδιο της 6ης σεζόν του “Black Mirror” με τίτλο “Joan Is Awful” (“Η Τζόαν είναι απαίσια”) σίγουρα θα είχαν προχωρήσει πιο βαθιά, σε πιο τεχνικά θέματα προκειμένου να φτιάξουν το πρώτο, σε παγκόσμια κλίμακα, νομοθέτημα για το πλαίσιο χρήσης της Τεχνητής Νοημοσύνης (ΤΝ).

Το επεισόδιο αυτό μας εισάγει στον κόσμο του multiverse, όπου η πραγματικότητα και η εικονικότητα εμπλέκονται χάρις τις δυνατότητες ενός κβαντικού υπολογιστή. Πρόκειται για την ιστορία της Joan (Annie Murphy) που είναι μεγαλοστέλεχος σε μια εταιρεία, η οποία ένα βράδυ αντιλαμβάνεται πως η πλατφόρμα με ταινίες και σίριαλ Streamberry παίζει κυριολεκτικά τη ζωής της με πρωταγωνίστρια την Salma Hayek ακόμη και στις πιο ιδιωτικές στιγμές της.

Τρομοκρατημένη και εξοργισμένη επιχειρεί να κινηθεί νομικά κατά της Streamberry, αλλά ο δικηγόρος της την πληροφορεί ότι με ένα Accept (αποδέχομαι) που πάτησε στο κινητό της είχε αποδεχθεί ένα πακέτο με ψιλά γράμματα (από αυτά που κανείς δεν διαβάζει) με το οποίο παρέδωσε ουσιαστικά την ζωή της στην εταιρεία που δούλευε. Μπροστά στο αδιέξοδο, η Joan αλλάζει τακτική και προβαίνει σε μια σειρά προκλητικών ενεργειών έτσι ώστε να προβοκάρει την Salma Hayek και να θέσει αυτή απέναντι στην Streamberry. Αποδεικνύεται όμως ότι κι αυτή δεν παίζει στην ταινία, αλλά ένα ψηφιακό της ομοίωμα που κι αυτή είχε παραχωρήσει στην Streamberry. Οι δύο γυναίκες βρίσκονται σε αδιέξοδο και αποφασίζουν να καταστρέψουν τον κβαντικό υπολογιστή.

Δεν έχει νόημα να πούμε πως τελειώνει η ιστορία, αλλά σε κάποια σκηνή η διευθύνουσα σύμβουλος της Streamberry, Mona Javadi, εξηγεί σε μία δημοσιογράφο πως ο υπολογιστής λειτουργεί ως ένας δημιουργός άπειρου περιεχομένου. Στόχος είναι να λανσάρουμε μοναδικό, προσαρμοσμένο περιεχόμενο για κάθε άτομο στη βάση δεδομένων μας, που δημιουργείται εν κινήσει από το σύστημά μας. Στο ερώτημα γιατί επιλέξανε να βγάλουνε την “απαίσια” πλευρά της Joan, η Javadi λέει ότι το κοινό είναι εθισμένο στο να παρακολουθεί τις χειρότερες εκδοχές του εαυτού του στην οθόνη, να επιβεβαιώνει τους φόβους του… η Streamberry οικειοποιείται αυτή την ανθρώπινη τάση για αυτο-υποτίμηση, με μηδενικό σεβασμό στην ιδιωτική ζωή της Joan…

Πολιτικά ευαίσθητο το νομοθέτημα

Με όλα αυτά, το δημοκρατικότατο και ανθρωποκεντρικό ευρωνομοθέτημα επιχειρεί ταυτόχρονα να διασφαλίσει τα θεμελιώδη ανθρώπινα και πολιτικά δικαιώματα και την απρόσκοπτη επιδίωξη της καινοτομίας ώστε να μην εμποδιστεί η τεχνολογική εξέλιξη, κι όλα αυτά σε συνθήκες διαφάνειας. Ειδικότερα το νομοσχέδιο ουσιαστικά διαχωρίζει τις χώρες σε αυτές που θα αξιοποιούν την τεχνολογία με βάση τις δημοκρατικές αρχές και σε εκείνες που τη χρησιμοποιούν για να ελέγχουν τους πολίτες τους. Το νομοθέτημα που ψηφίστηκε με μεγάλη πλειοψηφία στο Ευρωκοινοβούλιο προσεγγίζει το όλο ζήτημα της Τεχνητής Νοημοσύνης μέσα από τρεις παραμέτρους: την ασφάλεια, την προστασία της ιδιωτικής ζωής και της απόδοσης του συστήματος, τις οποίες σταθμίζει μέσα από τέσσερα επίπεδα κινδύνου.

Σε συνέντευξή τους στην HuffPost Greece οι εισηγητές του νομοσχεδίου, ευρωβουλευτές Dragoș Tudorache και Brando Benefei, επισημαίνουν την ανάγκη να εμπιστευτούν το νομοθέτημα οι Ευρωπαίοι ώστε να αποφευχθεί η καχυποψία και η απόρριψη. Τονίζουν ότι «νομοθετείται η χρήση της συγκεκριμένης τεχνολογίας και όχι η ίδια η τεχνολογία» και ότι ταξινομούνται τέσσερα επίπεδα κινδύνου: Ανεπίτρεπτος κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή μηδενικός κίνδυνος. «Η γνωστική συμπεριφορική χειραγώγηση ατόμων ή συγκεκριμένων ευάλωτων ομάδων, η κοινωνική βαθμολογία, η προληπτική αστυνόμευση (minority report) και τα συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου, υπάγονται στην πρώτη κατηγορία και απαγορεύονται».

Στη δεύτερη κατηγορία υψηλού κινδύνου υπάγονται τα συστήματα Τεχνητής Νοημοσύνης που χρησιμοποιούνται από υποψηφίους ή κόμματα για τον επηρεασμό των εκλογικών αποτελεσμάτων ή που χρησιμοποιούνται για τη διαλογή ασθενών στον τομέα της υγειονομικής περίθαλψης ή για τον καθορισμό της επιλεξιμότητας για ασφάλιση υγείας και ζωής, ή τέλος υπηρεσίες όσον αφορά επιδόματα κοινωνικής πρόνοιας ή τράπεζες για τη λήψη ενός δανείου.

Για τις μηχανές τύπου ChatGPT που δημιουργούν περιεχόμενο, οι εταιρείες οφείλουν να παρέχουν το είδος των αλγόριθμων που χρησιμοποιούν, να υπάρχει καταγραφή του υλικού που υπόκειται σε δικαιώματα πνευματικής ιδιοκτησίας, ενώ όσον αφορά τη χρήση παραποιημένων εικόνων, που ήδη χρησιμοποιούνται ακόμη και σε προεκλογικές εκστρατείες, πλέον θα πρέπει να γνωστοποιείται στο κοινό ότι πρόκειται για προϊόντα παραποίησης. Επίσης προβλέψεις υπάρχουν και για τους αλγόριθμους συλλογής στοιχείων από τα κοινωνικά δίκτυα για τον επηρεασμό των ψηφοφόρων.

Χωρίς μηχανισμούς τακτικού ελέγχου

Δεν υπάρχει αμφιβολία πως το νομοσχέδιο διαθέτει ισχυρή εσωτερική λογική και είναι ουσιαστικά ευαίσθητο για τα δημοκρατικά δικαιώματα, αλλά και για το μέλλον της απασχόλησης, δεδομένου ότι όπως επισημαίνει σχετική έκθεση του Παγκόσμιου Οικονομικού Φόρουμ τα επόμενα πέντε χρόνια το 23% των θέσεων εργασίας θα καταργηθούν, ήτοι περί τα 83 εκατ. άνθρωποι θα χάσουν τη δουλειά τους στις δυτικές χώρες. Προφανώς, αυτό είναι ένα θέμα που σχετίζεται με τη χρήση της Τεχνητής Νοημοσύνης που η χρήση της αναμένεται να προσλάβει εκθετική μορφή. Κι εκεί πρέπει να εγκαίρως να εφαρμοστεί η ιδέα του robot tax και όχι μόνο.

Όμως οι αγαθές προβλέψεις του νομοθετήματος, αν και εκτεταμένες, πρέπει να δούμε πως θα εφαρμοστούν. Κατ’ αρχήν ο χωρισμός των χωρών σε αυτές που χρησιμοποιούν με βάση αξίες την τεχνολογία και σε αυτές που την έχουν για να ελέγχουν τους πολίτες τους είναι μια βάση “ηθική” που δεν έχει λειτουργήσει. Όλη η Ασία πουλάει στην υποκριτική Δύση με όρους κοινωνικού dumping. Τι συζητάμε τώρα; Άλλωστε στον ψηφιακό κόσμο του www και του blockchain η “έδρα” όχι μόνο δεν είναι εύκολα εντοπίσιμη, αλλά μπορεί να είναι κάπου εκτός δυτικής δικαιοδοσίας. Η συμφωνία για τη χρήση της Τεχνητής Νοημοσύνης πρέπει να είναι παγκόσμια και να περιλαμβάνει μηχανισμούς ελέγχου, όπως στα πυρηνικά όπλα.

Αλλά ας βγούμε τώρα πίσω από το δάκτυλό μας. Ο ανταγωνισμός των μεγάλων δυνάμεων, αλλά και των μεσαίων και ίσως και των μικρών δεν θα σταματήσει για λόγους δικαιωμάτων και δημοκρατικότητας την ανεξέλεγκτη ανάπτυξη της ΤΝ. Κι αυτό γιατί όπως απέδειξε ο πόλεμος στην Ουκρανία η τεχνολογία και ειδικότερα η Τεχνητή Νοημοσύνη παίζουν καταλυτικό ρόλο (πυραυλικά συστήματα, συστήματα αμύνης και ηλεκτρονικού πολέμου κ.ο.κ.).

Όπως αναφέρω στο βιβλίο μου “Sαpiens 3 κόντρα στον Μετάνθρωπο” πριν μερικά χρόνια δεκάδες χώρες είχαν ζητήσει από τον ΟΗΕ να απαγορεύσει τα αυτόνομα ρομποτικά οπλικά συστήματα. Επίσης, δεν αρκεί για πολλούς ειδικούς η νομοθέτηση του καλού και του κακού αν δεν μπουν όρια στην έρευνα-ανάπτυξη, ποιος εγγυάται ότι μπορεί να εμφανιστούν κρούσματα αυτονόμησης της ΤΝ. Αν πιστέψουμε τα ουκ ολίγα δημοσιεύματα στον διεθνή τύπο δεν είναι λίγες οι περιπτώσεις που η Τεχνητής Νοημοσύνη κάνει του κεφαλιού της ή ότι εμφανίζει ενδείξεις αυτοσυνείδησης…

Οι “Τρεις Νόμοι της Ρομποτικής”

Με τη δυναμική των επενδύσεων που έχει προσλάβει η ανάπτυξη της Τεχνητής Νοημοσύνης και η φιλολογία για τα τρισεκατομμύρια του τζίρου της, ο ανταγωνισμός δεν θα σταθεί καν μπροστά στους περίφημους “Τρεις Νόμους της Ρομποτικής” του είχε εκπονήσει ο Ισαάκ Ασίμοφ:

  • Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον.
  • Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο.
  • Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο.

Αργότερα, οι τρεις νόμοι συμπληρώθηκαν με τον μηδενικό νόμο που προβλέπει ότι «το ρομπότ δε θα κάνει κακό στην ανθρωπότητα, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί η ανθρωπότητα».

Σε κάθε περίπτωση το ευρωνομοθέτημα είναι θετικό, αλλά χωρίς μηχανισμούς ελέγχου δεν θα έχει και μεγάλη επιρροή στην εξέλιξη της Τεχνητής Νοημοσύνης. Δεν ξέρουμε πότε θα αξιολογείται ο κίνδυνος, πριν ή μετά και πώς;

Οι απόψεις που αναφέρονται στο κείμενο είναι προσωπικές του αρθρογράφου και δεν εκφράζουν απαραίτητα τη θέση του SLpress.gr

Απαγορεύεται η αναδημοσίευση του άρθρου από άλλες ιστοσελίδες χωρίς άδεια του SLpress.gr. Επιτρέπεται η αναδημοσίευση των 2-3 πρώτων παραγράφων με την προσθήκη ενεργού link για την ανάγνωση της συνέχειας στο SLpress.gr. Οι παραβάτες θα αντιμετωπίσουν νομικά μέτρα.

Ακολουθήστε το SLpress.gr στο Google News και μείνετε ενημερωμένοι