ΘΕΜΑ

Κρύβει η εφαρμογή της Τεχνητής Νοημοσύνης στον πόλεμο έναν Terminator;

Κρύβει η εφαρμογή της Τεχνητής Νοημοσύνης στον πόλεμο έναν Terminator; Κωνσταντίνος Γιαννακός

Ο πόλεμος παραμένει μία ανθρώπινη δραστηριότητα για την επίτευξη πολιτικών σκοπών. Δεν ενδιαφέρει για τις ανάγκες του άρθρου εάν οι σκοποί είναι δίκαιοι ή άδικοι, εφικτοί ή ανέφικτοι, λογικοί ή παράλογοι. Έχει σημασία να υπενθυμίσουμε ότι παγκοσμίως έχει επικρατήσει ο δυτικός τρόπος διεξαγωγής του πολέμου και οργάνωσης των ενόπλων δυνάμεων. Η δε εποχή της Τεχνητής Νοημοσύνης παρουσιάζει νέες προκλήσεις και για τον πόλεμο.

Στον πόλεμο στην Ουκρανία παρατηρείται η συχνή χρήση μη επανδρωμένων συστημάτων στο πεδίο της μάχης. Με αυξανόμενη συχνότητα σε ξηρά, θάλασσα και αέρα, οι άνθρωποι καλούνται να αντιμετωπίσουν όχι άλλους ανθρώπους, αλλά μη επανδρωμένα συστήματα. Είναι μία μορφή πολέμου πρωτόγνωρη και όλα δείχνουν ότι θα επικρατήσει. Δεν ισχυρίζομαι ότι γνωρίζω τη μορφή των μελλοντικών επιχειρήσεων.

Είναι το ίδιο με το να περίμενε κανείς από τους στρατιωτικούς που έζησαν τον ρωσοϊαπωνικό πόλεμο του 1905, να προβλέψουν τη μορφή των επιχειρήσεων και τα οπλικά συστήματα στο πεδίο μάχης το 1918. Το μόνο που οι πιο διορατικοί μπορούσαν να πουν είναι ότι οι κατά μέτωπο επιθέσεις εναντίον οχυρωμένων θέσεων ενισχυμένων με πολυβόλα και συρματόπλεγμα, υποστηριζόμενων με αφθονία πυροβολικού, ήταν καταδικασμένες να προκαλούν τεράστιες απώλειες, ακόμα και εάν ήταν επιτυχείς.

Όταν ο Αϊνστάιν διατύπωσε στις 27/9/1905 την Ειδική Θεωρία της Σχετικότητας, ανοίγοντας νέους δρόμους, κανένας δεν φανταζόταν ότι μόλις 40 χρόνια θα είχαμε Χιροσίμα και Ναγκασάκι. Αντίστοιχα, οι ραγδαίες εξελίξεις στην Τεχνητή Νοημοσύνη, στις διαδικασίες Μηχανικής Μάθησης (Machine Learning), καθώς και στις νευροεπιστήμες και τη βιοτεχνολογία, ανοίγουν νέους δρόμους που δεν μπορούμε σήμερα να φανταστούμε.

Πλήγματα χωρίς ανθρώπινη παρέμβαση

Στον πόλεμο, η πρόβλεψη είναι παρακινδυνευμένη. Η ρήση του Κλεμανσό ότι «ο πόλεμος είναι πολύ σοβαρή υπόθεση για να την εμπιστευτούμε στους στρατιωτικούς» ταιριάζει στην προκειμένη περίπτωση. Εάν πρέπει να θεσπίσουμε κανόνες και όρια στην εξέλιξη κάποιων τεχνολογιών ή στην εφαρμογή τους στο πεδίο της μάχης, είναι ανάγκη αυτά τα ερωτήματα να τεθούν και να απαντηθούν από τους πολιτικούς σε παγκόσμιο επίπεδο.

Το πρώτο και βασικότερο ερώτημα είναι εάν θα επιτραπεί στα κράτη, σε εταιρείες και ερευνητικά εργαστήρια να αναπτύξουν και εφαρμόσουν τεχνολογίες που θα επιτρέπουν σε μία “σκεπτόμενη” μηχανή να σκοτώνει ανθρώπους, χωρίς την παρέμβαση ανθρώπου-χειριστή. Τα σημερινά πυρομαχικά, όσο και εάν αποκαλούνται “έξυπνα”, δεν παύουν να έχουν την ανθρώπινη παρέμβαση στον πυρήνα τους.

Οι άνθρωποι αποφασίζουν ποιοι είναι οι στόχοι, πότε και πώς θα προσβληθούν, βάσει των επιθυμητών αποτελεσμάτων και των περιορισμών που οι ίδιοι θέτουν (π.χ. αποφυγή προσβολής νοσοκομείων, τόπων λατρείας, κλπ), ενώ σε συχνά υπάρχει και η δυνατότητα ανάκλησης της απόφασης προσβολής. Το γεγονός ότι το πυρομαχικό θα κατευθυνθεί βάσει προγραμματισμού στον στόχο του, κάνοντας διάφορους ελιγμούς δεν αναιρεί τη φύση του.

Το τεράστιο ηθικό πρόβλημα θα δημιουργηθεί εάν επιτραπεί η ανάπτυξη λογισμικού το οποίο θα επιτρέπει σε μία μηχανή να αποφασίζει μόνη της ποιους στόχους θα προσβάλει, πότε, με ποια πυρομαχικά, χωρίς την ανθρώπινη παρέμβαση πέραν του αρχικού προγραμματισμού. Δεν γίνεται λόγος για δυνητικές καταστάσεις τύπου Matrix ή Terminator, όπου η εξέλιξη της Τεχνητής Νοημοσύνης θα έχουν καταστήσει τις μηχανές αυτόνομες, αν κι αυτό δεν μπορεί να αποκλειστεί.

Τεχνητή Νοημοσύνη και εγκλήματα πολέμου

Το πιο απλό ηθικό πρόβλημα είναι αυτό της λογοδοσίας. Σήμερα, σε περίπτωση διάπραξης εγκλημάτων πολέμου, οι στρατοί έχουν διαδικασίες εσωτερικού ελέγχου, ασχέτως εάν αναγνωρίζουν τη δικαιοδοσία του διεθνούς δικαστηρίου. Οι υπεύθυνοι καλούνται να λογοδοτήσουν και συχνά τιμωρούνται. Τι θα γίνει όμως εάν μία μηχανή διαπράξει εγκλήματα πολέμου, χωρίς να της έχει δοθεί σχετική διαταγή, αλλά ή επειδή υπάρχει κάποια αστοχία στο λογισμικό, ή επειδή πήρε πρωτοβουλία;

Ας υποτεθεί ότι ένα ρομπότ ή ομάδα ρομπότ εκτιμήσει ότι σε μία χώρα που οι δυνάμεις κατοχής αντιμετωπίζουν αντάρτικο πόλεων, οι πιο επικίνδυνοι αντίπαλοι είναι τα παιδιά, διότι μεταφέρουν κρυφά οπλισμό και μηνύματα. Αποφασίζει, λοιπόν, ότι αυτοί οι στόχοι πρέπει να εξουδετερωθούν. Οπότε αρχίζουν να εκτελούν τα παιδιά της πόλης. Ποιος είναι ο ηθικός αυτουργός αυτής της φρικαλεότητας; Ο προγραμματιστής των ρομπότ, ο διοικητής της δύναμης, που δεν έχει καμία σχέση με τον τρόπο λειτουργίας τους, ή ο πολιτικός προϊστάμενος; Τι γίνεται εάν αυτά τα ρομπότ ανήκουν σε εταιρεία παροχής υπηρεσιών ασφαλείας;

Ένα άλλο πιθανό πρόβλημα θα προκύψει εάν τα συστήματα αυτά προγραμματιστούν με βάση τη στρατιωτική λογική. Όλοι οι επικεφαλής στρατιωτικών τμημάτων, από τον ομαδάρχη μέχρι τον Α/ΓΕΕΘΑ εκπαιδεύονται με τη λογική ότι όλα και όλοι υποτάσσονται στην ανάγκη εκπλήρωσης της αποστολής, οποιαδήποτε και εάν είναι αυτή. Αυτό είναι απαραίτητο προκειμένου τα στελέχη να αντέχουν ψυχολογικά την πίεση και να διαχειρίζονται την ενοχή που προκύπτει από τη γνώση ότι οι διαταγές που εκδίδουν ή εκτελούν προκαλούν τον θάνατο εχθρών, υφισταμένων, ή και τον δικό τους.

Τι γίνεται σε υποθετική περίπτωση που η μηχανή κρίνει ότι η παρέμβαση του χειριστή για ακύρωση μιας αποστολής έρχεται σε αντίθεση με τον αρχικό προγραμματισμό της, οπότε πρέπει ή να τον αγνοήσει ή να στραφεί εναντίον του, όπως αναφέρθηκε πρόσφατα;
Μέχρι τώρα ο πόλεμος σήμαινε την απώλεια ανθρώπινων ζωών (φιλίων ή εχθρών), οπότε οι περισσότερες πολιτικές και στρατιωτικές ηγεσίες είχαν αρκετούς ενδοιασμούς, προκειμένου να αποφασίσουν την έναρξη των επιχειρήσεων.

Όταν ο κύριος όγκος των ενόπλων δυνάμεων μιας χώρας θα αποτελείται από μηχανές, μήπως αυτό καταστήσει πιο απερίσκεπτες τις ηγεσίες; Ποια η ηθική εάν μία ανεπτυγμένη χώρα με αφθονία πολεμικών ρομπότ κηρύξει τον πόλεμο σε μία φτωχότερη και στρατιωτικά καθυστερημένη, η οποία αναγκαστικά θα παρατάξει στο πεδίο της μάχης ανθρώπους; Μήπως η ανθρωπότητα ξαναγυρίσει στην εποχή της πρώιμης αποικιοκρατίας του 16ου αιώνα;

Εφιαλτικά σενάρια

Το πιο ανησυχητικό είναι η πιθανότητα διασποράς της τεχνολογίας Τεχνητής Νοημοσύνης σε χέρια τρομοκρατικών οργανώσεων ή παραφρόνων. Οι  Ράϊνχαρντ Χάιντριχ, Έρνστ Καλτενμπρούνερ και Άντολφ Άιχμαν ήταν άνθρωποι με υψηλό κοινωνικό στάτους. Ποιος φανταζόταν στις αρχές της δεκαετίας του 1930 ότι οι ανωτέρω σε λιγότερο από μία 10ετία, στο πλαίσιο του ναζιστικού καθεστώτος, θα κινητοποιούσαν τις δυνατότητες του πιο οργανωμένου κράτους της Ευρώπης για την εξόντωση εκατομμυρίων ανθρώπων, με μόνο κριτήριο την καταγωγή;

Εάν τα παραπάνω αναφορικά με την Τεχνητή Νοημοσύνη μοιάζουν ανησυχητικά ή τρομακτικά, τότε δεν έχουν ληφθεί σοβαρά υπόψη οι εξελίξεις στον τομέα της βιοτεχνολογίας και της σύζευξης ανθρώπων-υπολογιστών-μηχανών, όπως τα πειράματα που προτίθεται να διενεργήσει ο Ίλον Μασκ. Εάν σε μερικά χρόνια υπάρξει η δυνατότητα επέμβασης και τροποποιήσεων στο ανθρώπινο σώμα, οι αλλαγές θα μπορούν να χρησιμοποιηθούν για πολεμικούς σκοπούς.

Εάν μπορεί να δημιουργηθεί μία κατηγορία ανθρώπων που θα έχουν μεγαλύτερη μυϊκή δύναμη από τους υπόλοιπους, καλύτερη όραση και ακοή, μεγαλύτερη ευφυΐα, ενώ παράλληλα θα έχουν αυξημένη αντοχή στον πόνο, τον φόβο ή την κόπωση, μήπως τότε δημιουργηθεί η “Άρια Φυλή”, που ονειρεύονταν οι Ναζί, με τις ευλογίες της επιστήμης; Κι αυτοί που θα είναι καλύτεροι στρατιώτες/επιχειρηματίες/επιστήμονες δεν θα θελήσουν να αντικαταστήσουν τις “κατώτερες μάζες” στη διακυβέρνηση των κρατών-εταιρειών-πανεπιστημίων κλπ; Μήπως οδηγηθούμε σε ένα εφιαλτικό τέλος της δημοκρατίας;

Οι παραπάνω προβληματισμοί είναι ενδεικτικοί αυτών που θα κληθεί να αντιμετωπίσει η ανθρωπότητα στο όχι και τόσο μακρινό μέλλον. Η νομικίστικη προσέγγιση θεωρεί αρκετή την υπογραφή διεθνών συνθηκών, οι οποίες θα ρυθμίζουν τα εν λόγω θέματα. Δυστυχώς η πείρα έχει αποδείξει ότι κανένα νομικό έγγραφο δεν είναι δεσμευτικό για κυβερνήσεις, όταν διακυβεύονται θέματα εθνικής επιβίωσης.

Η Γερμανία είχε υπογράψει τις Συμβάσεις της Χάγης του 1899 και του 1907, αλλά αυτό δεν την εμπόδισε να εισβάλει στο Βέλγιο και να χρησιμοποιήσει χημικές ουσίες κατά τον Α’ Παγκόσμιο Πόλεμο. Ομοίως οι ανωτέρω συμβάσεις δεν την εμπόδισαν να προβεί σε σφαγές, όπως στο Δίστομο ή στην διάπραξη του Ολοκαυτώματος. Η Βρετανία και οι ΗΠΑ δεν θεώρησαν ότι δεσμεύονταν από συνθήκες όταν προέβαιναν σε αδιάκριτους αεροπορικούς βομβαρδισμούς ή στην ρίψη της ατομικής βόμβας κατά αμάχων.

Οι απόψεις που αναφέρονται στο κείμενο είναι προσωπικές του αρθρογράφου και δεν εκφράζουν απαραίτητα τη θέση του SLpress.gr

Απαγορεύεται η αναδημοσίευση του άρθρου από άλλες ιστοσελίδες χωρίς άδεια του SLpress.gr. Επιτρέπεται η αναδημοσίευση των 2-3 πρώτων παραγράφων με την προσθήκη ενεργού link για την ανάγνωση της συνέχειας στο SLpress.gr. Οι παραβάτες θα αντιμετωπίσουν νομικά μέτρα.

Ακολουθήστε το SLpress.gr στο Google News και μείνετε ενημερωμένοι