Όταν οι αλγόριθμοι μπαίνουν στον πόλεμο – Η υπόθεση Anthropic
10/03/2026
Είναι σε όλους μας γνωστό ότι η τεχνητή νοημοσύνη δεν αποτελεί πλέον απλώς ένα εργαλείο ανάλυσης δεδομένων ή μια υπόσχεση για το μέλλον των στρατιωτικών τεχνολογιών. Μάλιστα στον πόλεμο που εξελίσσεται γύρω από το Ιράν, φαίνεται πως έχει ήδη αρχίσει να διαδραματίζει ουσιαστικό ρόλο στο παρασκήνιο των στρατιωτικών επιχειρήσεων.
Σύμφωνα με δημοσιογραφικές πληροφορίες που επικαλούνται αμερικανικές στρατιωτικές πηγές, συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για την επεξεργασία μεγάλων όγκων πληροφοριών, όπως δορυφορικές εικόνες και δεδομένα αισθητήρων, μέχρι υποκλαπείσες επικοινωνίες και επιχειρησιακές αναφορές. Η λειτουργία τους δεν είναι (τουλάχιστον επισήμως) να λαμβάνουν αποφάσεις για επιθέσεις, αλλά να βοηθούν τους αναλυτές και τους διοικητές να κατανοούν ταχύτερα την κατάσταση στο πεδίο μάχης.
Μέσα σε αυτό το νέο τεχνολογικό τοπίο εμφανίζεται η Anthropic, μία από τις σημαντικότερες εταιρείες ανάπτυξης μεγάλων γλωσσικών μοντέλων παγκοσμίως. Η εταιρεία ιδρύθηκε από πρώην ερευνητές της OpenAI, με επικεφαλής τον Dario Amodei και έγινε γνωστή για την οικογένεια μοντέλων τεχνητής νοημοσύνης Claude. Από την αρχή προσπάθησε να διαφοροποιηθεί προβάλλοντας την ανάπτυξη “ασφαλούς” τεχνητής νοημοσύνης, με έμφαση σε μηχανισμούς ελέγχου και περιορισμούς στη χρήση της τεχνολογίας της. Παρά τη συγκεκριμένη ρητορική της, η Anthropic βρέθηκε γρήγορα στο επίκεντρο του αμερικανικού στρατιωτικού οικοσυστήματος. Το περασμένο καλοκαίρι εξασφάλισε συμβόλαιο περίπου 200 εκατομμυρίων δολαρίων από το Πεντάγωνο για την ανάπτυξη ειδικών μοντέλων τεχνητής νοημοσύνης για κυβερνητική χρήση.
Δημιουργήθηκε έτσι το Claude Gov, μια έκδοση του συστήματος προσαρμοσμένη για κρατικές υπηρεσίες και στρατιωτικές ανάγκες, με διαφορετικές ρυθμίσεις και λιγότερους περιορισμούς. Μέχρι πρόσφατα, μάλιστα, η εταιρεία ήταν από τις ελάχιστες που είχαν άδεια να εργάζονται απευθείας με απόρρητα στρατιωτικά δεδομένα. Επισήμως, τα μοντέλα αυτά χρησιμοποιούνται κυρίως για αναλύσεις πληροφοριών και διοικητικές εργασίες, όπως σύνταξη αναφορών, περίληψη εγγράφων, οργάνωση δεδομένων και υποστήριξη στρατιωτικού σχεδιασμού.
Ωστόσο, πηγές στον αμερικανικό τεχνολογικό Τύπο αναφέρουν ότι οι δυνατότητες τους εκτείνονται πολύ περισσότερο. Η τεχνητή νοημοσύνη μπορεί να εντοπίζει μοτίβα σε δορυφορικές εικόνες, να αναλύει υποκλαπείσες επικοινωνίες, να συνδυάζει πληροφορίες από πολλαπλές πηγές και να προτείνει πιθανά σενάρια επιχειρήσεων.
H εμπλοκή της Anthropic
Σύμφωνα με δημοσίευμα της Wall Street Journal, μοντέλα της Anthropic φέρονται να χρησιμοποιήθηκαν από την Κεντρική Διοίκηση των Ηνωμένων Πολιτειών (CENTCOM) κατά τη διάρκεια επιχειρήσεων εναντίον του Ιράν. Οι ίδιες πληροφορίες αναφέρουν ότι τα συστήματα αξιοποιήθηκαν κυρίως για ανάλυση δεδομένων πληροφοριών και παραγωγή επιχειρησιακών ενημερώσεων. Δεν υπάρχει επίσημη επιβεβαίωση ότι χρησιμοποιήθηκαν για την επιλογή στόχων ή για άμεση καθοδήγηση επιθέσεων.
Ωστόσο, ορισμένες αναφορές αφήνουν ανοιχτό το ενδεχόμενο η τεχνητή νοημοσύνη να χρησιμοποιήθηκε για την αναγνώριση και ιεράρχηση πιθανών στόχων, στο πλαίσιο της ευρύτερης διαδικασίας στρατιωτικής ανάλυσης. Αν κάτι τέτοιο ισχύει, τότε η τεχνητή νοημοσύνη δεν θα αποφασίζει ποιος στόχος θα χτυπηθεί, αλλά θα συμμετέχει στο κρίσιμο στάδιο της επεξεργασίας πληροφοριών, που οδηγεί τελικά στην επιλογή του.
Η τεχνολογία της Anthropic έχει ενσωματωθεί και σε πλατφόρμες άλλων εταιρειών, κυρίως της Palantir, μιας εταιρείας ανάλυσης δεδομένων που συνεργάζεται στενά με την αμερικανική κυβέρνηση. Έτσι μέσα από το σύστημα Maven Smart System, που αποτελεί μια πλατφόρμα που συνδυάζει πληροφορίες από δορυφόρους, drones και άλλους αισθητήρες, για να δημιουργήσει μια ενιαία εικόνα του πεδίου μάχης, τα μοντέλα τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν ως εργαλεία επεξεργασίας και οργάνωσης δεδομένων.
Και ακριβώς σε αυτό το σημείο άρχισαν να εμφανίζονται οι πρώτες εντάσεις μεταξύ της εταιρείας και του αμερικανικού στρατού. Η Anthropic, παρά τη συνεργασία της με το Πεντάγωνο, είχε θέσει ορισμένα όρια στη χρήση της τεχνολογίας της. Δύο από αυτά θεωρούνταν αδιαπραγμάτευτα από την εταιρεία, όπως να μην χρησιμοποιείται η τεχνητή νοημοσύνη της για μαζική παρακολούθηση Αμερικανών πολιτών και να μην ενσωματώνεται σε πλήρως αυτόνομα οπλικά συστήματα χωρίς ανθρώπινη επίβλεψη.
Η υπέρβαση των ορίων της Anthropic
Η εύθραυστη αυτή ισορροπία άρχισε να κλονίζεται, όταν δημοσιεύματα αποκάλυψαν ότι τα συστήματα της εταιρείας είχαν χρησιμοποιηθεί σε επιχειρήσεις πέρα από το στενό πλαίσιο, που είχε αρχικά παρουσιαστεί. Σύμφωνα με πληροφορίες, ένας υπάλληλος της Anthropic ζήτησε διευκρινίσεις από συνεργάτη της Palantir σχετικά με τον τρόπο χρήσης του μοντέλου σε μια συγκεκριμένη επιχείρηση.
Η ερώτηση αυτή φέρεται να έφτασε γρήγορα στο Πεντάγωνο και να προκάλεσε έντονη δυσαρέσκεια. Λίγο αργότερα, η σύγκρουση έγινε δημόσια. Έτσι ο υπουργός Άμυνας, Pete Hegseth, διέταξε το Πεντάγωνο να χαρακτηρίσει την Anthropic “επικίνδυνη για την αλυσίδα εφοδιασμού”, μια κατηγορία που χρησιμοποιείται συνήθως για τεχνολογικές εταιρείες, που θεωρούνται πιθανή απειλή για την εθνική ασφάλεια.
Παράλληλα, ανακοίνωσε ότι κανένας εργολάβος, προμηθευτής ή συνεργάτης του αμερικανικού στρατού δεν θα μπορεί πλέον να συναλλάσσεται με την εταιρεία. Ακολούθησε η μήνυση που υπέβαλε η εταιρεία κατά της κυβέρνησης Τραμπ, επειδή χαρακτήρισε την εταιρεία «επικίνδυνη». Πάντως, το παράδοξο είναι ότι, σύμφωνα με τις ίδιες δημοσιογραφικές πηγές, συστήματα της Anthropic φέρονται να συνέχισαν να χρησιμοποιούνται από στρατιωτικές υπηρεσίες ακόμη και μετά την ανακοίνωση αυτής της απαγόρευσης. Αν αυτό ισχύει, δείχνει πόσο δύσκολο είναι πλέον να διαχωριστεί η λειτουργία των σύγχρονων στρατιωτικών μηχανισμών από τα εργαλεία τεχνητής νοημοσύνης, που έχουν ήδη ενσωματωθεί σε αυτούς.
Η υπόθεση της Anthropic αποκαλύπτει τελικά ένα βαθύτερο φαινόμενο. Και αυτό είναι ότι ένα νέο στρατιωτικοβιομηχανικό σύμπλεγμα διαμορφώνεται γύρω από την τεχνητή νοημοσύνη, όπου κράτη και τεχνολογικές εταιρείες βρίσκονται ταυτόχρονα σε σχέση συνεργασίας και σύγκρουσης.
Οι κυβερνήσεις σήμερα επενδύουν δισεκατομμύρια για να αποκτήσουν τεχνολογική υπεροχή, ενώ οι εταιρείες τεχνητής νοημοσύνης βλέπουν στα στρατιωτικά συμβόλαια μια τεράστια πηγή κερδών. Το ερώτημα που παραμένει ανοιχτό δεν είναι αν η τεχνητή νοημοσύνη θα χρησιμοποιηθεί στον πόλεμο, αυτό φαίνεται ότι ήδη συμβαίνει, αλλά ποιος θα ελέγχει τους αλγορίθμους, που επεξεργάζονται τις πληροφορίες του πεδίου μάχης και ποιος θα λογοδοτεί όταν οι αποφάσεις που βασίζονται σε αυτούς τους αλγόριθμους οδηγούν σε πραγματικές ανθρώπινες απώλειες.





