Παρακολουθώντας από την Ελλάδα τα όσα εκτυλίσσονται τα τελευταία εικοσιτετράωρα στην Ουάσιγκτον, είναι εύκολο να πέσει κανείς στην παγίδα και να δει την υπόθεση ως άλλη μια ενδοαμερικανική εταιρική-κυβερνητική διένεξη. Η πραγματικότητα, όμως, είναι πολύ πιο βαθιά και μας αφορά άμεσα. Η μετωπική σύγκρουση του αμερικανικού Πενταγώνου (ή Υπουργείου Πολέμου, όπως τείνει να επαναπροσδιορίζεται) με την εταιρεία Τεχνητής Νοημοσύνης Anthropic δεν είναι απλώς μια διαφωνία πάνω σε μια σύμβαση. Είναι η πρώτη μεγάλη ρωγμή στο αφήγημα του ποιος πραγματικά ελέγχει τα όπλα του μέλλοντος.
Το Χρονικό της Σύγκρουσης
Η Anthropic είναι δημιουργός του Claude, ενός από τα πιο προηγμένα μοντέλα AI στον κόσμο. Το Πεντάγωνο ήδη χρησιμοποιεί το Claude, αλλά το μοντέλο έρχεται με ενσωματωμένες δικλείδες ασφαλείας (guardrails) και ηθικούς περιορισμούς. Τώρα, οι αμερικανικές ένοπλες δυνάμεις απαιτούν την πλήρη αφαίρεση αυτών των περιορισμών. Θέλουν ένα AI που να εκτελεί εντολές χωρίς ηθικούς φραγμούς ή αλγοριθμικές ενστάσεις.
Η απάντηση της Anthropic και του CEO της, Dario Amodei, μέσα από ένα εκτενές υπόμνημα 800 λέξεων, ήταν ένα ηχηρό «όχι». Η εταιρεία, η οποία σημειωτέον δεν αποτελείται από ακτιβιστές της ειρήνης αλλά από στελέχη που ήδη συνεργάζονται με τις αμερικανικές υπηρεσίες πληροφοριών, τράβηξε δύο ξεκάθαρες κόκκινες γραμμές:
Καμία μαζική εγχώρια παρακολούθηση πολιτών.
Καμία χρήση πλήρως αυτόνομων οπλικών συστημάτων (lethal decisions) χωρίς ανθρώπινη επίβλεψη.
Ο φόβος της Anthropic είναι ξεκάθαρος: η παράδοση απεριόριστης δύναμης σε ένα AI δημιουργεί μια ολισθηρή πλαγιά. Η τεχνολογία, στα σημερινά της επίπεδα, δεν μπορεί να εγγυηθεί απόλυτη ασφάλεια σε τόσο κρίσιμες και ανεξέλεγκτες εφαρμογές.
Το Οπλοστάσιο του Κράτους και οι Απειλές
Το αμερικανικό κατεστημένο δεν έχει συνηθίσει να ακούει «όχι» από τους προμηθευτές του. Το Πεντάγωνο, σύμφωνα με πληροφορίες, έβαλε στο τραπέζι τρεις ξεκάθαρες απειλές:
• Ακύρωση συμβάσεων: Ήδη ρωτήθηκαν κολοσσοί όπως η Boeing και η Lockheed Martin πόσο εξαρτημένοι είναι από το Claude, προετοιμάζοντας το έδαφος για «έξωση» της Anthropic.
• Επίκληση του Defense Production Act: Ενός νόμου της εποχής του Ψυχρού Πολέμου που μπορεί να αναγκάσει την εταιρεία να συμμορφωθεί με τις κρατικές απαιτήσεις για λόγους εθνικής ασφάλειας.
• Χαρακτηρισμός ως «Κίνδυνος Εφοδιαστικής Αλυσίδας»: Μια κίνηση που θα λειτουργούσε ως απόλυτο εμπάργκο, απαγορεύοντας σε οποιονδήποτε στρατιωτικό εργολάβο να συνεργαστεί ξανά μαζί τους.
Παρά την πίεση σε ανώτατο επίπεδο, η απάντηση του Amodei παρέμεινε αμετακίνητη: «Αυτές οι απειλές δεν αλλάζουν τη θέση μας. Δεν μπορούμε, με καθαρή συνείδηση, να υποχωρήσουμε».
Το Γεωπολιτικό Μάθημα: Η Ανάγκη για «Κυρίαρχο AI»
Εδώ ακριβώς τελειώνει το αμερικανικό ρεπορτάζ και ξεκινά η δική μας, σκληρή πραγματικότητα. Σήμερα είναι η αμερικανική κυβέρνηση απέναντι σε μια αμερικανική εταιρεία. Αύριο, όμως, μπορεί να είναι οποιοσδήποτε στρατός, σε οποιαδήποτε χώρα.
Η Τεχνητή Νοημοσύνη μετατρέπεται ραγδαία στον «εγκέφαλο» του σύγχρονου πολέμου, στο νευρικό σύστημα των πληροφοριών και στο λειτουργικό σύστημα της εθνικής άμυνας. Το κρίσιμο ερώτημα που προκύπτει είναι αμείλικτο: Ποιος ελέγχει αυτόν τον εγκέφαλο; Μια εκλεγμένη κυβέρνηση ή ένα διοικητικό συμβούλιο κάποιου τεχνολογικού κολοσσού στη Silicon Valley;
Αν είσαι ένα κράτος (όπως η Ελλάδα ή οποιαδήποτε άλλη ευρωπαϊκή χώρα) και βασίζεις την άμυνά σου σε αλγόριθμους που ανήκουν σε ξένες εταιρείες, είσαι όμηρος. Τι συμβαίνει όταν η πρόσβαση διακόπτεται ξαφνικά; Τι γίνεται όταν οι ενημερώσεις λογισμικού «παγώνουν» λόγω διαφωνιών σε επίπεδο εταιρικής πολιτικής; Όταν τα ηθικά πλαίσια (ethics frameworks) γράφονται στην Καλιφόρνια και υπαγορεύουν το τι μπορούν ή δεν μπορούν να κάνουν οι δικοί σου στρατιώτες στο δικό σου πεδίο μάχης, αυτό δεν λέγεται στρατηγική συνεργασία. Λέγεται απόλυτη εξάρτηση. Και στην εθνική άμυνα, η εξάρτηση είναι συνώνυμη της ευπάθειας.
Η περίπτωση της Anthropic αποδεικνύει ότι δεν μιλάμε απλώς για κώδικα και αλγόριθμους. Μιλάμε για την τεχνολογική κυριαρχία του 21ου αιώνα. Όπως τον 20ό αιώνα τα έθνη πολέμησαν για τον έλεγχο των πετρελαίων και την ενεργειακή ασφάλεια, έτσι και τώρα θα παλέψουν για τον αλγοριθμικό έλεγχο. Αν ο στρατός σου «τρέχει» με ξένη Τεχνητή Νοημοσύνη, η εθνική σου κυριαρχία στηρίζεται σε δανεικό κώδικα. Και η δανεική δύναμη δεν είναι ποτέ σταθερή. Η δημιουργία εθνικών δομών –δικά μας δεδομένα, δικοί μας διακομιστές, δικά μας μοντέλα AI– δεν είναι πλέον πολυτέλεια, αλλά ζήτημα εθνικής επιβίωσης.

