Anthropic-direktør Dario Amodei afviste offentligt Pentagon-kravet torsdag. Forsvarsministeriet ønsker ubegrænset militær brug af virksomhedens AI-teknologi. Fristen, som er få timer væk, kan betyde, at den $380 milliarder værdisatte startup bliver udelukket fra det amerikanske militærs leverandørkæde.
Konflikten markerer første gang, at en stor AI-virksomhed offentligt har modsat sig et amerikansk regeringskrav om at overtage kontrollen med dens teknologi.
Opgøret
I et blogindlæg på Anthropics hjemmeside kaldte Amodei Pentagons trusler for “indbyrdes modsigende” og bemærkede, at det ene designerer Anthropic som en sikkerhedsrisiko, mens det andet anser Claude for at være essentiel for den nationale sikkerhed.
“Uanset hvad ændrer disse trusler ikke vores holdning: Vi kan ikke med god samvittighed imødekomme deres anmodning,” skrev Amodei.
Striden handler om to betingelser, Anthropic har stillet for militær brug af Claude. Virksomheden forbyder autonom målretning af fjendtlige kombattanter og forhindrer masseovervågning af amerikanske borgere. Pentagon anser disse som uacceptable begrænsninger for lovlig militær drift.
Anthropic udtalte, at Pentagons “endelige tilbud”, modtaget natten til onsdag, ikke adresserede virksomhedens centrale bekymringer. “Nyt sprog, som blev fremlagt som et kompromis, blev kombineret med juridiske formuleringer, der ville gøre det muligt at se bort fra disse sikkerhedsforanstaltninger efter forgodtbefindende,” udtalte en talsmand fra Anthropic i en erklæring, som rapporteret af The Hill.
Forsvarsministeriets talsmand Sean Parnell udstedte et offentligt ultimatum torsdag. Han gav Anthropic indtil klokken 17:01 ET fredag til at give ubegrænset adgang til Claude Gov – ellers bliver partnerskabet ophævet, og virksomheden klassificeres som en risiko i forsyningskæden.
“Vi tillader ikke NOGEN virksomhed at diktere, hvordan vi træffer beslutninger om driften,” skrev Parnell på X.
Tidslinje for eskalering
I tirsdags mødtes Amodei direkte med forsvarsminister Pete Hegseth, hvor Pentagon-officerer gennemgik tre konsekvenser ved ikke at efterleve kravene. For det første: Fjernelse fra militære systemer. For det andet: Klassificering som risiko i forsyningskæden, hvilket vil udelukke andre forsvarsleverandører fra at benytte Anthropics produkter. For det tredje: Aktivering af Defense Production Act fra 1950 for juridisk at tvinge virksomheden til at overlevere teknologien.
I blogindlægget argumenterede Amodei også for, at afslaget bygger på tekniske realiteter. “Frontlinje-AI-systemer er simpelthen ikke pålidelige nok til at drive fuldt autonome våben,” skrev han og tilføjede, at uden ordentlig kontrol kan sådanne systemer “ikke forventes at udvise den kritiske dømmekraft, som vores højtuddannede, professionelle soldater bruger hver dag.”
Republikansk senator Thom Tillis kritiserede Pentagons håndtering af konflikten. “Hvorfor i alverden har vi denne diskussion offentligt? Det er ikke sådan, man håndterer en strategisk leverandør,” sagde Tillis til journalister.
Hvad står på spil
For Anthropic handler det umiddelbare om en militær kontrakt på $200 millioner. Men en klassificering som risiko i forsyningskæden vil have langt større konsekvenser. Den vil tvinge alle forsvarsleverandører til at sikre, at de ikke bruger Anthropics produkter i deres drift.
Markedssituationen ændrer sig hurtigt. Elon Musks xAI har indgået en aftale om at bruge Grok i klassificerede systemer, oplyser Axios, og accepterer standarden ‘alle lovlige formål’ for klassificeret arbejde. OpenAI og Google fører nu forhandlinger om at komme ind på det klassificerede område. Anthropic, der tidligere var eneste AI-virksomhed godkendt til klassificeret materiale, risikerer nu at miste førstefordelspositionen helt.
Hvorfor krypto bør være opmærksom
Pentagons villighed til at tage Defense Production Act i brug over for en teknologivirksomhed sætter en præcedens, der rækker ud over AI. Hvis staten lovligt kan tvinge et AI-firma til at fjerne sikkerhedsforanstaltninger med henvisning til national sikkerhed, kan den samme ramme i teorien bruges til at få kryptofirmaer til at ændre privatlivsfunktioner eller svække beskyttelsen af transaktioner.
Konflikten styrker også argumentet for decentraliseret AI-udvikling. En central AI-udbyder kan udsættes for pres – eller lovkrav – om at fjerne beskyttelsesforanstaltninger på regeringens opfordring. Det understøtter idéen om, at decentrale alternativer giver mere robust infrastruktur imod pres fra staten.
Anthropics hurtige vækst har allerede vakt bekymring på kryptomarkedet. Virksomhedens $380 milliarder værdisættelse og AI-drevne forandringer i traditionelle softwareindtægter lægger pres på private kreditstrømme, som udvikler sig tæt sammen med Bitcoins kurs.
Anthropic har også historisk forbindelse til krypto: FTXs konkursbo havde en betydelig tidlig andel i selskabet, som senere blev solgt for at skaffe midler til kreditorernes tilbagebetaling.
Fristen fredag vil passere, men det rigtige spørgsmål opstår bagefter: Om Pentagon fastholder sit krav, og hvad det kommer til at betyde for enhver teknologivirksomhed, der trækker en grænse mellem regeringskontrakter og produktets integritet.