조용히 서명된 계약, 시끄러운 배경

2026년 5월, 미 국방부(DOD)는 엔비디아(Nvidia), 마이크로소프트(Microsoft), 아마존 웹 서비스(AWS)와 나란히 계약서에 도장을 찍었다. 목적은 하나 , 기밀(classified) 네트워크 위에 AI를 올리는 것이다. 보도자료만 보면 "국방 현대화의 또 다른 한 걸음"처럼 읽힌다. 하지만 이 계약의 타이밍과 구조를 뜯어보면, 전혀 다른 이야기가 흘러나온다.

배경에는 앤트로픽(Anthropic)과의 충돌이 있다. DOD는 앞서 앤트로픽의 AI 모델 사용 조건을 두고 공개적으로 마찰을 빚었다. 군사 용도에 대한 사용 제한 조항, 모델 출력물에 대한 감사 권한 문제 등이 핵심 쟁점이었던 것으로 전해진다. 결국 계약은 결렬 혹은 재협상 국면에 접어들었고, DOD는 뼈아픈 교훈 하나를 얻었다: 단일 AI 벤더에 기대는 것은 국가 안보 리스크다.

앤트로픽 사태가 남긴 것 , '사용 조건'이라는 새로운 전장

AI 업계에서 '사용 정책(Usage Policy)'은 오랫동안 소프트한 문서로 취급받았다. 그러나 이번 사태는 그 인식을 완전히 뒤집었다. 앤트로픽은 자사 모델이 자율 살상 무기 시스템이나 특정 군사 의사결정에 직접 사용되는 것을 제한하는 조항을 고수했고, 이는 DOD의 운용 요구사항과 정면으로 부딪혔다.

여기서 중요한 점은, 앤트로픽이 '나쁜 플레이어'였다는 게 아니라는 것이다. 오히려 그들은 자신들의 AI 안전 원칙에 충실했다. 문제는 상업용 AI 모델의 윤리 가이드라인과 군사 작전의 현실적 필요 사이의 간극이 생각보다 훨씬 크다는 사실이 공개적으로 드러났다는 것이다.

AI 사용 조건은 이제 단순한 법무팀의 검토 사항이 아니다 , 그것은 지정학적 의사결정의 변수가 됐다.

이 충돌은 앞으로 더 많은 정부와 AI 기업들이 직면할 구조적 긴장의 예고편이다. 유럽 각국 정부, NATO 동맹국들, 그리고 아시아의 국방 기관들 모두 같은 딜레마 앞에 서게 될 것이다.

세 계약의 구조 , 누가 무엇을 가져가나

마이크로소프트: 이미 검증된 플레이어

마이크로소프트는 이미 Azure Government SecretTop Secret 클라우드 환경을 운영하며 미 정보기관과 협력해온 경험이 있다. 이번 DOD 계약에서 MS는 자사의 Azure AI 플랫폼과 OpenAI 모델을 기밀 네트워크에 통합하는 역할을 맡을 가능성이 높다. 이미 검증된 보안 인프라 위에 AI 레이어를 얹는 구조다.

주목할 점은 마이크로소프트가 OpenAI의 최대 투자자이자 독점 클라우드 파트너라는 사실이다. 사실상 GPT 계열 모델의 군사 네트워크 진입로를 마이크로소프트가 쥐고 있는 셈이다.

AWS: 국방 클라우드의 오랜 터줏대감

AWS는 C2S(Commercial Cloud Services) 계약을 통해 미 CIA 및 정보공동체에 클라우드를 제공해온 역사를 가지고 있다. 이번 DOD 계약은 그 영역을 AI 추론(inference) 워크로드까지 확장하는 의미를 갖는다. AWS는 자사 Bedrock 플랫폼을 통해 다양한 파운데이션 모델을 에어갭(air-gapped) 또는 기밀 환경에서 실행할 수 있는 기술을 보유하고 있다.

AWS의 강점은 '멀티모델' 접근이다. 특정 모델에 종속되지 않고 여러 AI 모델을 동시에 운용할 수 있는 구조는 DOD의 벤더 다각화 전략과 완벽하게 맞아떨어진다.

엔비디아: 소프트웨어가 아닌 실리콘으로

세 기업 중 가장 흥미로운 참여자는 엔비디아다. 엔비디아는 AI 모델을 만들거나 클라우드 서비스를 제공하는 기업이 아니다. 그들이 가져오는 것은 GPU 하드웨어와 CUDA 생태계, 그리고 기밀 환경을 위한 온프레미스 AI 인프라다.

이는 중요한 신호다. DOD가 모든 AI 컴퓨팅을 클라우드에 올리지 않겠다는 의지를 보여주기 때문이다. 특히 가장 민감한 기밀 작전에서는 인터넷과 물리적으로 단절된 에어갭 환경의 온프레미스 GPU 클러스터가 필요하다. 엔비디아의 DGX SuperPODH100/H200 기반 시스템이 그 핵심을 담당할 것으로 보인다.

기밀 네트워크에 AI를 올린다는 것의 진짜 의미

기술적으로 이것은 단순한 소프트웨어 설치가 아니다. SIPRNet(비밀 인터넷 프로토콜 라우터 네트워크)JWICS(합동 전 세계 정보통신 시스템) 같은 기밀 네트워크는 상용 인터넷과 물리적으로 분리되어 있다. 여기에 AI를 올리려면 몇 가지 심각한 도전을 넘어야 한다.

첫째, 모델 업데이트 문제다. 상용 AI 모델은 지속적인 패치와 업데이트를 통해 성능을 유지한다. 에어갭 환경에서는 이 업데이트 파이프라인이 근본적으로 달라야 한다. 오래된 모델을 계속 사용할 경우 성능 저하와 보안 취약점이 누적될 수 있다.

둘째, 환각(hallucination)과 책임 소재의 문제다. AI가 전장 정보 분석이나 정보 요약에 사용될 때, 잘못된 출력이 치명적 의사결정으로 이어질 수 있다. 상업적 환경에서는 "AI의 실수"로 끝날 일이 군사 환경에서는 돌이킬 수 없는 결과를 낳는다.

셋째, 공급망 보안(supply chain security)이다. 엔비디아의 GPU, 마이크로소프트의 소프트웨어 스택, AWS의 서비스 레이어 , 이 모든 것이 기밀 네트워크에 들어오는 순간, 각 레이어가 잠재적 공격 벡터가 된다. 중국이 반도체 공급망에 개입했다는 의혹이 끊이지 않는 상황에서, 이 리스크는 이론이 아니다.

벤더 다각화 전략의 이면 , 경쟁이 낳는 종속

DOD가 앤트로픽 사태 이후 "단일 벤더 의존을 탈피하겠다"고 선언한 것은 표면적으로 현명해 보인다. 그러나 이번 계약 구조를 보면 아이러니가 존재한다.

엔비디아·MS·AWS , 이 세 기업은 모두 미국의 AI 인프라 생태계에서 이미 지배적 위치를 점하고 있다. 세 곳과 동시에 계약을 맺는다고 해서 진정한 의미의 '다각화'가 달성되는 것일까? 오히려 빅테크 삼각 동맹에 대한 국방 의존도를 제도적으로 고착화하는 것은 아닐까?

진정한 벤더 다각화라면 오픈소스 모델(예: Meta의 Llama 계열), 유럽 또는 동맹국 기반의 AI 솔루션, 혹은 국방부 내재화(in-house) AI 역량 구축이 포함되어야 한다. 현재의 계약 구조는 '여러 메뉴에서 선택하지만 식당은 하나'인 셈이다.

글로벌 AI 군비경쟁의 새 좌표

이번 계약의 파장은 미국 내에 그치지 않는다. 중국은 이미 화웨이(Huawei)의 Ascend 칩과 자국 AI 모델(바이두 어니, 알리바바 통이 등)을 군사 네트워크에 통합하는 작업을 가속하고 있다. 러시아 역시 서방 제재를 피해 국산 AI 인프라를 구축 중이다.

여기서 결정적인 비대칭이 발생한다. 미국은 세계 최고 수준의 상용 AI 기업들과 계약할 수 있지만, 그 기업들은 독자적인 윤리 원칙과 이사회, 그리고 주주를 가진 독립 법인이다. 반면 중국의 AI 기업들은 사실상 국가 전략의 연장선에서 움직인다. 이 거버넌스 구조의 차이가 장기적으로 어떤 전략적 결과를 낳을지는 아직 아무도 모른다.


핵심 요약

  • 미 국방부는 엔비디아, 마이크로소프트, AWS와 기밀 네트워크 AI 배포 계약을 체결했다.
  • 이번 계약은 DOD와 앤트로픽의 AI 모델 사용 조건 분쟁 이후 공식화된 벤더 다각화 전략의 일환이다.
  • 엔비디아는 모델이 아닌 온프레미스 GPU 인프라를 제공하며, 에어갭 기밀 환경을 위한 핵심 하드웨어 공급자로 참여한다.
  • 기밀 네트워크에 상용 AI를 통합할 경우 모델 업데이트, 환각 오류, 공급망 보안이라는 세 가지 핵심 리스크가 부상한다.
  • 빅테크 3사 중심의 다각화 구조는 진정한 공급자 독립성 확보가 아닌 새로운 형태의 집중 리스크를 내포한다는 비판이 제기된다.

더 생각해볼 것들

  1. 상용 AI 기업의 윤리 사용 정책(Usage Policy)과 국가 안보 요구 사이의 충돌은 앞으로 어떻게 제도적으로 조율될 수 있을까? 국제적 표준이 만들어질 수 있을까, 아니면 국가마다 파편화된 AI 군사 거버넌스가 정착될까?
  2. 엔비디아가 하드웨어 인프라 공급자로서 미 국방 기밀 네트워크에 깊숙이 통합될 경우, 향후 미·중 반도체 갈등이 심화될 때 이 의존성은 전략적 취약점이 될 수 있지 않을까?
  3. DOD가 오픈소스 AI 모델(예: Meta Llama)을 기밀 네트워크에서 직접 운용하는 방향으로 선회한다면, 현재의 빅테크 중심 계약 구조는 얼마나 빠르게 대체될 수 있을까?