구글이 이전에 "하지 않겠다"고 선언했던 바로 그 일을 했다. 2018년, 구글 직원들의 집단 항의로 취소된 프로젝트 메이번(Project Maven)을 기억하는가? 그로부터 8년이 지난 2026년 4월, 구글은 미국 국방부의 기밀 네트워크에 제미나이(Gemini) AI를 탑재하는 계약을 조용히 체결했다. 이번에는 철회할 기미가 없다.

실제로 무슨 일이 벌어졌나: 2억 달러 계약의 조용한 확장

2026년 3월, 구글은 이미 2억 달러 규모의 기존 펜타곤 계약에 따라 300만 명의 국방부 직원들이 비기밀 시스템에서 제미나이를 사용할 수 있도록 GenAI.mil 플랫폼을 개방했다. 그리고 4월, 계약 조건이 조용히 수정됐다. 이제 국방부 인원은 제미나이를 "모든 합법적인 정부 목적"을 위해 기밀 시스템을 포함한 모든 곳에서 사용할 수 있다. 이미 유사한 계약을 맺은 OpenAI, xAI에 이어 구글도 미군의 AI 공급망에 합류했다. 더 눈길을 끄는 조항은 따로 있다 , 국방부가 구글에게 "AI 안전 설정과 필터를 조정"하도록 요청할 수 있으며, 구글은 이에 대한 거부권이 없다.

왜 이것이 AI 역사의 전환점인가

표면적으로 이 계약은 기업의 정부 납품 계약처럼 보인다. 하지만 내부를 들여다보면, 이는 민간 AI 기업과 군사 기관 사이의 관계 재편을 의미한다. 구글은 권고(recommendation) 권한만 가진다 , 자율 무기나 인간 감독 없는 대규모 국내 감시에 AI를 사용하지 말라고 제안할 수 있지만, 정부가 이를 따를 의무는 없다. 이 계약 직후 700명 이상의 구글 직원이 순다르 피차이 CEO에게 공개서한을 보내 기밀 작업 수주를 거부할 것을 요청했다. 2018년 메이번 때와 놀랍도록 비슷한 상황이다. 다른 점은, 이번에는 회사가 들어주지 않았다는 것이다.

숨은 인사이트: AI 안전 필터가 협상 가능한 옵션이 된 세상

가장 충격적인 부분은 기밀 군사 사용 자체가 아니다. 그것은 안전 제약이 계약서 문구 하나로 무력화될 수 있다는 사실이 공식화되었다는 점이다. 구글이 제미나이에 내장한 안전 필터 , 유해 콘텐츠 생성 거부, 폭력 권고 차단 등 , 는 이제 국방부의 요청으로 조정될 수 있다. AI 안전 분야에서 수년간 구축해온 레드라인이 조달 계약 한 줄에 무너졌다. 더 심층적인 문제는 경쟁 구도에 있다. OpenAI가 먼저 군과 손잡고, xAI가 뒤따르자, 구글은 거대한 국방 예산 시장을 경쟁사에게 넘겨줄 수 없었다. 이것은 단순한 도덕적 선택이 아니라 AI 군비경쟁의 민간 영역 버전이다 , 참여하지 않으면 시장에서 뒤처진다는 압박.

AI 안전이 기업의 핵심 가치가 아니라 정부 조달 계약의 협상 항목이 된 순간, 우리는 이미 돌아올 수 없는 강을 건넌 것이다.


핵심 요약

  • 2억 달러 기존 계약 확장 , 구글의 펜타곤 계약이 기밀 시스템으로까지 확대되었으며, OpenAI·xAI도 유사한 계약을 보유 중이다.
  • "모든 합법적 목적" , 국방부는 제미나이를 기밀 네트워크에서 어떠한 합법적 용도로도 사용할 수 있으며, 구글은 거부권이 없다.
  • 700명 직원 반발 , 구글 직원 700명 이상이 피차이 CEO에게 기밀 군사 AI 작업 거부를 요청하는 서한을 보냈다.
  • 안전 필터 조정 가능 , 계약서는 국방부 요청에 따라 AI 안전 설정이 변경될 수 있음을 명시하며, 구글 권고안은 구속력이 없다.
  • 빅테크 군사 AI 경쟁 , OpenAI, xAI에 이어 구글까지 합류하며 민간 AI 기업들의 미군 AI 공급사 경쟁이 공식화됐다.

더 생각해볼 것들

  1. 구글이 안전 필터 조정 불가 조항을 계약에 넣었다면 국방부가 계약을 거부했을까? 아니면 구글이 시장을 잃었을까?
  2. OpenAI, 구글, xAI가 모두 미군의 AI 공급사가 된 상황에서, 이들의 안전 연구 방향은 어떻게 바뀔까?
  3. 당신이 구글, OpenAI, 또는 Anthropic의 엔지니어라면, 이 계약 소식을 들었을 때 어떤 선택을 했을 것인가?