본문 바로가기
TREND

앤트로픽 Claude와 미 국방부 갈등

by 구반장 2026. 2. 17.
반응형

 

AI가 국방·정보 분야로 빠르게 확산되면서 "어디까지 허용할 것인가"라는 질문이 현실적 쟁점으로 떠올랐습니다.

특히 앤트로픽(Anthropic)의 Claude가 미 국방부(펜타곤)와 사용 제한을 두고 충돌하고 있다는 보도는, AI 안전과 국가안보 사이의 긴장을 상징적으로 보여줍니다.

 

 

계약 중단까지 거론된 배경

Axios 보도에 따르면 펜타곤은 앤트로픽이 군의 AI 사용에 특정 제한을 고수하는 것에 불만을 표하며, 협업 축소나 종료까지 검토 중인 것으로 전해졌습니다. 펜타곤의 요구 방향은 명확합니다.

AI 기업들이 군이 모델을 "모든 합법적 목적(all lawful purposes)"으로 사용할 수 있도록 허용하라는 것입니다.

반면 앤트로픽은 최소한 두 영역만큼은 군사용에서 제외돼야 한다는 입장을 유지합니다.

바로 미국 시민에 대한 대규모 감시(mass domestic surveillance)와 완전 자율 무기 시스템(fully autonomous weapon systems)입니다. 즉 "합법이면 다 된다"가 아니라, 합법이어도 윤리·안전상 금지선이 필요하다는 관점입니다.

 

'마두로 작전' 논란이 불씨가 된 이유

긴장을 증폭시킨 계기 중 하나로 Claude가 베네수엘라 니콜라스 마두로(Nicolás Maduro) 관련 작전에서 사용됐다는 보도가 언급됩니다. Axios는 해당 작전에서 Claude가 팔란티어(Palantir)와의 협업 경로를 통해 활용됐다는 맥락을 전했습니다.

다만 이 지점에서 사실관계가 엇갈립니다.

Axios는 미 행정부 고위 관계자 발언을 인용해 "앤트로픽 측이 팔란티어 측에 Claude가 그 작전에 쓰였는지 문의했다"고 보도했지만, 앤트로픽은 그런 문의 자체가 없었다고 반박했습니다. 독자 입장에서는 "상반된 주장"으로 이해하는 게 안전합니다.

 

2억달러 계약과 기술 의존도

앤트로픽은 지난여름 펜타곤과 최대 2억달러 규모 계약을 체결했으며, Claude는 펜타곤의 기밀(분류) 네트워크에 처음으로 들어간 모델로 알려졌습니다. 이는 곧 앤트로픽이 기술적으로나 운영적으로 "대체하기 쉽지 않은 위치"에 있었을 가능성을 시사합니다.

보도에 따르면 다른 AI 기업들(OpenAI, Google, xAI)은 비기밀 환경에서 사용되고 있으며, 일반 사용자에게 적용되는 안전장치를 일부 완화해 펜타곤 사용을 허용한 것으로 전해집니다. 펜타곤은 이들 기업과 "기밀 영역으로의 확대"를 협의 중이며, 기밀·비기밀 모두에 '모든 합법적 목적' 기준을 관철하려 한다고 합니다.

 

확실한 것과 불확실한 것 구분하기

이번 이슈는 자극적 키워드가 많지만, 실제로는 "사용 제한 문구 협상"이 핵심입니다. 보도 내용을 기준으로 확실히 말할 수 있는 부분과 조심해야 할 부분을 정리하면 다음과 같습니다.

확인 가능한 내용: 펜타곤이 앤트로픽과의 파트너십 축소·종료 가능성을 거론했고, '모든 합법적 목적' 사용을 요구하며, 앤트로픽은 대규모 국내 감시·완전 자율 무기 제한선을 주장한다고 전해졌습니다.

단정하기 어려운 내용: '마두로 작전'에서 Claude가 구체적으로 어떤 역할을 했는지 Axios도 확인하지 못했다고 밝혔습니다.

상반된 주장: "앤트로픽이 작전 사용 여부를 문의했다"는 관계자 발언과 "그런 문의는 없었다"는 앤트로픽 반박이 함께 제시됩니다.

 

국내 조직이 체크해야 할 질문들

이 사건이 보여주는 현실적 교훈은 명확합니다.

국방·치안·정보 영역에서 AI를 도입할 때 기술 성능만큼 사용 범위(Policy)와 통제장치(Governance)가 계약의 핵심이 된다는 점입니다.

"합법적 목적"이라는 문구 하나가 기업 입장에서는 책임·평판·내부 반발로 연결되고, 정부 입장에서는 작전 유연성과 직결될 수 있습니다.

만약 공공기관이나 보안·엔터프라이즈 분야에서 AI 도입을 검토 중이라면, 아래 질문을 내부 체크리스트로 활용해보시기 바랍니다.

  • 우리 조직은 "금지되는 사용사례"를 문장으로 명확히 정의했는가? (예: 대규모 감시, 완전 자율 무기 등)
  • 모델이 현장에서 예기치 않게 차단·거부할 때 대체 절차가 마련돼 있는가?
  • 공급사(벤더)와 책임 범위(사고·오용·감사 로그)를 계약서에 어떻게 담을 것인가?

 

균형 잡힌 시각 유지하기

이번 사안은 'AI가 군사 작전에 쓰였다'는 자극적 프레임으로 소비되기 쉽지만, 보도 자체는 주로 "사용 제한과 협상"의 충돌을 다룹니다.

작전에서 Claude의 구체 역할은 확인되지 않았다고 명시돼 있으므로, 세부 기능을 단정해 해석하는 콘텐츠는 거리를 두는 게 좋습니다.

앤트로픽과 펜타곤의 갈등은 단순한 기술 논쟁을 넘어, 앞으로의 고위험 분야 AI 시장에서 "정책·통제·책임"이 계약의 승패를 가를 수 있음을 보여줍니다. 펜타곤은 "모든 합법적 목적" 사용 허용을 요구하는 반면, 앤트로픽은 대규모 국내 감시와 완전 자율 무기만큼은 제한해야 한다는 입장을 고수하며 긴장이 커졌습니다.

AI 도입을 고민하는 조직이라면 이번 사례를 통해 기술 성능뿐 아니라 사용 범위와 책임 체계를 선제적으로 설계하는 것이 얼마나 중요한지 다시 한번 확인할 수 있습니다.

 

반응형

댓글