본문 바로가기
TREND

미 국방부, 앤트로픽 '공급망 위험 업체' 지정 검토

by 구반장 2026. 2. 24.
반응형

 

AI 기술이 군사 영역으로 빠르게 확산되면서 윤리적 충돌이 현실로 나타나고 있습니다.

미 국방부가 앤트로픽(Anthropic)의 AI 모델 '클로드(Claude)'를 둘러싼 협상이 결렬 직전에 이르렀고, '공급망 위험 업체' 지정까지 검토 중이라는 소식이 전해졌습니다. 

 

사건의 시작: 마두로 작전과 윤리 가이드라인 충돌

미 국방부는 지난해 여름 앤트로픽과 2억 달러 규모의 AI 계약을 체결하고, 기밀 네트워크에서 클로드를 활용해 왔습니다.

무기 개발 지원, 정보 분석, 작전 보조 등이 주요 목적이었습니다.

문제는 지난달 '확고한 결의(Operation Absolute Resolve)' 작전에서 터졌습니다. 이 작전에서 클로드가 베네수엘라 마두로 대통령의 체포·압송 과정에 활용된 것이 알려지면서 앤트로픽 내부에서 제동이 걸렸습니다.

앤트로픽은 자국민 대규모 감시나 완전 자율 살상무기(AWS) 개발 등에 자사 기술이 사용되는 것을 금지하는 윤리 가이드라인을 운영해 왔기 때문입니다.

국방부는 "합법적 범위 내 모든 사용 사례를 허용해야 한다"는 입장을 고수했고, 앤트로픽은 이를 받아들이지 않았습니다.

결국 수개월에 걸친 협상이 사실상 결렬됐고, 계약 해지와 블랙리스트 등재 검토로 이어진 상황입니다.

 

'공급망 위험 업체' 지정, 무엇이 달라지나

'공급망 위험 업체' 지정은 중국 등 적대국 기업에 주로 적용되던 이례적인 조치입니다.

만약 앤트로픽이 이 명단에 오르면, 국방부와 거래하는 모든 협력업체가 클로드 사용을 중단하고 이를 입증해야 합니다.

사실상 AI 업계 전반에 파급 효과가 생기는 셈입니다.

CNBC와 WSJ 보도에 따르면, 에밀 마이클 국방부 연구공학 차관은 "모델 활용을 제한하는 것은 문제"라며 앤트로픽의 입장을 비판했습니다. 트럼프 행정부 측은 앤트로픽의 성향을 문제 삼으며 오픈AI, xAI, 구글 등 대안을 검토 중인 것으로 알려졌습니다.

2026년 2월 현재, 최종 결정은 내려지지 않은 상태입니다. 앤트로픽은 "국가 안보 지원에 전념한다"며 반박했고, 국방부 측도 클로드를 단기간에 대체하기 어렵다는 점을 인정한 것으로 전해집니다.

 

AI 군사 활용, 장점과 위험 사이

항목 장점 단점 및 위험
효율성 작전 속도 향상 (마두로 작전 사례) 윤리 위반 가능성 (AWS 등)
안보 강화 정보 분석 정확도 향상 공급망 취약성, 대체 어려움
비용 절감 계약 기반 개발 가속 기업 이탈 시 기술 공백

 

AI는 분명히 강력한 도구입니다. 하지만 이 표에서 보듯이 군사 분야 활용은 효율과 위험이 공존합니다.

핵심은 인간의 통제와 명확한 윤리 기준이 선행되어야 한다는 점입니다.

 

국제 규범의 공백, 더 큰 문제

AI 군사화는 미국과 중국을 중심으로 강대국 간 기술 경쟁을 가속화하고 있습니다.

그러나 이를 규율하는 국제적인 합의나 UN 수준의 규범은 아직 미비한 상태입니다.

앤트로픽처럼 윤리 가이드라인을 고수하는 기업은 장기적으로 신뢰를 축적할 수 있습니다.

다만 단기적으로는 대형 계약을 잃는 현실적인 손실을 감수해야 합니다. 트럼프 행정부의 강경한 기조를 감안하면, 공급망 위험 업체 지정 가능성은 낮지 않아 보입니다. 그럼에도 국방부 내부에서도 대체재 확보가 쉽지 않다는 현실 인식이 있는 만큼, 타협 여지가 완전히 사라진 건 아닙니다.

 

핵심 정리

  • 미 국방부와 앤트로픽의 갈등은 '합법 활용 vs 윤리 가이드라인' 충돌이 본질입니다.
  • 공급망 위험 업체 지정 시, 국방부 협력사 전체의 클로드 사용이 금지됩니다.
  • 오픈AI, xAI 등 대안 검토가 진행 중이나, 단기 대체는 쉽지 않습니다.
  • AI 군사화 가속 속에서 국제적인 윤리 규범 마련이 시급한 과제로 떠올랐습니다.

AI 기술이 전쟁과 안보에 깊숙이 들어오는 시대, 개발자와 정부 모두 더 깊은 고민이 필요한 시점입니다.

반응형

댓글