
솔직히 저는 AI를 평소에 검색이나 문서 작성 정도에만 쓴다고 생각했습니다. 그런데 최근 미국의 이란 공습 사례를 보면서, AI가 실제 전쟁터에서 표적 분석과 작전 수립에 활용된다는 사실을 알게 됐습니다. 특히 엔트로픽(Anthropic)이 개발한 클로드(Claude) AI가 미 국방부와 계약을 맺고 군사 작전에 투입됐다가, 윤리 문제로 계약이 해지되는 과정을 지켜보면서 기술이 단순히 중립적이지 않다는 걸 실감했습니다. 이 글에서는 AI가 어떻게 전쟁의 판도를 바꾸고 있는지, 그리고 기술 기업과 국가 권력이 충돌하는 지점을 구체적으로 살펴보겠습니다.
클로드 AI가 군사 작전에 투입된 배경
AI 기술이 국가 안보 영역으로 들어간 것은 어제오늘 일이 아닙니다. 하지만 이번 사례가 주목받는 이유는 민간용으로 출시된 대형언어모델(LLM)이 실제 군사 작전에 활용됐다는 점입니다. 여기서 LLM이란 방대한 텍스트 데이터를 학습하여 자연어를 이해하고 생성하는 AI 모델을 의미합니다. 엔트로픽의 클로드는 오픈AI의 ChatGPT, 구글의 제미나이와 함께 세계 3대 LLM으로 꼽히는데, 특히 환각(Hallucination) 현상이 적고 정확도가 높다는 평가를 받습니다. 여기서 환각이란 AI가 학습하지 않은 내용을 마치 사실인 것처럼 그럴듯하게 지어내는 현상입니다.
미 국방부는 2024년부터 클로드를 군사용으로 특화한 별도 모델을 도입했습니다. 이 모델은 위성 영상, 드론 촬영 데이터, 통신 감청 기록 등 비정형 데이터를 실시간으로 분석하여 적의 위치를 예측하고 타격 경로를 제안하는 역할을 합니다([출처: MIT Technology Review](https://www.technologyreview.com)). 실제로 2025년 2월 28일 이란 최고지도자 하메네이를 겨냥한 공습에서 클로드 AI가 표적 분석에 활용됐다는 보도가 나왔습니다. 저는 이 소식을 접하고 처음엔 '설마 AI가 사람을 죽이는 결정까지 내리나?' 싶었는데, 실제로는 AI가 여러 정보 출처를 종합해 확률적으로 가장 높은 위치를 제시하고 최종 결정은 사람이 내리는 구조라고 합니다.
문제는 미 국방부가 엔트로픽에 요구한 내용이 단순한 정보 분석을 넘어섰다는 점입니다. 국방부는 민간인 사찰 가능성이 있는 기능이나 AI가 자율적으로 공격 명령을 내릴 수 있는 기능까지 풀어달라고 요구했습니다. 엔트로픽 CEO는 이를 거부했고, 트럼프 행정부는 2025년 2월 27일 엔트로픽을 '공급망 위험 기업(Supply Chain Risk Entity)'으로 지정하며 사실상 계약을 해지했습니다. 제가 주목한 건 계약 해지 명령이 27일에 내려졌는데 하메네이 공습은 28일에 이뤄졌다는 점입니다. 이미 작전이 진행 중이었는데도 정치적 이유로 계약을 끊은 셈이죠.
AI가 전쟁 양상을 바꾸는 세 가지 방식
AI가 군사 작전에 투입되면서 전쟁 양상이 근본적으로 달라지고 있습니다. 제가 분석한 결과, 크게 세 가지 변화가 두드러집니다.
첫째, 정보 분석 속도가 기하급수적으로 빨라졌습니다. 과거에는 정보 분석관들이 며칠에 걸쳐 위성사진과 통신 기록을 대조하며 표적을 특정했습니다. 하지만 AI는 수백만 건의 비정형 데이터를 몇 초 만에 분석해 패턴을 찾아냅니다. 예를 들어 특정 인물이 자주 사용하는 통신 경로, 배달 기록, 차량 이동 패턴 등을 종합해 현재 위치를 98% 확률로 예측할 수 있습니다. 이런 분석을 사람이 하려면 최소 72시간이 걸리지만 AI는 실시간으로 처리합니다([출처: RAND Corporation](https://www.rand.org)).
둘째, 의사결정 구조가 단순화됩니다. 전통적인 군 작전에서는 참모본부가 여러 시나리오를 검토하고 합의를 거쳐 명령을 내렸습니다. 하지만 AI 시스템은 최적의 작전안을 자동으로 제시하고, 지휘관은 승인 버튼만 누르면 됩니다. 저는 이 부분에서 우려가 생겼습니다. AI가 제시한 확률이 98%라고 해도 2%의 오류 가능성이 있고, 그 2%가 민간인 희생으로 이어질 수 있기 때문입니다. 실제로 이스라엘군이 가자지구에서 사용한 'Lavender' AI 시스템은 표적 선정 오류율이 10% 수준이었다는 보도도 있습니다.
셋째, 자율무기 시스템과의 결합입니다. 현재는 AI가 분석만 하고 최종 공격 명령은 사람이 내립니다. 하지만 기술적으로는 AI가 표적을 선정하고 드론에 공격 명령까지 자동으로 내릴 수 있습니다. 미 국방부가 엔트로픽에 요구한 것도 바로 이 기능이었습니다. 엔트로픽이 이를 거부한 이유는 AI의 판단 신뢰도가 아직 100%가 아니기 때문입니다. 제 생각에도 AI가 생사를 결정하는 최종 판단까지 내리게 하는 건 시기상조입니다.
주요 변화 정리:
- 정보 분석 시간이 72시간에서 수초로 단축
- 의사결정 단계 축소로 작전 속도 증가
- 자율무기 시스템과 결합 가능성
기술 윤리와 국가 권력의 충돌, 그리고 전략자산화
엔트로픽과 미 국방부의 갈등은 단순한 계약 분쟁이 아닙니다. 이는 AI 시대에 기술 기업이 어디까지 국가의 요구를 따라야 하는지에 대한 근본적 질문을 던집니다. 엔트로픽은 민간인 사찰이나 자율 공격 기능을 풀어주지 않겠다는 윤리 가이드라인을 고수했습니다. 반면 트럼프 행정부는 "전쟁에 도움이 안 되는 반국가 기업"이라며 즉각 계약을 해지하고 오픈AI와 새 계약을 체결했습니다.
흥미로운 점은 시장의 반응입니다. 보통 정부 계약이 끊기면 주가가 폭락하는데, 엔트로픽의 주가는 오히려 소폭 상승했습니다. 일부 투자자들은 엔트로픽이 윤리 원칙을 지킨 것을 긍정적으로 평가한 것으로 보입니다. 저도 단기적 손실을 감수하고 원칙을 지킨 점은 존중할 만하다고 봅니다. 다만 장기적으로 미 정부의 제재가 강화되면 버티기 어려울 수도 있습니다.
더 큰 문제는 AI가 전략 자산으로 부상하면서 각국이 자국산 AI 개발에 사활을 걸고 있다는 점입니다. 영국 정부는 미국 기업의 AI를 보안 영역에 쓸 수 없다는 결론을 내렸습니다. 데이터 센터가 미국에 있어 미국 정부가 언제든 접근할 수 있기 때문입니다. 유럽연합도 자체 AI 모델 개발에 수십억 유로를 투입하고 있습니다. 우리나라 역시 마찬가지입니다. 국방 AI를 외국 기업에 의존하면 유사시 기술 지원이 끊길 수 있습니다. 성능이 다소 떨어지더라도 자체 기술을 확보해야 한다는 목소리가 커지고 있습니다([출처: 과학기술정보통신부](https://www.msit.go.kr)).
제 생각에는 이번 사태가 한국 AI 산업에 오히려 기회가 될 수 있습니다. 그동안 우리는 미국 빅테크 기업의 AI를 가져다 쓰면 된다는 안일한 인식이 있었습니다. 하지만 AI가 국가 안보와 직결되는 전략 자산이라는 게 명확해진 이상, 자체 기술 개발에 더 적극적으로 투자해야 합니다. 물론 단기간에 GPT-4나 클로드 수준을 따라잡기는 어렵습니다. 하지만 특정 분야에 특화된 모델을 개발하는 것은 충분히 가능합니다. 실제로 네이버의 하이퍼클로바X나 LG AI연구원의 EXAONE 같은 한국형 LLM이 일부 영역에서는 해외 모델과 대등한 성능을 보이고 있습니다.
앞으로 AI는 단순한 기술 경쟁을 넘어 국가 간 패권 경쟁의 핵심 축이 될 것입니다. 저는 이번 사례를 보면서 기술을 바라보는 관점을 바꿔야겠다고 느꼈습니다. AI는 중립적 도구가 아니라 그것을 누가, 어떤 목적으로, 어떤 원칙 하에 사용하느냐에 따라 전혀 다른 결과를 낳는 권력의 수단입니다. 우리 사회가 AI 기술 개발과 함께 윤리적 가이드라인을 명확히 세우고, 동시에 자주적 기술 역량을 확보하는 두 가지 과제를 모두 해결해야 할 시점입니다.