https://www.anthropic.com/news/statement-department-of-war
어제 앤트로픽에서 국방부의 협력 요청을 거절하는 서명을 발표했기 때문입니다.
이 발표 이후 openai와 구글에선 앤트로픽의 결정을 지지한다고 의견을 내놓았습니다
2026년 2월 26일
저는 AI를 활용하여 미국과 민주주의 국가들을 방어하고, 권위주의적 적대 세력을 물리치는 일이 실존적으로 중요하다고 깊이 믿습니다.
따라서 Anthropic은 자사 모델을 국방부와 정보 기관에 적극적으로 배포하기 위해 노력해 왔습니다. 우리는 미국 정부의 기밀 네트워크에 프론티어 AI 모델을 배포한 최초의 기업이었으며, 국립 연구소에 배포한 최초의 기업이었고, 국가 안보 고객을 위한 맞춤형 모델을 제공한 최초의 기업이었습니다. Claude는 현재 국방부 및 기타 국가 안보 기관 전반에 걸쳐 정보 분석, 모델링 및 시뮬레이션, 작전 계획, 사이버 작전 등 임무 수행에 핵심적인 용도로 광범위하게 배포되어 있습니다.
또한 Anthropic은 단기적인 회사 이익에 반하는 경우에도 미국의 AI 우위를 지키기 위해 행동해 왔습니다. 우리는 중국 공산당과 연계된 기업들(그 중 일부는 국방부로부터 중국 군사 기업으로 지정된 바 있습니다)의 Claude 사용을 차단하기 위해 수억 달러의 매출을 포기하였고, Claude를 악용하려 한 중국 공산당 지원 사이버 공격을 차단했으며, 민주주의 진영의 우위를 확보하기 위한 강력한 반도체 수출 통제를 지지해 왔습니다.
Anthropic은 군사적 결정을 내리는 주체가 민간 기업이 아닌 국방부라는 점을 잘 알고 있습니다. 우리는 특정 군사 작전에 이의를 제기하거나, 임의적인 방식으로 기술 사용을 제한하려 한 적이 없습니다.
그러나 일부 제한적인 경우에 있어서, AI가 민주주의적 가치를 수호하는 것이 아니라 오히려 훼손할 수 있다고 판단합니다. 또한 일부 용도는 현재 기술 수준에서 안전하고 신뢰할 수 있게 수행하기 어려운 범위를 벗어납니다. 다음 두 가지 사용 사례는 국방부와의 계약에 포함된 적이 없었으며, 앞으로도 포함되어서는 안 된다고 생각합니다.
대규모 국내 감시. 우리는 합법적인 해외 정보 및 방첩 임무를 위한 AI 활용을 지지합니다. 그러나 이러한 시스템을 대규모 국내 감시에 활용하는 것은 민주주의적 가치와 양립할 수 없습니다. AI 기반의 대규모 감시는 우리의 기본적인 자유에 심각하고 새로운 위협을 가합니다. 이러한 감시가 현재 합법적으로 허용되는 부분이 있다면, 그것은 법이 AI의 급격히 발전하는 역량을 아직 따라잡지 못했기 때문일 뿐입니다. 예를 들어, 현행법 하에서 정부는 영장 없이도 공개 출처를 통해 미국 시민의 이동 경로, 웹 브라우징 기록, 인적 교류에 관한 상세 정보를 구매할 수 있는데, 이는 정보 기관 스스로도 개인정보 침해 우려를 인정한 바 있으며 의회 내에서도 초당적인 반대를 불러일으키고 있습니다. 강력한 AI는 이처럼 분산되어 있고 개별적으로는 무해해 보이는 데이터를 자동으로, 그리고 대규모로 조합하여 어떤 개인의 삶에 대한 포괄적인 프로파일을 구성하는 것을 가능하게 합니다.
완전 자율 무기. 현재 우크라이나에서 사용되는 것과 같은 부분적 자율 무기는 민주주의 수호에 필수적입니다. 완전 자율 무기(인간을 완전히 배제하고 표적 선정 및 교전을 자동화하는 무기)도 국가 방어에 있어 중요한 역할을 할 수 있습니다. 그러나 현재의 프론티어 AI 시스템은 완전 자율 무기를 구동하기에 충분한 신뢰성을 갖추고 있지 않습니다. 우리는 미국의 전투원과 민간인을 위험에 빠뜨릴 수 있는 제품을 의도적으로 제공하지 않을 것입니다. 우리는 이러한 시스템의 신뢰성을 높이기 위한 R&D 협력을 국방부에 직접 제안한 바 있으나, 국방부는 이를 수락하지 않았습니다. 또한 적절한 감독 없이 완전 자율 무기는 우리의 고도로 훈련된 전문 군인들이 매일 발휘하는 중요한 판단력을 갖출 수 없습니다. 이러한 무기는 현재 존재하지 않는 적절한 안전장치를 갖추어 배포되어야 합니다.
우리가 알기로는, 이 두 가지 예외 사항이 지금까지 군 내 모델 도입과 활용을 가속화하는 데 장애가 된 적은 없습니다.
국방부는 "모든 합법적 사용"에 동의하고 위에서 언급한 경우에 대한 안전장치를 제거하는 AI 기업과만 계약하겠다고 밝혔습니다. 또한 우리가 이 안전장치를 유지할 경우 시스템에서 퇴출시키겠다고 위협하였으며, 우리를 "공급망 위험"으로 지정하겠다고도 위협했습니다. 이 명칭은 미국의 적에게만 사용된 것으로, 미국 기업에 적용된 전례가 없습니다. 또한 국방물자생산법을 발동하여 안전장치를 강제로 제거하겠다고도 하였습니다. 이 마지막 두 가지 위협은 본질적으로 모순됩니다. 하나는 우리를 보안 위험으로 규정하면서, 다른 하나는 Claude를 국가 안보에 필수적인 존재로 규정하고 있기 때문입니다.
그러나 이러한 위협들은 우리의 입장을 바꾸지 않습니다. 우리는 양심상 그들의 요구에 동의할 수 없습니다.
어떤 협력업체를 선택할지는 국방부의 고유한 권한입니다. 그러나 Anthropic의 기술이 우리 군에 제공하는 상당한 가치를 고려할 때, 재고해 주시기를 바랍니다. 우리는 두 가지 안전장치를 유지한 채로 국방부와 장병들을 계속 지원하기를 강력히 희망합니다. 만약 국방부가 Anthropic을 배제하기로 결정하더라도, 우리는 진행 중인 군사 계획, 작전 및 기타 중요 임무에 차질이 생기지 않도록 원활한 전환을 지원할 것입니다. 우리가 제안한 포괄적인 조건으로 모델은 필요한 기간 동안 계속 이용 가능할 것입니다.
우리는 미국의 국가 안보를 지원하는 협력을 계속할 준비가 되어 있습니다.
멋있다