Devlery
Blog/AI

Anthropic이 펜타곤을 고소한 이유: AI 안전 원칙이 법정에 서다

Anthropic이 "대량 감시 금지, 자율 무기 금지" 레드라인을 고수하다 트럼프 행정부로부터 공급망 위험 지정을 받았습니다. AI 안전 원칙과 국가 안보가 법정에서 정면 충돌합니다.

2026년 3월 9일, Anthropic이 트럼프 행정부를 상대로 소송을 제기 했습니다. 사유는 이례적입니다. 국방부(펜타곤)가 Anthropic을 "공급망 위험(supply chain risk)" 으로 지정한 것에 대한 이의 제기입니다. 이 지정은 보통 Huawei나 Kaspersky처럼 외국 적대국과 관련된 기업 에 부여됩니다. 미국 AI 기업에 적용된 것은 전례가 없습니다. 왜 이런 일이 벌어졌을까요? Anthropic이 두 가지를 거부했기 때문입니다. AI를 미국 시민 대량 감시 에 사용하는 것, 그리고 인간 개입 없는 자율 무기 의 표적 결정에 사용하는 것입니다.

"레드라인"의 대가

Anthropic과 펜타곤의 갈등은 계약 협상에서 시작되었습니다. 펜타곤은 Claude AI를 "모든 합법적 목적" 에 사용하기를 원했습니다. Anthropic은 두 가지 레드라인 을 제시했습니다.

Anthropic 레드라인

🚫 대량 감시 금지

미국 시민을 대규모로 감시하는 시스템에 AI 사용 거부

🚫 자율 무기 금지

인간 개입 없이 표적 선정·사격 결정에 AI 사용 거부

펜타곤 입장

✅ "모든 합법적 목적"

국가 비상시 제한 없이 AI 사용 가능해야 함

⚡ "민간 기업이 지시할 수 없다"

국가 안보 도구 사용 방법은 정부가 결정

첫째, 미국 시민에 대한 대량 감시 금지. Anthropic은 Claude가 미국인을 대규모로 감시하는 시스템에 사용되는 것을 거부했습니다.

둘째, 자율 무기의 표적/사격 결정 금지. 인간의 개입 없이 AI가 독자적으로 치명적 무기의 표적을 선정하거나 사격을 결정하는 데 사용되는 것을 거부했습니다.

펜타곤은 이를 받아들이지 않았습니다. "민간 기업이 국가 안보 도구의 사용 방법을 지시하는 것은 허용할 수 없다" 는 것이 공식 입장이었습니다. 3월 18일 법원 제출 문서에서 국방부는 Anthropic의 레드라인을 "국가 안보에 대한 용납할 수 없는 위험" 이라고 규정했습니다.

그리고 2월 27일, 국방장관 Pete Hegseth가 Anthropic을 공급망 위험 으로 지정했습니다. 이 지정은 Anthropic이 국방부 및 국방부 계약업체와 거래하는 것을 사실상 차단합니다.

"외국 적대국용 무기"를 미국 기업에

이 사건이 AI 업계에 충격을 준 이유는 공급망 위험 지정의 무기화 때문입니다.

공급망 위험 지정은 원래 외국 적대국의 위협 으로부터 미국 국방 인프라를 보호하기 위해 만들어진 제도입니다. Huawei의 5G 장비, Kaspersky의 보안 소프트웨어처럼 외국 정부와 연결된 기업을 배제하는 것이 목적입니다.

이것을 미국 기업에, 그것도 AI 안전 원칙을 고수했다는 이유로 적용한 것은 법률 전문가들의 즉각적 비판을 불렀습니다. Lawfare는 "이 지정은 법적 체계와 첫 접촉에서 살아남기 어려울 것" 이라고 분석했습니다.

Anthropic의 소송 논거는 세 가지입니다.

수정헌법 제1조 위반. AI 안전에 대한 입장을 표명한 것에 대한 정부의 보복 이라는 주장입니다.

법률 범위 초과. 공급망 위험법은 외국 위협을 대상으로 만들어졌으며, 국내 기업에 적용하는 것은 법의 범위를 벗어난다는 것입니다.

협상 과정의 모순. 법원 제출 문서에 따르면, 트럼프 대통령이 관계 단절을 선언하기 불과 1주일 전 , 펜타곤은 Anthropic에 "양측이 거의 합의에 이르렀다" 고 말했습니다. 갑작스러운 지정이 협상 실패가 아니라 정치적 결정 이었음을 시사합니다.

150명의 퇴직 판사가 Anthropic 편에 섰다

Anthropic 지지 연합

⚖️

150+ 퇴직 판사

양당 임명 연방·주 판사

🪟

Microsoft

$300B Azure 딜 파트너

👥

Google·OpenAI 직원

개인 자격 지지

🛡️

전직 국가안보 관리

고위급 관료 지지

🏛️

Elizabeth Warren

"보복 행위" 비판

🤝

산업 단체

AI 업계 연대

이 사건에서 가장 주목할 것은 Anthropic을 지지하는 연합의 입니다.

150명 이상의 퇴직 연방·주 판사 가 amicus brief(법정 의견서)를 제출했습니다. 공화당과 민주당 임명 판사 모두 포함됩니다. 이들은 공급망 위험 지정이 법의 취지에 맞지 않다고 주장했습니다.

Microsoft 도 Anthropic을 지지했습니다. Microsoft는 Anthropic에 $300억 달러의 Azure 컴퓨트 딜을 제공한 비즈니스 파트너이기도 합니다.

Google과 OpenAI의 직원들 도 개인 자격으로 지지 의사를 밝혔습니다. 경쟁사의 직원들이 경쟁사를 지지하는 이례적 상황입니다. 이것은 "오늘 Anthropic에 일어난 일이 내일 우리에게 일어날 수 있다" 는 인식을 반영합니다.

Elizabeth Warren 상원의원 은 펜타곤의 결정을 "보복 행위" 라고 비판했습니다. 동시에 OpenAI CEO Sam Altman에게 서한을 보내, OpenAI가 국방부와 맺은 계약의 세부 사항을 공개하라고 요구했습니다.

OpenAI와의 명암

이 사건의 배경에는 OpenAI의 대조적 행보 가 있습니다. OpenAI는 국방부와 "모든 합법적 목적" 조건의 계약을 체결했습니다. Anthropic이 거부한 바로 그 조건입니다.

이것은 두 회사의 AI 안전 철학 의 근본적 차이를 드러냅니다. Anthropic은 "AI 안전의 레드라인은 양보할 수 없다"는 입장이고, OpenAI는 "정부와 협력하면서 안전을 추구한다"는 입장입니다.

기업 전략 측면에서도 대조됩니다. Anthropic이 국방부 시장(수십억 달러 규모)에서 배제되는 동안, OpenAI는 그 시장을 차지하고 있습니다. Anthropic의 레드라인은 도덕적 원칙 이지만, 동시에 사업적 비용 이기도 합니다.

하지만 반대 시각도 있습니다. Anthropic의 레드라인이 기업 시장에서의 신뢰 를 높이고 있다는 것입니다. 이전 글에서 다룬 것처럼, 기업 AI 시장에서 Anthropic이 신규 지출의 73%를 장악한 배경에는 "안전과 신뢰를 최우선으로 하는 기업" 이라는 브랜드가 있습니다. 펜타곤과의 갈등은 역설적으로 이 브랜드를 강화 할 수 있습니다.

AI 안전은 법적 권리인가

이 소송이 AI 산업 전체에 중요한 이유는, AI 안전 원칙이 법적으로 보호받을 수 있는 권리인지 를 처음으로 법정에서 다루기 때문입니다.

만약 법원이 Anthropic의 손을 들어준다면, AI 기업이 자사 기술의 사용 범위에 레드라인을 설정하는 것 이 수정헌법 제1조에 의해 보호받는 표현의 자유라는 선례가 만들어집니다. 정부가 이를 이유로 보복할 수 없다는 것입니다.

만약 법원이 펜타곤의 손을 들어준다면, 정부가 "국가 안보"를 이유로 기업의 AI 안전 원칙을 무력화 할 수 있다는 선례가 됩니다. 이 경우 다른 AI 기업들도 정부와의 계약에서 안전 원칙을 양보하라는 압박을 받게 됩니다.

이 사건은 단순한 계약 분쟁이 아닙니다. AI 시대의 기업 윤리, 국가 안보, 표현의 자유가 교차하는 전례 없는 법적 시험 입니다.

이것이 개발자에게 의미하는 바

이 소송의 결과는 AI를 만드는 모든 사람에게 영향을 미칩니다.

AI 안전 연구자에게: Anthropic이 승소하면, AI 안전 원칙을 고수하는 것이 법적으로 보호받는다는 확인이 됩니다. 이것은 안전 연구에 대한 투자를 장려합니다.

AI 기업에서 일하는 개발자에게: 자신의 회사가 기술 사용의 윤리적 경계를 어디에 설정하는지, 그리고 그 경계가 정부의 압력 앞에서 유지되는지가 중요해집니다.

오픈소스 개발자에게: OpenClaw 같은 오픈소스 AI 에이전트에는 이런 레드라인이 없습니다. 코드가 공개되면 누구든 군사 목적으로 사용할 수 있습니다. Anthropic의 소송은 "AI에 대한 통제권은 누가 가지는가" 라는 더 큰 질문의 일부입니다.

AI 안전의 가격

Anthropic이 펜타곤에 레드라인을 그은 순간, AI 안전 원칙에는 가격표 가 붙었습니다. 국방부 시장의 수십억 달러, 공급망 위험 지정의 비즈니스 영향, 소송 비용. 이것이 AI 안전을 "원칙"으로 유지하는 현실적 비용입니다.

150명의 퇴직 판사, Microsoft, 경쟁사 직원들이 Anthropic 편에 선 것은, 이 원칙이 Anthropic만의 것이 아니라 AI 산업 전체의 이해관계 라는 인식을 보여줍니다. 오늘 Anthropic이 공급망 위험으로 지정되면, 내일은 다른 어떤 기업이든 같은 처지에 놓일 수 있습니다.

3월 24일, Judge Rita Lin의 법정에서 AI 안전 원칙이 법적 시험을 받았습니다. 그 결과가 어떻든, 이 사건은 AI 시대의 "기술은 어디까지 정부에 복종해야 하는가" 라는 질문에 대한 첫 번째 대답이 될 것입니다.