Dario Amodei, OpenAI의 국방부 계약 관련 발언을 '노골적인 거짓말'이라 비판
Dario Amodei calls OpenAI’s messaging around military deal ‘straight up lies’
TL;DR Highlight
Anthropic CEO Dario Amodei가 내부 메모에서 OpenAI의 DoD(국방부) 계약을 '안전 연극(safety theater)'이라 규정하고, Sam Altman의 공개 발언이 거짓이라고 직접 비판했다. Anthropic이 거절한 조건으로 OpenAI가 계약을 맺었는데, 그 조건이 사실상 무의미하다는 주장이다.
Who Should Read
AI 윤리와 거버넌스 동향을 팔로우하는 개발자, 또는 어떤 AI 서비스를 사용하고 지원할지 결정해야 하는 제품/엔지니어링 팀.
Core Mechanics
- Anthropic은 DoD(미 국방부)와 기존 2억 달러 계약을 맺고 있었으나, DoD가 '어떠한 합법적 용도로도(any lawful use)' 사용할 수 있는 무제한 접근권을 요구하자 협상이 결렬됐다. Anthropic은 대규모 국내 감시와 자율 무기 사용 금지를 명문화해달라고 요구했는데 DoD가 이를 거부했다.
- 협상 결렬 직후 OpenAI가 DoD와 계약을 체결하며 Sam Altman은 'Anthropic이 요구한 것과 동일한 보호 조항을 포함했다'고 밝혔다. 그러나 OpenAI 블로그 포스트를 보면 '모든 합법적 목적(all lawful purposes)에 허용'이라고 돼 있어, 사실상 DoD가 스스로 정한 규칙 내에서는 무엇이든 가능한 구조다.
- Amodei는 직원 메모에서 OpenAI의 이 메시징을 '노골적인 거짓말(straight up lies)'이라고 표현하며, Altman이 '평화 조정자이자 딜메이커'인 척 자신을 포지셔닝하고 있다고 비판했다. Anthropic은 계약을 거절한 이유가 직원 달래기가 아닌 실제 남용 방지였다고 주장한다.
- 비판론자들은 '합법적'이라는 기준 자체가 변할 수 있다는 점을 지적한다. 지금은 불법인 대규모 국내 감시가 법 개정으로 합법화되면 계약상 제한이 무력화된다는 논리다.
- OpenAI의 DoD 계약 발표 이후 ChatGPT 앱 삭제율이 295% 급증했고, Anthropic의 Claude 앱은 App Store 2위에 올랐다. Amodei는 메모에서 '일반 대중과 미디어는 우리를 영웅으로 보고 있다'고 언급했다.
- Amodei는 메모에서 'OpenAI의 스핀이 일부 Twitter 유저들에게는 먹히지만, 그것보다 OpenAI 직원들에게 먹히지 않게 하는 것이 더 중요하다'고 적었다. 경쟁사 직원의 인식을 직접 의식하는 이례적인 발언이다.
- Trump 행정부 하에서 DoD는 '국방부(Department of Defense)' 대신 '전쟁부(Department of War)'로 불리기도 한다는 점이 기사에서 언급됐으며, 이는 현 정부의 군사 우선 기조를 상징적으로 보여준다.
Evidence
- 한 댓글 작성자는 'OpenAI 계약의 실질적 조건은 DoD가 스스로 정한 규칙을 위반하지 않겠다는 것'이라고 분석했다. Sam Altman이 협상 결렬 후 몇 시간 만에 '동일한 조건으로 계약했다'고 발표한 것 자체가 설득력이 없다는 반응이 많았다.
- Anthropic의 도덕적 우위 주장에 대한 반론도 있었다. 여러 댓글에서 Anthropic이 감시 기술 기업인 Palantir와 파트너십을 맺고 있다는 점을 지적했다. Palantir는 ICE의 추방 대상자 목록 작성 도구(ELITE), 정부 기관 데이터 융합(Foundry) 등을 통해 영장 없는 시민 감시를 가능하게 한다는 비판을 받는 회사다. 이 점에서 Amodei의 비판이 위선적이라는 의견이 있었다.
- 반면 Anthropic이 계속 DoD와 재협상을 추진 중이라는 FT 보도가 댓글에서 공유됐다. 한 사용자는 '이번 거절이 진짜 원칙이 아니라 홍보용 퍼포먼스'라고 지적했고, Anthropic도 결국 수익과 정부 계약 앞에서는 타협할 것이라는 냉소적 시각도 있었다.
- 일부 사용자들은 OpenAI의 이번 행보를 계기로 실제로 구독을 취소하고 Claude로 전환했다고 밝혔다. 'Claude Desktop이 더 낫다', 'Anthropic이 더 윤리적인 회사'라는 실사용 경험 공유가 있었다. 다만 다른 댓글에서는 'Anthropic을 지나치게 영웅화하지 말라'며, 둘 다 완벽한 회사가 아님을 상기시키는 목소리도 있었다.
- Paul Graham의 Sam Altman 평가('카니발 섬에 떨어뜨려도 5년 후엔 왕이 돼 있을 것')를 인용하며, 이 발언이 지금 시점에서는 칭찬이 아닌 경고처럼 읽힌다는 댓글이 주목을 받았다. Dario의 발언에서 희귀한 수준의 정직함과 원칙을 본다는 긍정적 평가와, 그 또한 전략적으로 움직이는 것이라는 시각이 공존했다.
How to Apply
- AI 서비스 선택 기준에 윤리 정책과 군사/정부 계약 조건을 포함시키는 경우, 각 회사의 공개 계약 조건과 이용약관을 직접 읽어보고 'lawful use' 같은 모호한 표현이 어떻게 정의되는지 확인하라. 추상적 공약보다 계약서 문구가 더 중요하다.
- 기업 내에서 AI 도구 사용 정책을 수립 중이라면, 사용하는 AI 제공사가 어떤 정부/군사 기관과 계약을 맺고 있는지, 데이터 사용 범위가 어떻게 제한되는지를 벤더 평가 체크리스트에 추가하는 것을 고려하라.
- Anthropic의 Palantir 파트너십처럼, AI 기업의 공개 발언과 실제 사업 파트너십 사이의 간극을 확인하려면 공시된 투자자/파트너 정보(투자사 IR, 공개 계약 발표)를 함께 검토하라. 단일 사건이나 발언만으로 회사 전체를 평가하지 말 것.
Code Example
snippet
[data-theme=claude] * {
font-family: system-ui, sans-serif !important;
}
/* Safari 설정 → Advanced → Stylesheet에 추가하면 Claude.ai에서 시스템 폰트 사용 가능 */Terminology
safety theater실제 안전보다 안전해 보이는 이미지를 만들기 위한 행위. 공항 보안 검색에서 유래한 표현으로, 실질적 효과 없이 보여주기식으로 안전 절차를 따르는 것을 비꼬는 말이다.
DoD미국 국방부(Department of Defense). Trump 행정부에서는 'Department of War(전쟁부)'라는 별칭으로도 불린다.
autonomous weaponry사람의 개입 없이 스스로 표적을 선택하고 공격 결정을 내리는 AI 기반 무기 시스템. 킬러 로봇 논쟁의 핵심 소재다.
Palantir미국의 데이터 분석 기업으로, 정부·군·법집행 기관에 대규모 데이터 통합 및 감시 솔루션을 제공한다. ICE, CIA, NSA 등과 협력한 이력이 있어 개인정보 침해 논란이 지속되고 있다.
red lines절대 넘어서는 안 된다고 설정한 한계선. 협상에서 어떤 조건도 이 선을 넘으면 계약을 거부하겠다는 원칙적 기준이다.
lawful use법적으로 허용된 범위 내 사용. 문제는 '합법'의 기준이 정부 정책 변경에 따라 달라질 수 있어, 이 표현 하나로 모든 남용을 막기엔 불충분하다는 비판이 있다.