Anthropicがアメリカ国防総省を提訴、OpenAIとGoogleの従業員はAnthropicの支持を表明

AI開発企業のAnthropicが、自社をサプライチェーンリスクとして指定したアメリカ国防総省(戦争省)を相手取り、訴訟を提起しました。これに対し、GoogleとOpenAIの従業員約40名がAnthropicの主張を支持する法廷助言書を提出しました。署名した従業員らは自社がAnthropicと激しい競争関係にあることを認めた上で、政府による今回の指定が業界全体の技術発展や安全性の議論に悪影響を及ぼすと主張しています。
Anthropic PBC v. U.S. Department of War, 3:26-cv-01996 – CourtListener.com
https://www.courtlistener.com/docket/72379655/anthropic-pbc-v-us-department-of-war/
Exhibit Amici Curiae Brief of Employees of OpenAI and Google in Their Personal C – #24, Att. #1 in Anthropic PBC v. U.S. Department of War (N.D. Cal., 3:26-cv-01996) – CourtListener.com
https://www.courtlistener.com/docket/72379655/24/1/anthropic-pbc-v-us-department-of-war/
OpenAI and Google employees rush to Anthropic's defense in DOD lawsuit | TechCrunch
https://techcrunch.com/2026/03/09/openai-and-google-employees-rush-to-anthropics-defense-in-dod-lawsuit/
Employees across OpenAI and Google support Anthropic’s lawsuit against the Pentagon | The Verge
https://www.theverge.com/ai-artificial-intelligence/891514/anthropic-pentagon-lawsuit-amicus-brief-openai-google
Anthropicは、アメリカ国内における大量監視や、人間の介在なしに殺傷を行う完全自律型兵器システムへの技術転用を禁止する「レッドライン」を設けていました。国防総省側は、民間企業からの制約を受けずにあらゆる合法的な目的でAIを利用できる権限を求めましたが、同社がこの要求を拒否したため、国家安全保障上のリスクとしてブラックリストに掲載されました。
AI企業のAnthropicが「アメリカの国家安全保障に対するサプライチェーンリスク」に正式に指定される、Anthropicは法廷闘争を宣言 - GIGAZINE

サプライチェーンのリスク指定は通常、外国の敵対勢力に関連する企業に適用される極めて異例な措置です。この指定を受けると、Anthropicは軍の契約を失うだけでなく、同社のモデルであるClaudeを使用している他企業も、国防総省との取引を継続するためにシステムの入れ替えを強要されることになります。
国防総省はAnthropicへの制裁とほぼ同時に、利用制限を課さない条件でOpenAIと新たな契約を締結しました。しかし、この契約に対してはOpenAI内部からも強い反発が起きています。
OpenAIが国防総省とのAI利用契約について合意、Anthropicの交渉決裂直後に - GIGAZINE

Anthropicは「サプライチェーンリスクへの指定には法的正当性がないと考えており、法廷で争う以外に選択肢はないと考えている」と述べ、指定の撤廃を求める訴訟をアメリカ国防総省に対して起こしました。
Anthropicは訴状で、国防総省によるサプライチェーンリスク指定が行政手続法(APA)および関連法(10 U.S.C. 3252)に違反していると主張。サプライチェーンリスク指定は証拠に基づかない恣意的な決定であり、Anthropicがアメリカの企業であり外国の敵対勢力とは無関係であるにもかかわらず、契約交渉での不服従を罰するために権限が乱用されたとしています。
さらに、表現の自由を保障する合衆国憲法修正第1条の侵害を主張しており、政府の措置はAIの安全性に関するAnthropicの特定の視点を封じ込めるための報復行為であり、民主的な議論を萎縮させるものだと批判。その上で、Anthropicは大統領の指令や国防総省の命令、およびリスク指定の通知書が違憲かつ無効であることを宣言するように裁判所に求めました。

by World Economic Forum
さらにGoogleとOpenAIの従業員役40名が、アメリカの技術的優位性と民主的な価値観を守るため、Anthropicの申し立てを認めるよう裁判所に求める法廷助言書を裁判所に提出しています。
今回法廷助言書には、GoogleおよびGoogle DeepMindから、チーフサイエンティストのジェフ・ディーン氏、リサーチディレクターのエドワード・グレフェンステット氏、プロダクトディレクターのキャシー・コレベック氏、シニアスタッフソフトウェアエンジニアのサンジーブ・ダンダ氏、スタッフソフトウェアエンジニアのショーン・タルツ氏、シニアリサーチエンジニアのノア・シーゲル氏やジェンドン・ワン氏、シニアソフトウェアエンジニアのサラ・コーガン氏やケイト・ウルバートン氏らが名を連ねています。
また、OpenAIからは、セキュリティエンジニアのグラント・バーキンバイン氏、テクニカルスタッフのアンナ・ルイサ・ブラックマン氏、アーロン・フリール氏、レオ・ガオ氏、マナス・ジョグレカー氏、ジョーダン・シトキン氏、ジョナサン・ワード氏、ジェイソン・ウォルフ氏、イェレ・ゼイルストラ氏、キャシー・イェー氏らが署名しました。
法定助言書では、Anthropicの示したレッドラインは強力な技術的制限を必要とする正当な懸念事項だと断言。また、AIを管理する包括的な法的枠組みが欠如している現状において、開発者が自主的に設ける技術的および契約上の制限こそが、壊滅的な悪用を防ぐための最後の砦であると結論づけています。
法廷助言書を提出した従業員らは、政府による今回の措置が、AIの安全性に関する率直な議論を萎縮させる不当な報復であると批判しています。彼らは、現在のAI技術にはハルシネーション(幻覚)の危険性があり、生死に関わる判断を完全に自律化させるには時期尚早であるという科学的な懸念を表明しました。加えて、AIを用いた国内監視システムが構築されること自体が、国民の自由な言論や政治活動を阻害する心理的な圧迫感を生むと警告しています。
なお、Anthropicによる訴訟が進められている裏で、ホワイトハウスは連邦政府機関に対してAnthropicのAIツールの使用を正式に禁止する大統領令の策定を進めているという報道もあります。
Trump to hit Anthropic with executive order to remove "woke" AI Claude
https://www.axios.com/2026/03/09/trump-white-house-anthropic-executive-order

・つづき
トランプ大統領によるAnthropicの排除措置に仮差止命令が下り執行一時停止に - GIGAZINE
・関連記事
トランプ大統領が「Anthropicの左翼狂信者がアメリカ軍の制御を試みた」と主張し関係断絶を指示、ヘグセス国防長官はAnthropicを「サプライチェーンリスク」に指定へ - GIGAZINE
Anthropicのダリオ・アモデイCEOが「OpenAIのメッセージは真っ赤なうそ」だと指摘、国防総省との契約を巡り - GIGAZINE
国防総省がサプライチェーンリスクに指定したAnthropicにGoogle・Amazon・Microsoftが防衛関連以外で協力表明、一方「なぜ指定したのか」について国防総省のAI担当者が語る - GIGAZINE
OpenAIと国防総省の契約後にChatGPTのアンインストール数がほぼ3倍に増加 - GIGAZINE
OpenAIのロボット部門責任者がアメリカ国防総省との物議をかもす合意に反発して退職 - GIGAZINE
ClaudeがApp Storeのランキングで1位に浮上、ユーザーがAnthropicの政府との対立を支持か - GIGAZINE
・関連コンテンツ
You can read the machine translated English article Anthropic sues US Department of Defense,….






