
美國國防部
華爾街日報、彭博社與Politico相繼引述國防部官員報導,美國國防部(Department of Defense,DoD)已正式通知人工智慧公司Anthropic,認定該公司及其AI產品構成供應鏈風險(Supply-Chain Risk)。
報導指出,國防部已告知Anthropic,其公司與AI模型被認定為供應鏈風險,相關認定立即生效。此舉可能導致與美國軍方合作的承包商或技術供應商,在與政府相關的系統中不得使用Anthropic所開發的Claude模型。
此次衝突的核心在於AI用途限制。Anthropic要求其技術不得用於大規模監控美國公民,或在沒有人工監督下部署完全自主武器系統;但國防部則主張,軍方必須能在所有合法用途下使用相關技術,不接受由供應商設定使用紅線。
值得注意的是,「供應鏈風險」標籤過去多用於與美國對手國相關的企業,例如中國華為,現卻首次用於一家美國AI公司。
在Anthropic發布聲明捍衛立場的當天,Anthropic產品長Mike Krieger即透過X表示,他為能在Anthropic工作感到自豪,還說Claude應用程式已衝上蘋果App Store下載排行榜第一名,且每天都有超過100萬人註冊Claude。現年40歲的Krieger曾與Kevin Systrom共同創辦Instagram並擔任技術長,他於2024年加入Anthropic,負責Claude相關產品與整體產品策略。
而當Anthropic與美國國防部撕破臉之後,OpenAI很快就宣布與美國國防部達成機密AI部署協議,但同時也公開反對國防部將Anthropic列為供應鏈風險。
熱門新聞
2026-03-06
2026-03-02
2026-03-02
2026-03-04
2026-03-02
2026-03-02
2026-03-05