
美國國防部
在Anthropic與美國國防部(Department of Defense,DoD)因模型用途紅線爆發爭議之際,OpenAI於2月28日宣布,已與DoD達成協議,將其先進AI系統部署於機密環境。OpenAI強調,此次合作建立在更具約束力的安全架構之上,並未移除模型護欄。
相較於Anthropic所強調的兩項限制——不得將模型用於大規模境內監控,以及不得用於完全自主武器系統,OpenAI則提出三項紅線。除了同樣排除大規模境內監控與完全自主武器用途外,OpenAI還新增第三項限制,明確禁止其技術被用於高風險自動化決策,例如類似「社會信用」機制的重大裁量系統。
根據Anthropic的聲明,美國國防部於談判過程中提出,僅會與同意「任何合法用途」(any lawful use)且不在大規模境內監控與完全自主武器等情境下施加額外技術限制的公司簽約。Anthropic認為,在此條件下企業將失去對模型用途的實質限制能力,因此拒絕讓步。
OpenAI則採取不同策略,指出此次部署為雲端限定架構,安全堆疊(Safety Stack)由OpenAI自行運行並持續更新,且將有具安全許可的工程師在環監督。OpenAI主張,在此技術與合約框架下,即使合作進入機密體系,企業仍能對模型用途保有實質控管能力,因此無須撤除紅線。
OpenAI執行長Sam Altman於3月1日透過X說明,該公司一直以來都只打算從事非機密工作。儘管他們認為國防部需要一個AI合作伙伴,但從事機密工作顯然更為複雜,他們之前也曾拒絕過Anthropic所接受的機密合約。
Altman指出,本周機密部署討論進入加速階段,國防部在OpenAI提出的安全架構與條件上表現出彈性;同時,OpenAI也希望在重要任務上支持國防部。之所以如此急促,是為了緩和局勢,並確保類似條件能提供給所有AI實驗室。
此外,不論是Altman或OpenAI,都反對國防部將Anthropic列為供應鏈風險(Supply Chain Risk,SCR),認為對一家美國AI公司貼上類似對待敵對勢力的標籤,無論對產業或國家皆不利。
這一次,不論是Anthropic或OpenAI,在談及與美國國防部相關的機密合約時,皆以「戰爭部」(Department of War,DoW)取代官方名稱「國防部」。「戰爭部」為1947年改制前的歷史稱呼,業者並未說明採用此一用語的原因,外界則推測,可能是為凸顯AI部署涉及實質軍事行動與戰場用途,而非一般行政性國防事務。
根據《華爾街日報》及多家媒體報導,美國在對伊朗的空襲行動中仍使用了Anthropic的Claude AI技術,這發生在美國政府宣布禁止聯邦機構使用Anthropic產品的數小時之內。據報導,包含駐中東的中央司令部等多個司令部,都在情報分析、目標識別與模擬戰場場景等任務上使用Claude。
熱門新聞
2026-02-26
2026-02-27
2026-02-27
2026-02-27
2026-02-27
2026-02-27
2026-02-27