作者 chordate (にんきもの)
標題 Re: [情報] OpenAI和美國國防部達成協議
時間 Mon Mar  2 19:26:00 2026



把Open AI的聲明機翻一下分享給大家

https://openai.com/index/our-agreement-with-the-department-of-war/

昨天,我們與美國國防部(Pentagon)達成協議,在機密環境中部署先進的 AI 系統,我
們也同時要求國防部將此協議內容提供給所有 AI 公司。

我們認為,與以往任何機密 AI 部署協議(包括 Anthropic 的協議)相比,我們的協議
擁有更多的防護欄。原因如下:
針對與國防部(DoW)的合作,我們設有三條主要紅線,這也是其他幾家前沿實驗室普遍
認同的準則:

不得將 OpenAI 技術用於大規模國內監控。

不得將 OpenAI 技術用於指導自主武器系統。

不得將 OpenAI 技術用於高風險的自動化決策(例如「社會信用」等系統)

其他 AI 實驗室在國家安全部署中,減少或移除了其安全防護欄,並主要依賴使用政策作
為主要防護措施。我們認為我們的方法能更有效地防止不當使用。

在我們的協議中,我們透過更廣泛、多層次的方法來保護我們的紅線。我們保留對安全技
術堆疊(safety stack)的完全自主權,透過雲端進行部署,由經過安全審查的 OpenAI 人
員參與流程,並擁有強大的契約保護。這是在美國法律現有的強大保護之外的額外保障

我們深信民主。鑑於這項技術的重要性,我們認為唯一的正確道路需要 AI 研發與民主程
序之間的深度協作。我們也相信我們的技術將為世界帶來新風險,因此我們希望捍衛美國
的人員能擁有最好的工具。

我們的協議包括:

    部署架構。這是一項僅限雲端的部署,執行我們運行的安全技術棧,其中包括上述原
則及其他規定。我們不會向國防部提供「移除防護欄」或未經安全訓練的模型,也不會在
邊緣設備(edge devices)上部署模型(因為在邊緣設備上可能會有用於自主致命武器的
可能性)。


    我們的部署架構將使我們能夠獨立驗證這些紅線是否被跨越,包括運行和更新分類器
(classifiers)。

    我們的合約。以下是相關條款文字:

    國防部得在符合適用法律、操作需求以及完善的安全與監督協定之情況下,將本 AI
系統用於所有合法用途。在法律、法規或部會政策要求人力控制的任何情況下,本 AI 系
統不得用於獨立指導自主武器,亦不得用於承擔同樣需要人類決策者根據相同授權批准的
其他高風險決策。根據國防部第 3000.09 號指令(2023 年 1 月 25 日訂定),在自主
和半自主系統中使用 AI 必須經過嚴格的驗證、確認與測試,以確保其在部署前的現實環
境中能按預期運作。


    對於情報活動,任何對私人資訊的處理均須符合第四修正案(Fourth Amendment)、
1947 年《國家安全法》(National Security Act of 1947)、1978 年《外國情報監控
法》(Foreign Intelligence and Surveillance Act of 1978)、第 12333 號行政命令
以及要求明確外國情報目的之適用國防部指令。本 AI 系統不得用於與上述授權一致之對
美國人私人資訊的無限制監控。除《警衛隊法》(Posse Comitatus Act)及其他適用法
律允許外,本系統亦不得用於國內執法活動。


    AI 專家參與。我們將派駐經過安全審查的 OpenAI 工程師協助政府,並由經過審查
的安全與對齊(alignment)研究人員參與其中。

FAQ

●你們為什麼要這麼做?

首先,我們認為美國軍方絕對需要強大的 AI 模型來支持其使命,特別是面對潛在競爭對
手日益增長的威脅,這些對手正不斷將 AI 技術整合到其系統中。起初我們並未投入機密
部署的合約,因為當時我們認為防護措施與系統尚未準備就緒,而後我們一直努力確保機
密部署能在有防護措施的情況下進行,以確保紅線不被跨越。

我們過去不願意、現在也依然不願意為了提升國家安全工作的性能而移除關鍵的技術防護
。那不是支持美國軍方的正確方法。

其次,我們也希望緩解國防部與美國 AI 實驗室之間的緊張關係。美好的未來需要政府與
 AI 實驗室之間真實且深度的協作。作為這筆交易的一部分,我們要求向所有 AI 實驗室
提供相同的條款,特別是希望政府能嘗試解決與 Anthropic 之間的問題;現狀對於開啟
政府與 AI 實驗室之間下一階段的合作是非常糟糕的。


●為什麼你們能達成協議而 Anthropic 卻不行?你們簽署了他們拒絕的合約嗎?

根據我們掌握的資訊,我們相信我們的合約比早期的協議(包括 Anthropic 最初的合約
)提供了更好的保證和更負責任的防護措施。我們認為這裡的紅線更具執行力,因為部署

僅限於雲端(而非邊緣),能讓我們維持我們認為最佳的安全技術堆疊運作方式,並讓經過

審查的 OpenAI 人員參與。
我們不知道為什麼 Anthropic 無法達成此協議,我們希望他們及更多實驗室會考慮此方
案。

●你認為 Anthropic 應該被指定為「供應鏈風險」嗎?

不,我們已經向政府明確表達了我們的立場。

●這項交易是否會讓國防部能使用 OpenAI 模型來驅動自主武器?

不會。基於我們的安全技術堆疊、僅限雲端的部署方式、合約文字以及現行法律、法規和政
策,我們有信心這不會發生。我們還將有 OpenAI 人員參與其中以提供額外保證。

●這項交易是否會讓國防部能使用 OpenAI 模型對美國人進行大規模監控?

不會。基於我們的安全技術棧、合約文字以及嚴格限制國防部進行國內監控的現行法律,
我們有信心這不會發生。我們還將有 OpenAI 人員參與其中以提供額外保證。

●你們必須部署沒有安全技術堆疊的模型嗎?

不,我們對部署的安全技術堆疊保留完全控制權,且不會在沒有安全防護欄的情況下部署。
此外,我們的安全與對齊研究人員將參與其中,並協助隨時間改進系統。我們知道其他
AI 實驗室減少了模型防護欄,並將使用政策作為主要防護,但我們認為我們的多層次方
法能更有效地防止不當使用。


●如果政府違反合約條款會發生什麼事?

與任何合約一樣,如果對方違反條款,我們可以終止合約。我們預計這不會發生。
如果政府直接修改法律或現行的國防部政策怎麼辦?
我們的合約明確引用了現行的監控與自主武器法律及政策,因此即使這些法律或政策在未
來發生變化,使用我們系統的行為仍必須符合協議中所反映的當前標準。

●你們如何回應 Anthropic 在他們的部落格文章中關於與國防部討論的論點?

在他們的文章中,Anthropic 提出了他們的兩條紅線(我們有相同的兩條紅線,加上第三
條:自動化高風險決策),以及他們認為這些紅線在當時看到的國防部合約中無法得到維
持的原因。


以下是為什麼我們相信相同的紅線在我們的合約中會保持有效:

大規模國內監控:在我們的互動中,國防部很清楚大規模國內監控是非法的,且不打算將
其用於此目的。我們確保了「不包含在合法用途內」這點在合約中被明確寫出。

全自主武器:我們合約中涵蓋的雲端部署介面不允許驅動全自主武器,因為那需要邊緣部
署。

除了這些保護之外,我們的合約還提供額外的多層次防護,包括我們的安全技術棧以及參
與其中的 OpenAI 技術專家。

---------------------------------------------------------------------------

不是法律專家,就看有沒有法律專業的版友能夠看看這合約有沒有用。

--
※ 文章代碼(AID): #1ffNFB0T (Military)
※ 文章網址: https://www.ptt.cc/bbs/Military/M.1772450763.A.01D.html
※ 同主題文章:
Re: [情報] OpenAI和美國國防部達成協議
03-02 19:26 chordate
thigefe: 沒有全文,不會知道有用到什麼程度,條文越強硬,簽約機率就越低。違約處理,不脫離調解仲裁上法院,等官司結束可能也好幾年了1F 03/02 19:32
※ 編輯: chordate (219.100.37.240 日本), 03/02/2026 19:36:03
titanlee: 天網表示誰跟你說自主攻擊一定要邊緣部署4F 03/02 19:41
untrammelled: 比我想像中的好,公司本質較諸政府更不適合進行民主性的決策,而這些條文一部分其實用法律條文直接代換了內涵,某程度避開了這個問題,因為法律本身就是帶有制度理性,民主智慧的;另一方面它在合理的地方用了不少不確定概念,像是完善啦,什麼的,有點變相開了loopholes給使用者5F 03/02 19:44
TWkiller: 其實沒差,兩家股東差不多11F 03/02 20:32
miname: 因為一個是在法律要求下才限制,一個是不管法律都要限制,前者有跟沒有一樣12F 03/02 21:03
LoveSports: 丟給AI分析  舉了幾個可以鑽漏洞的方法
AI的說法看來  對AI自主武器與大規模監控方面
目前法律無法保障  而且O家說要派專家說會取得安全許可 但這代表受間諜法終身約束不能舉發 等於被收編有興趣的人也可以丟給其他家AI分析看看14F 03/02 22:42

--
作者 chordate 的最新發文:
點此顯示更多發文記錄