美國聯邦法官瑞塔‧林(Rita Lin)於 25 日在聽證會上對政府將人工智慧公司 Anthropic 列為國家安全風險一事表達強烈質疑,認為此舉「令人擔憂」,且可能構成對憲法第一修正案的違反。Anthropic 因拒絕讓五角大廈將其旗下 AI 模型 Claude 用於自動化致命軍事行動及大規模監控美國公民,隨即遭到政府以國安風險為由列入限制名單,並於本月在舊金山聯邦法院提起訴訟,尋求推翻該項認定。
Anthropic 拒絕軍事用途,遭列國安風險名單
此次爭議的核心在於 Claude 的使用邊界。Claude 是美國國防部目前部署範圍最廣的前沿人工智慧模型,也是唯一在其機密系統中運作的同類型模型,戰略地位舉足輕重。然而,Anthropic 明確拒絕五角大廈將 Claude 用於執行自動化致命戰爭任務及對美國公民實施大規模監控,並向政府提出若干安全保障建議,但遭政府方面拒絕。
政府隨後對 Anthropic 採取的措施,通常僅適用於不友善的外國組織,此類認定若成立,將對 Claude 模型的商業發展造成嚴重衝擊,並可能導致 Anthropic 損失數十億美元的潛在營收。Anthropic 認為,政府的行動具有明顯的報復性質,因而選擇訴諸司法途徑。
法官直指懲罰意圖,質疑政府動機
林法官在聽證過程中措辭直接,對政府的立場提出多項質疑。她指出,政府的一系列反應「似乎不是真正針對所聲稱的國安問題」,並明確表示:「如果軍方不滿與 Anthropic 的合約,政府大可直接停用 Claude。」
她進一步表示:「看來被告的做法不僅於此,他們試圖因 Anthropic 在媒體上批評政府發包立場而加以懲罰,這種行為毫無疑問地違反了憲法第一修正案。」此一說法直接點出本案的憲法層面爭議——政府是否以國安名義對企業的言論自由施加壓力。
此外,林法官亦對出席聽證的美國政府律師所提論點表示存疑。該律師主張,Anthropic 對 AI 運作方式提出倫理顧慮,可能增加其干預軍事行動的風險。對此,林法官回應道:「我只是在想,為什麼有人對運作方式提出質疑,就會被懷疑可能會植入後門。」
各方立場與後續裁決觀察
就 Anthropic 立場而言,該公司強調其設立使用限制的出發點在於 AI 安全與倫理責任,而非拒絕配合國防需求。值得注意的是,微軟亦已公開聲援 Anthropic,促請五角大廈暫緩執行相關 AI 黑名單禁令,顯示科技業界對此案高度關注。
就政府立場而言,當局至今仍堅持其認定具有正當性,並主張 Anthropic 的倫理顧慮構成潛在安全隱患。雙方在此議題上的分歧,折射出 AI 技術在國防領域應用時,企業自主性與政府控制權之間的深層矛盾。
林法官表示,將在「幾天內」做出裁決。此案結果不僅攸關 Anthropic 的商業前景,更可能為 AI 公司在軍事合作中的倫理邊界及言論自由保障,確立重要的法律先例。截至目前,外界正密切關注法院最終如何在國家安全考量與憲法保障之間取得平衡。
常見問題解答
Anthropic 為何遭到美國政府列為國家安全風險?
Anthropic 拒絕讓五角大廈將其 AI 模型 Claude 用於執行自動化致命軍事任務及對美國公民進行大規模監控,並提出安全保障建議但遭政府拒絕。政府隨後將其列為國安風險,Anthropic 則認為此舉具有報復性質,並提起訴訟尋求推翻該認定。
Claude 在美國國防部中扮演什麼角色?
Claude 是美國國防部目前部署範圍最廣的前沿人工智慧模型,也是唯一在其機密系統中運作的同類型模型,在國防科技領域具有重要的戰略地位。
聯邦法官對此案的立場為何?
聯邦法官瑞塔‧林對政府行動表達強烈質疑,認為政府反應「似乎不是真正針對所聲稱的國安問題」,並直指政府可能因 Anthropic 公開批評政府立場而對其進行懲罰,此舉恐違反憲法第一修正案。她表示將在幾天內做出裁決。