人工智慧正在從根本上重塑軟體開發產業的面貌。舊金山新創公司Cognition所開發的AI軟體工程師「Devin」,目標是在無需人工干預的情況下,完整執行軟體建構任務,引發業界廣泛關注。與此同時,AI安全公司Anthropic因拒絕美國五角大廈的部分軍事應用需求,陷入法律與政治爭議,兩起事件共同揭示了2026年第一季AI技術在商業與國家安全領域所引爆的倫理邊界問題。
Cognition崛起:Devin的誕生與企業客戶的高速增長
Cognition由29歲執行長史考特·吳(Scott Wu)創立,他從哈佛大學輟學後全力投入這項創新計畫。根據《The San Francisco Standard》報導,公司成立至今僅兩年,卻已在AI程式開發領域建立起顯著地位。
Devin 1.0於2024年正式推出,並於同年3月開放早期使用者體驗。過去一年間,Cognition的企業客戶使用量增長約80倍,客戶名單涵蓋高盛(Goldman Sachs)、花旗銀行(Citi)與美國太空總署(NASA)等知名機構。在組織規模上,公司員工人數從去年夏季的40人擴展至逾200人,並於去年完成4億美元募資,估值已超過100億美元。Cognition亦收購了另一家AI程式碼新創Windsurf,進一步鞏固市場地位。
史考特·吳表示,Devin的定位是輔助而非取代人類工程師,使工程師得以專注於創造性思維與問題解決,最終實現他所稱的「軟體豐裕」願景。不過,他也坦承,公司在Devin推出初期可能對其能力有所誇大。
高強度工作文化的另一面
Cognition的快速成長背後,是公司內部「極致績效文化」的具體體現。工程師阿迪亞揚·塞克薩利亞(Adhyyan Sekhsaria)透露,團隊成員通常在上午11點半例行會議前便已抵達公司,且頻繁工作至深夜甚至週末。這種工作節奏,是矽谷高速成長型新創公司的縮影,也引發外界對從業者工作條件的關注。
競爭格局:AI程式開發領域群雄並起
Cognition所面對的競爭環境並不輕鬆。目前市場上已有估值近300億美元的Cursor、Anthropic旗下的Claude Code,以及OpenAI的Codex等強勁對手,AI程式開發工具的競逐正在加速演進。各方在技術能力、安全機制與商業模式上的差異,將決定這場競賽的最終走向。
Anthropic與五角大廈的法律糾紛:安全準則的邊界在哪裡?
在AI商業化持續推進的同時,AI新創公司Anthropic捲入了一場涉及國家安全的法律爭議。根據《bgr.com》報導,爭議起源於2026年1月,美國五角大廈在試圖逮捕委內瑞拉總統馬杜羅(Nicolas Maduro)的行動中,使用了Anthropic的AI模型Claude。
Anthropic隨即嘗試對美國軍方實施其禁止暴力用途的安全準則,雙方就民間企業能否規範政府產品部署一事展開數週協商,最終談判破裂。Anthropic明確拒絕了五角大廈提出的大規模國內監控與全自動武器相關要求。
白宮制裁與市場衝擊
作為回應,美國白宮於今年3月5日首次對美國本土企業發出供應鏈風險認定,將Anthropic列入名單,此舉預估將導致其損失50億美元。此後,OpenAI迅速宣布達成協議,接手Anthropic原本承接的五角大廈機密工作。目前,美國財政部與國務院等機構已著手移除系統中的Claude,預計需要6至18個月才能完全脫離。
Anthropic執行長達里歐·阿莫迪(Dario Amodei)長期奉行的「安全優先」方針,與現任川普(Donald Trump)政府的AI去監管化政策方向明顯相左,雙方的路線衝突在此次事件中充分顯現。
投資人信心未受動搖
儘管面臨多方壓力,Anthropic的融資動能並未因此中斷。據報導,Anthropic總募資額已超過180億美元,並於近期完成300億美元的G輪融資。亞馬遜(Amazon)在2024年投入40億美元,Google亦承諾投資逾20億美元,顯示科技巨頭對Anthropic長期發展潛力的持續認可。
後續觀察:AI監管與倫理邊界的演變
Cognition的崛起與Anthropic的爭議,分別代表了AI技術在軟體開發效率與國家安全應用兩個維度上的典型案例。前者挑戰的是人類工程師的角色定位,後者則觸及民間企業與政府機構在AI部署上的權責劃分。
未來,軟體工程師的職能如何演變、AI安全準則的適用範圍如何界定,以及各國政府對AI的監管框架如何成形,仍是業界與政策圈持續關注的核心議題。這兩起事件的後續發展,或將為上述問題的答案提供重要參照。
常見問題解答
Devin是什麼?它能完全取代人類軟體工程師嗎?
Devin是由美國新創公司Cognition開發的AI軟體工程師,目標是在無需人工干預的情況下獨立完成軟體建構任務。Cognition執行長史考特·吳表示,Devin的定位是輔助而非取代人類工程師,讓工程師得以專注於創造性工作與問題解決。
Anthropic與五角大廈的爭議為何發生?
爭議源於五角大廈在2026年1月的一項軍事行動中使用了Anthropic的AI模型Claude。Anthropic試圖對軍方實施其禁止暴力用途的安全準則,並拒絕大規模國內監控與全自動武器的相關要求,導致雙方協商破裂,最終引發白宮將Anthropic列入供應鏈風險名單的後續效應。
Anthropic被列入供應鏈風險名單後,有哪些具體影響?
美國白宮於今年3月5日首次對美國本土企業發出供應鏈風險認定,將Anthropic列入名單,預估將導致其損失50億美元。美國財政部與國務院等機構已開始移除系統中的Claude,預計需要6至18個月才能完全脫離,而OpenAI已宣布接手相關機密工作。