社群媒體巨擘 Meta 近日證實,旗下一個內部 AI 代理程式因提供錯誤指引,導致一名工程師在公司內部環境中,將大量敏感的公司與用戶資料意外暴露給其他未獲授權的員工。這起事件觸發了最高等級的 Sev-1 警報,資料外洩持續約兩小時,所幸 Meta 聲明資料並未外洩至公司外部,且問題已獲得控制,但已對企業在AI資安治理上敲響警鐘。
各方反應與業界洞察
這起事件發生在一次例行性查詢內部 AI 代理程式的過程中,該 AI 系統建議的步驟,使得原本不應存取這些資料的員工,得以檢視敏感資訊。資安公司 Bonfy.AI 執行長暨共同創辦人 Gidi Cohen 對此指出,Meta 的事件精準反映了在缺乏資料中心防護措施的情況下,放任 AI 代理程式處理敏感資料的後果。他強調,這並非複雜的通用人工智慧(AGI)失效,而是由於工程師與代理程式都缺乏對資料存取權限的長期概念,導致大量資料暴露給不應見到的內部人員。
Delinea 亞太區副總裁 Cynthia Lee 則表示,Meta 事件再次提醒各界,AI 風險已是當前營運挑戰。她觀察到,AI 代理程式能迅速且精確地執行任務,卻缺乏人類對後果的理解、機構記憶、判斷力及對風險的感知,但卻被賦予越來越多關鍵系統的存取權限。根據 Delinea 最近一項研究顯示,高達九成的澳洲企業和九成五的新加坡企業正加速採用 AI,同時卻面臨資安團隊需放寬身份控管的壓力,這種在缺乏必要保障下賦予 AI 代理程式更大存取權限和自主性的做法,形成了危險的失衡。
面對 AI 同時放大生產力與錯誤的挑戰,業界專家普遍認為,解決之道並非減緩創新,而是強化控管。這意味著企業應以對待人類使用者同等的嚴謹態度來管理 AI 代理程式,包括實施最小權限原則、確保即時可視性,並採納零信任(Zero Trust)安全架構。每一個 AI 代理程式都應被視為一個新的身份,能夠存取關鍵資料、觸發工作流程並採取特權行動。
背景補充與未來啟示
傳統的端點資料外洩防護(DLP)、雲端存取安全代理(CASB)及角色權限管理等措施,在資料流經 AI 代理程式的推論步驟與工具呼叫時,可能無法有效監控。這顯示了現今企業在開發、支援與營運環節部署 AI 代理程式時,往往未將其視為需要特殊控管的獨立實體,導致企業的防護網出現漏洞,無法有效遏止內部資料外洩的風險。
資安專家指出,這起案例凸顯了企業在管理自主型 AI 代理程式與保護資料存取方面,存在更廣泛的弱點。當 AI 代理程式被賦予了快速執行任務的能力,卻沒有相對應的風險感知與判斷力時,其潛在的危害就不容小覷。這正是當前企業在擁抱 AI 帶來的效率之餘,必須正視的AI資安治理一大盲點。
隨著 AI 深度嵌入企業環境,資安治理而非追求速度,將成為企業韌性的關鍵要素。Meta 此次事件,為台灣乃至全球加速佈局 AI 的企業,提供了重要啟示,凸顯了在享受 AI 帶來效率的同時,更需嚴肅面對其可能帶來的潛在資安與用戶隱私風險,並重新審視 AI 代理程式的權限與監管機制,確保企業資訊安全滴水不漏。