行業新聞與博客

Azure 機器學習服務中發現權限提升漏洞

網絡安全研究人員發現了一個影響 Azure 機器學習 (AML) 的嚴重權限提升漏洞。

該漏洞允許僅具有存儲帳户訪問權限的攻擊者在 AML 管道內執行任意代碼,從而可能導致默認配置下的完全訂閲泄露。

根源於調用者腳本訪問的漏洞

雲安全公司 Orca 發現的這個問題源於 AML 在自動創建的存儲帳户中存儲和執行調用程序腳本(用於編排 ML 組件的 Python 文件)的方式。這些腳本在被修改後,會以 AML 計算實例的權限運行,而該實例通常具有廣泛或高度特權的身份。

在其概念驗證(POC)中,Orca 表明,具有基本存儲寫入權限的攻擊者可以:

  • 替換調用者腳本以注入惡意代碼

  • 從 Azure Key Vault 中提取機密

  • 使用 AML 計算實例的託管標識提升權限

  • 承擔創建實例的用户的角色,包括 Azure 訂閲上的“所有者”權限

由於 SSO(單點登錄)默認啓用,允許計算實例繼承創建者級別的訪問權限,因此這種攻擊媒介尤其令人擔憂。

微軟的回應和主要緩解措施

微軟承認了 Orca 的發現,但澄清説這種行為是“設計使然”,將對存儲帳户的訪問等同於對計算實例本身的訪問。

然而,該公司後來更新了其文檔並引入了一項關鍵變化——AML 現在使用組件代碼的快照來運行作業,而不是實時從存儲中讀取腳本。

儘管微軟並不認為這是一個安全漏洞,但 Orca 強調,該漏洞在默認和受支持的設置下有效。他們警告説,除非用户明確重新配置存儲訪問、SSO 和託管身份,否則他們的環境仍然處於危險之中。

為了防止被利用,建議 AML 用户:

  • 限制對 AML 存儲帳户的寫入訪問權限

  • 儘可能禁用計算實例上的 SSO

  • 使用具有最小權限的系統分配身份

  • 對關鍵腳本強制實施不變性和版本控制

  • 為調用者腳本實施校驗和驗證

Orca 的結論是,雖然 AML 的安全模型在理論上是有效的,但在實踐中,如果沒有嚴格的訪問控制,它會使組織暴露在風險之中。

定期配置審查和遵守最小特權原則對於保護機器學習管道仍然至關重要。

需要幫助嗎?聯繫我們的支持團隊 在線客服