行業新聞與部落格

Gartner 預測,到 2028年,人工智慧問題將主導一半的事件響應工作

Gartner 警告稱,除非安全團隊能夠及早參與專案,否則定製開發的 AI 應用將在未來幾年給安全團隊帶來重大難題。

分析師預測,到 2028 年,至少一半的企業事件響應工作將用於管理與這些應用程式相關的安全問題所帶來的後果。

Gartner 副總裁兼分析師克里斯托弗·米克斯特警告說:“人工智慧發展迅速,但許多工具——尤其是定製開發的 AI 應用程式——在未經充分測試的情況下就被部署。這些系統複雜、動態,而且難以長期保障安全。大多數安全團隊仍然缺乏處理 AI 相關事件的明確流程,這意味著問題可能需要更長時間才能解決,並且需要投入更多精力。”

他補充說,透過“左移”,安全團隊可以確保從一開始就建立足夠的控制措施。

然而,Gartner 也預測人工智慧驅動的安全工具將發揮越來越重要的作用。該公司聲稱,兩年後,一半的組織將使用人工智慧安全平臺來保護第三方人工智慧服務的使用以及定製開發的人工智慧應用程式。

分析師稱,這些工具可以幫助團隊執行可接受的使用策略,監控活動,並在人工智慧應用程式中應用一致的防護措施,從而保護它們免受即時注入、資料濫用和其他威脅。

Gartner 表示,隨著各組織尋求改進對人類和機器身份的檢測和補救,人工智慧驅動的“身份可見性和智慧平臺”也將迎來騰飛。

Sysdig 去年釋出的一份報告稱,機器身份的數量現在是人類使用者的 4 萬倍,帶來的風險是人類使用者的 7.5 倍。許可權過高的 AI 代理尤其令人擔憂。

主權將成為焦點

Gartner 的預測範圍遠不止人工智慧領域。

報告稱,到明年,近三分之一(30%)的組織將要求對雲安全控制擁有“全面主權”,以減輕持續的地緣政治風險。

Gartner 表示,地方監管要求和地緣政治動盪正在推動這種方法的轉變,首席資訊安全官 (CISO) 必須在定義主權要求方面發揮關鍵作用。

然而,英國初創公司 Arqit 上個月的研究表明,除非處理得當,否則此類強制性規定可能會阻礙創新。

約 62% 的受訪機構表示,在使用公共雲時,資料主權和隱私風險是阻礙人工智慧專案進展的最大因素。

Arqit 執行長 Andy Leaver 表示:“與此同時,六分之一的組織告訴我們,他們根本無法保證主權設施,而目前只有 8% 的組織可以依賴主權邊緣環境。”

“安全領導者正是需要加強對傳輸中資料的控制、提高對加密技術的可見性,以及在雲端和邊緣建立信任的切實可行的方法,來彌補這一差距。”

Arqit 等公司正在推廣機密計算,將其作為一種在不犧牲安全性的前提下實現主權的方法。這是一種在處理器級別建立安全區域的技術方案,可以隔離和保護正在使用的資料。

需要幫助嗎?聯絡我們的支援團隊 線上客服