行业新闻与博客
Gartner 预测,到 2028年,人工智能问题将主导一半的事件响应工作
Gartner 警告称,除非安全团队能够及早参与项目,否则定制开发的 AI 应用将在未来几年给安全团队带来重大难题。
分析师预测,到 2028 年,至少一半的企业事件响应工作将用于管理与这些应用程序相关的安全问题所带来的后果。
Gartner 副总裁兼分析师克里斯托弗·米克斯特警告说:“人工智能发展迅速,但许多工具——尤其是定制开发的 AI 应用程序——在未经充分测试的情况下就被部署。这些系统复杂、动态,而且难以长期保障安全。大多数安全团队仍然缺乏处理 AI 相关事件的明确流程,这意味着问题可能需要更长时间才能解决,并且需要投入更多精力。”
他补充说,通过“左移”,安全团队可以确保从一开始就建立足够的控制措施。
然而,Gartner 也预测人工智能驱动的安全工具将发挥越来越重要的作用。该公司声称,两年后,一半的组织将使用人工智能安全平台来保护第三方人工智能服务的使用以及定制开发的人工智能应用程序。
分析师称,这些工具可以帮助团队执行可接受的使用策略,监控活动,并在人工智能应用程序中应用一致的防护措施,从而保护它们免受即时注入、数据滥用和其他威胁。
Gartner 表示,随着各组织寻求改进对人类和机器身份的检测和补救,人工智能驱动的“身份可见性和智能平台”也将迎来腾飞。
Sysdig 去年发布的一份报告称,机器身份的数量现在是人类用户的 4 万倍,带来的风险是人类用户的 7.5 倍。权限过高的 AI 代理尤其令人担忧。
主权将成为焦点
Gartner 的预测范围远不止人工智能领域。
报告称,到明年,近三分之一(30%)的组织将要求对云安全控制拥有“全面主权”,以减轻持续的地缘政治风险。
Gartner 表示,地方监管要求和地缘政治动荡正在推动这种方法的转变,首席信息安全官 (CISO) 必须在定义主权要求方面发挥关键作用。
然而,英国初创公司 Arqit 上个月的研究表明,除非处理得当,否则此类强制性规定可能会阻碍创新。
约 62% 的受访机构表示,在使用公共云时,数据主权和隐私风险是阻碍人工智能项目进展的最大因素。
Arqit 首席执行官 Andy Leaver 表示:“与此同时,六分之一的组织告诉我们,他们根本无法保证主权设施,而目前只有 8% 的组织可以依赖主权边缘环境。”
“安全领导者正是需要加强对传输中数据的控制、提高对加密技术的可见性,以及在云端和边缘建立信任的切实可行的方法,来弥补这一差距。”
Arqit 等公司正在推广机密计算,将其作为一种在不牺牲安全性的前提下实现主权的方法。这是一种在处理器级别创建安全区域的技术方案,可以隔离和保护正在使用的数据。
最近新闻
2026年03月24日
2026年03月24日
2026年03月23日
2026年03月23日
2026年03月23日
2026年03月23日
2026年03月23日
2026年01月27日
需要帮助吗?联系我们的支持团队 在线客服