行业新闻与博客

大多数网络安全人员并不知道他们能以多快的速度阻止针对人工智能系统的网络攻击。

ISACA 的一项新研究发现,超过一半(56%)的 IT 和网络安全专业人员不知道他们能以多快的速度关闭受网络攻击或安全事件影响的 AI 系统。

该研究由全球认证机构于 3 月 23 日发布,基于对 3400 多名安全和数字专业人士的调查。

略低于三分之一的受访者(32%)表示,他们相信可以在一小时内阻止可能受到损害的人工智能系统,而 7% 的受访者表示,他们认为这需要一个多小时。

企业人工智能所有权的混乱加剧了安全和治理风险

部分问题源于对企业人工智能应用管理责任归属的混乱。五分之一(20%)的受访者表示,他们不知道谁负责人工智能应用。

与此同时,28% 的受访者表示,管理人工智能是董事会级别高管的责任,18% 的受访者表示,这是首席信息官或首席技术官的责任,而 13% 的受访者表示,这是首席信息安全官的责任。

无论责任归属如何,接受调查的安全专业人员中,只有不到一半(43%)的人表示,他们对所在机构调查严重的 AI 事件并向领导层或监管机构解释事件经过的能力充满信心。

略超过四分之一(27%)的人表示,他们对所在机构做到这一点的能力几乎没有信心或完全没有信心。

根据 ISACA 的研究,许多安全专业人员认为,由于缺乏对系统的人工监督,他们的组织将难以识别与人工智能相关的潜在安全问题。

仅有 36%的受访者表示,在其所在组织内,大多数人工智能操作必须事先获得人工批准。另有 26%的受访者表示,人工智能活动仅在操作完成后才会进行审核。

与此同时,11% 的人表示,只有在出现特别标记的活动时才会审查 AI 的行为;20% 的人表示,他们不知道人类在监督其组织中 AI 做出的决策方面扮演什么角色。

“虽然各组织可能会感受到快速采用人工智能技术以跟上时代步伐并利用其能力的压力,但在此之前,他们必须建立适当的保障措施和治理机制,” Tiro Security 的虚拟首席信息安全官兼首席技术官、 GRCIE 的联合创始人兼董事会主席、 ISACA 新兴趋势工作组成员 Jenai Marinkovic 表示。

她补充说:“企业需要确保配备合适的人员、政策、流程和计划,不仅能够有效且负责任地使用人工智能,还能避免危机来临时可能造成的重大混乱。”

需要帮助吗?联系我们的支持团队 在线客服