行业新闻与博客

#Infosec2025:首席信息安全官 (CISO) 需要了解的六大网络趋势

今年的欧洲信息安全 2025 峰会汇聚了众多行业专家,共同探讨该领域的最新趋势、挑战和成功。

以下是《信息安全杂志》在与展会现场专家的对话中发现的六大关键趋势。

在重大技术进步的背景下,一个重要主题是需要继续关注基础技术,例如人类行为和身份控制。

安全领导者应该意识到这些趋势,并确保他们考虑他们的策略是否充分优先考虑这些领域。

攻击者利用电话发起攻击

社会工程学的性质在不断演变,威胁行为者转向单独使用电话或结合电子邮件来发起攻击。

这些都是为了获取受害者的凭证,以获得对目标组织网络的初步访问权限。

Fleet Mortgages 的技术与安全总监 Erhan Temurkan 告诉Infosecurity ,他特别担心冒充 IT 部门的电话,要求员工重置密码。

随着深度伪造技术的进步,这些骗局变得更加猖獗,诈骗者听起来就像是他们团队中认识的某个人。

与传统的电子邮件钓鱼信息相比,此类恶意电话很难阻止。

Temurkan 解释道:“我们可以设置电子邮件网关来阻止那些网络钓鱼攻击,但对于阻止电话攻击却无能为力,因为你不想阻止合法客户。”

至关重要的是,组织必须实施额外的防御层来减轻这些基于电子邮件的诈骗,这本质上是他们自己的多因素身份验证 (MFA)。

Temurkan 指出,这可能包括与企业个人预先商定的短语或密码。

身份认同仍然是重要的战场

研究表明,凭证泄露仍然是攻击者渗透组织的主要方式。

Rapid7 在 Infosecurity Europe 期间发布的研究发现,2025 年第一季度所有入侵事件中有 56%是由于有效帐户凭证被盗而导致的,且没有实施多因素身份验证 (MFA)。

Rapid7 欧洲、中东和非洲地区首席技术官 Thom Langford 指出:“归根结底还是基础问题。最初的访问通常是通过用户名和密码攻击。他们只是简单地诱骗人们提供这些信息。”

这在云端尤为常见。Darktrace 产品总监 Beverly McCann 博士解释说:“入侵组织的一个有效途径是入侵 SaaS 账户,提升权限以获得管理员角色,从而访问敏感数据。”

在这种环境下,部署 MFA 不仅很重要,而且要确保它是正确类型的 MFA。

Temurkan 表示,他担心 SIM 卡交换攻击的增多,攻击者可以利用被盗信息拦截基于短信的双因素身份验证 (2FA) 代码。

Temurkan 评论道:“这只会增加企业放弃短信双重身份验证的动力。这总比没有强,但随着 SIM 卡交换现象的增多,这确实是一个很大的缺口。”

最强大的抗网络钓鱼 MFA 技术使用快速在线身份验证 (FIDO) 标准协议。这些选项包括生物识别技术和物理安全密钥,近年来,这些技术变得越来越容易获取和集成。

实现网络安全无摩擦的必要性

网络安全措施要想真正发挥作用,必须确保不会对员工的工作产生负面影响。否则,这些措施不太可能得到遵守。

兰福德评论道:“我认为我们在安全方面面临的最大挑战是,我们采取的每一项保护措施都会增加员工之间的摩擦——这是有问题的。”

因此,用户体验应该成为安全领导者在决策时考虑的一个关键因素。

这方面的机会是存在的,特别是在身份识别领域,采用生物识别和单点登录等无密码身份验证方法。

 Temurkan 表示:“如果想要继续引入额外的控制措施,我们作为安全行业,需要继续努力在安全性和可用性之间取得平衡。”

“我认为我们在安全方面面临的最大挑战是,我们采取的每一项保护措施都会增加员工的摩擦。”Rapid7 欧洲、中东和非洲地区首席技术官 Thom Langford

防范日益增长的人工智能风险

随着技术的不断进步,人工智能给组织带来的安全风险也越来越大。

这首先与攻击者使用人工智能有关。麦肯表示,由于人工智能的发展,攻击的规模和速度显著增长。

她告诉 Infosecurity:“他们开始使用更多自动化工具、更多人工智能工具并利用这些工具。”

这包括使用人工智能工具搜索漏洞,在修复之前寻求利用。

麦肯补充道:“你不是针对一个组织,而是针对 100 个组织,看看哪些能奏效。”

防御者必须能够跟上步伐,这可能需要应用他们自己的人工智能安全工具。

另一个问题是企业越来越青睐人工智能工具,包括代理人工智能 (Agentic AI)。这些代理具有高度的自主性。代理系统可以选择其使用的人工智能模型,将数据或结果传递给其他人工智能工具,甚至无需人工批准即可做出决策。

如果没有足够的控制和监督,这些自主工具可能会加剧人工智能数据安全挑战,例如即时注入、中毒、偏见和不准确性。

随着人工智能的快速发展,业界和政府有责任在部署之前推动人工智能的负责任和安全使用。今年4月,欧洲标准组织 ETSI 发布了一套新的技术规范,旨在成为保护人工智能模型和系统安全的“国际基准”。

人工智能风险不仅仅是企业内部的问题。企业还需要警惕第三方供应商的潜在人工智能数据风险。

Temurkan 指出:“那些我们已经使用了 10 年、15 年的供应商呢?他们的后端是否有我们不知道的人工智能?”

他强调,需要在供应商保证过程中发现任何新的人工智能部署,以及这些第三方是否采用了安全的做法,例如解决开放式全球应用程序安全项目 (OWASP) 大型语言模型 (LLM) 十大列表中强调的问题。

超越意识训练来改善行为

鉴于所采用的先进社会工程策略,专家告诉Infosecurity,仅靠意识培训不足以确保员工有能力保护自己。

组织应该考虑诸如“提醒”之类的选项,确保实时提醒员工避免危险行为,例如将敏感数据输入人工智能模型。这种由智能主导的干预措施被称为“人力风险管理”。

此外,需要建立一种安全文化,在这种文化中,员工总是可以被信任,在培训之外始终采取建议的行动。

SoSafe 首席安全官 Andrew Rose 倡导“公正文化”模式,鼓励员工报告安全错误,无需担心受到惩罚。相反,这种方法应该侧重于将错误视为组织问题而非个人错误,并在未来采取行动改进,例如引入新的培训或流程。

这可能包括意外点击网络钓鱼链接。

罗斯评论道:“从几乎发生的事故中吸取教训,并形成一种‘一旦吸取教训,就立即解决’的文化。”

漏洞利用持续爆发

专家强调,在可预见的未来,漏洞利用(尤其是边缘设备的漏洞利用)还会持续激增。

人工智能等工具正在帮助威胁行为者快速发现和利用漏洞,降低这种攻击媒介的障碍。

兰福德指出:“将会有很多新的漏洞出现,犯罪分子现在存储的零日漏洞数量与民族国家一样多。”

组织必须根据业务需求来完善其补丁管理程序,并从长远来看要求其软件供应商提供安全的设计实践。

需要帮助吗?联系我们的支持团队 在线客服