行业新闻与博客

人工智能采用激增,但安全意识落后

一项涉及 1200 多名全球安全和 IT 领导者的新 ExtraHop 调查为 ChatGPT 和 Google Bard 等生成式 AI 工具的采用和管理提供了新的见解。 

据报道,安全性并不是使用这些工具的组织的主要关注点。受访者更担心不准确的回答(40%),而不是客户和员工个人身份信息(PII)的暴露(36%)、商业秘密的泄露(33%)和财务损失(25%)。

然而,缺乏基本的安全实践,82% 的受访者对其安全堆栈充满信心,但只有不到一半的受访者投资于监控生成式 AI 使用的技术,从而使他们面临数据丢失风险。只有 46% 制定了数据共享的安全策略。

“数据隐私是一个关键问题。与此类模型的交互可能会无意中导致敏感信息的共享或暴露。这需要强大的数据处理和处理框架来防止数据泄露并确保隐私。” Ontinue 安全运营副总裁 Craig Jones 警告说。

“组织需要严格评估和控制 LLM(大型语言模型)处理数据的方式,确保与 GDPR、HIPAA、CCPA 等保持一致。这涉及采用强大的加密、同意机制和数据匿名化技术,以及定期审核和更新数据处理保持合规的做法。”

此外,ExtraHop 报告显示,尽管 32% 的组织禁止生成式 AI 工具,但只有 5% 的组织报告零使用,这表明员工找到了绕过这些禁令的方法,这使得数据检索变得具有挑战性。

人们强烈渴望获得外部指导,74%的人计划投资于生成式人工智能保护,60%的人认为政府应该为企业制定明确的人工智能法规。

阅读有关人工智能威胁的更多信息:新的 ChatGPT 攻击技术传播恶意软件包

更普遍的是,ExtraHop 报告显示,生成式人工智能工具的使用正在增长。为了确保安全和高效的使用,该公司推荐了明确的政策、监控工具和员工培训。 

网络风险与合规副总裁 John Allen 评论道:“生成式人工智能工具的使用最终仍处于起步阶段,仍然有许多问题需要解决,以帮助确保数据隐私得到尊重以及组织能够保持合规性。”在黑暗踪迹。

“我们都可以发挥作用,更好地了解潜在风险,并确保采取正确的护栏和政策来保护隐私和数据安全。”

需要帮助吗?联系我们的支持团队 在线客服