AI网络攻击促使73%的美国公司制定Deepfake应对计划

根据GetApp的最新调查,AI驱动的身份欺诈日益复杂化,需要升级的网络安全协议。图片{ width=60% }


随着AI生成的Deepfake攻击和身份欺诈越来越普遍,公司正在制定应对计划以应对这些威胁。事实上,根据对2600多名全球IT和网络安全专业人士进行的GetApp2024年执行网络安全调查,73%的美国受访者表示,他们所在的组织已经制定了Deepfake应对计划。
这种关注源于AI驱动的冒充攻击变得日益复杂,它可以破坏传统的安全措施,比如生物识别身份验证,这些措施过去被认为是非常安全的,但现在受到质疑。
在美国受访者中,69%的人被要求使用生物识别身份验证以增强网络安全,高于全球平均水平53%。然而,对于这些系统的信任正在减弱,36%的美国受访者对AI日益增长的合成生物识别数据欺诈能力表示严重关注。
除美国特定的发现外,全球趋势显示人们对隐私和身份盗窃的担忧不断增加,网络安全投资也有所增加:
隐私和身份盗窃担忧:全球49%的专业人员担心隐私问题,38%担心使用生物保护技术可能会导致身份盗窃。AI攻击的准备:60%的全球IT和安全专业人员表示,他们的公司已经制定措施以抵御AI生成的Deepfake攻击。网络安全投资增加:77%的受访专业人士表示,他们所在的公司在过去18个月内增加了网络安全投资。
“公司领导人需要确保他们的防护仍然在能够保护他们免受威胁方面发挥作用,”GetApp的首席安全分析师David Jani说道。“实际上,这要求高管审查他们如何保护对系统的访问,并了解如何最好地应对新的、更有针对性的欺诈。”
尽管存在这些担忧,生物识别身份验证仍然是强大网络安全策略的关键元素,尤其是当结合多因素身份验证(MFA)时。
全球受访者如果遭受网络攻击,会立即采取可以立即且往往成本最小化的措施来加固漏洞。这些措施包括提高网络安全、优先考虑软件更新和加强密码策略。此外,许多美国受访者(49%)正在专注于使用更多的数据加密解决方案来保护他们的数据。
阅读完整报告,了解企业如何在应对Deepfake欺诈的同时解决隐私担忧并确保合规性。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI网络攻击促使73%的美国公司制定Deepfake应对计划

https://www.gptnb.com/2024/07/24/2024-07-23-auto3-qGeDf0/

作者

ByteAILab

发布于

2024-07-24

更新于

2025-03-21

许可协议