人工智能安全与治理调查:Immuta
80%的数据专家认为,人工智能正在使数据安全变得更具挑战性,增加了敏感信息暴露风险和人工智能攻击的可能性
Immuta,一家数据安全领导者,今天宣布了《人工智能安全与治理报告》,该报告对近700位工程领导、数据安全专业人员和治理专家进行了调查,了解他们对人工智能安全与治理的展望。{ width=60% }
报告展示了组织如何采用人工智能,如何应对新兴的安全和隐私挑战,以及如何更新治理准则以安全地利用技术的潜力。
调查结果显示,人工智能的采用仍然非常普遍,超过一半的数据专家(54%)表示他们的组织已经利用了至少四个人工智能系统或应用。此外,超过四分之三(79%)的人表示,他们在过去12个月内用于人工智能系统、应用和开发的预算有所增加。
然而,这种快节奏的采纳也带来了巨大的不确定性。例如,80%的数据专家同意人工智能正在使数据安全变得更具挑战性。专家们对由LLMs无意间暴露敏感数据和恶意用户通过人工智能模型进行的敌对攻击表示担忧。事实上,57%的受访者表示在过去一年中看到了人工智能驱动的攻击显著增加。
虽然快速的人工智能采用肯定带来了新的安全挑战,但对其潜力的乐观态度推动着组织进行调整。例如,数据领导者相信,人工智能将增强当前的安全实践,如基于人工智能的威胁检测系统(40%)和使用人工智能作为高级加密方法(28%)。随着这些益处在安全风险面前悬而未决,许多组织(83%)正在更新内部隐私和治理准则,并采取措施以应对新的风险:
78%的数据领导者表示,他们的组织已经对人工智能安全进行了风险评估。72%通过监测人工智能预测的异常情况来推动透明度。
61%已经采用基于目的的访问控制,以防止未经授权使用人工智能模型。
37%表示他们已经制定了全面的策略,以保持符合最新和即将到来的人工智能规定和数据安全需求。
Immuta的产品管理副总裁Matt DiAntonio表示:“当前的标准、法规和控制未能迅速适应人工智能的迅速发展,但未来充满了乐观。”。“该报告清楚地概述了许多人工智能安全挑战,以及组织如何期望通过人工智能来解决这些挑战。人工智能和机器学习能够自动化流程,并快速分析大量数据集以提高威胁检测并启用高级加密方法以保护数据。随着组织在人工智能之旅上不断发展,降低数据风险以防止敏感数据无意或恶意暴露给人工智能模型是至关重要的。围绕生成式人工智能数据管道和输出建立一个严密的安全和治理策略对于这种降低风险至关重要。”
尽管如此多的数据领导者表达了认为人工智能使安全更具挑战性的看法,但85%表示他们在某种程度上或非常有信心,他们的组织的数据安全策略将跟上人工智能的发展。相较于去年的研究发现,50%的人强烈或在某种程度上同意他们的组织的数据安全策略未能跟上人工智能发展的步伐,这表明存在一个成熟度曲线,许多组织正积极推动人工智能计划,尽管存在风险,但预期回报是值得的。
人工智能的快速变化让人兴奋,但也充满未知。特别是因为法规不断变化,许多模型缺乏透明度。数据领导者应该将他们的乐观态度与认识到人工智能将继续变化,并且合规标准将随着其变化而继续移动的现实相结合。无论人工智能的未来会是什么样子,一个行动是清晰的:没有数据安全策略的负责任人工智能策略。公司需要建立支持数据安全策略的治理,这种治理不是静态的,而是动态适应创新为企业带来效果。
Immuta委托独立市场研究机构UserEvidence进行2024年人工智能安全与治理调查。要阅读完整报告,请访问:
如果您正在寻求一种了解当前和即将到来的人工智能景观并降低数据风险的方法,请花29分钟的时间与Immuta共度。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
人工智能安全与治理调查:Immuta