Arhasi的机密礼宾重新定义AI Chatbot安全性
Arhasi,一家专注于AI安全性和治理的精品初创公司,今天推出了其突破性服务:Confidentiality Concierge。{ width=60% }
Arhasi提供两个版本的服务:一个免费供民主使用的试验场,以及一个专用企业解决方案,为组织的数据提供高级定制级别的保护。Confidentiality Concierge旨在显著增强聊天机器人、AI代理和Microsoft Teams等协作平台的GenAI安全姿势管理,确保它们对各种威胁(包括LLM提示注入、网络钓鱼、数据泄露等)保持弹性。
基于Arhasi强大的R.A.P.I.D平台构建的Confidentiality Concierge向用于生成式AI应用的Large Language Models(LLMs)提供全面的安全协议扩展。通过遵守严格的标准,如ATLAS MITRE、NIST AI、OWASP以及各种ISO/IEC指南,Arhasi赋予组织维护最高级别的数据保护能力——特别是对个人身份信息(PII)和健康信息(PHI)等敏感信息——同时保持运行效率。
在传统数据安全措施不足的世界中,Arhasi提供实时保护,并建立严格的防范措施,以防止未经授权的访问和数据泄露。随着LLMs越来越多地精细调整各种企业数据,可靠的安全机制变得至关重要。Arhasi的解决方案旨在不仅抵御传统威胁,还能够阻止诸如LLM越狱、模型攻击、恶意代码执行、未加密凭证泄露、LLM插件 compromise、对抗性数据攻击以及专题攻击等复杂攻击。
插图场景:在这里,HR员工Amanda正在与公司的AI chatbot 互动,询问最近招聘产品经理岗位的某人的工作地点和薪资。Amanda在组织中的职位授予她“特权用户访问”的权限,根据公司IAM政策为此服务指定。这使她可以选择启用或禁用安全性,从而能够访问文件预览以及识别/去识别信息,如果她选择的是默认的“非特权用户访问”,则会启用并且不可更改所有的安全指南和防范措施,保护所有个人信息并且仅提供去识别数据。在这里,她选择在与chatbot的对话中启用安全性。由Arhasi的Confidentiality Concierge 提供支持的 chatbot 聪明地拒绝透露这些敏感信息,展示其保护机密企业数据的能力。稍后,当Amanda请求chatbot从HR代表的角度起草一封给公司总裁关于同一职位的电子邮件时,系统能够熟练地起草电子邮件,但去识别敏感信息,以确保合规性和安全性不会被破坏。Arhasi的首席AI官员Chiru Bhavansikar在发布会上表示:“将Confidentiality Concierge集成到您的GenAI工作流程中,不仅可以加固应用程序防范攻击,还能够在您的AI互动体系中嵌入信任和安全性。我们对设定负责任的AI发展新标准并确保这些创新可获得且安全性的前景感到兴奋。”Arhasi的Confidentiality Concierge与领先的云服务和AI模型(包括Azure OpenAI Service、Google VertexAI、AWS Bedrock 和 HPE Greenplum)无缝兼容,并支持ChatGPT、Google Gemini、Mistral 和 Titan等主要LLMs。该服务的广泛集成能力包括ServiceNow、Active Directory 和 Salesforce 等平台,为所有基于AI的操作提供多功能性和安全性环境。通过与Cloudbench、Alteryx、GTS Technology Solutions 和 HPE等行业领导者的合作,Arhasi确保客户持续访问Confidentiality Concierge的高级企业版本和R.A.P.I.D平台。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
Arhasi的机密礼宾重新定义AI Chatbot安全性