调查:近1/3的生成AI用户寻求RAG处理信息
安全性和数据质量表明需要更好的数据治理——连接、技能不足和缺乏上下文意识是利用生成AI的最大风险
随着生成AI(GenAI)革命全速推进,虽然其前景广阔,但不免伴随着恐惧、不确定性和怀疑,根据最新的《LLM和RAG的现状:为生成AI准备您的知识组织》调查显示。{ width=60% }
这项研究由Graphwise赞助,Graphwise是领先的图形AI提供商,最近由Ontotext和语义网公司的合并而成。研究发现,尽管大型语言模型(LLMs)可以提供巨大承诺,但仍然受到对幻觉、偏见、数据安全、黑箱决策和过时信息的担忧的影响。71%的人认为,生成AI的使用增加在输出方面存在风险,而安全性和数据质量被认为是最大的风险。几乎所有人(99%)一致认为,人类需要保持紧密关注,以减轻这类风险。
尽管存在这些担忧,LLMs在大多数组织中变得越来越普遍,尤其是在测试和开发阶段,85%的受访者正在探索和测试其潜力,或已将LLMs投入生产。九成受访者表示他们将继续扩大LLM实施,内容创作和知识发现是主要应用领域。超过三分之二(67%)的人希望利用LLMs帮助员工获取洞察,紧随其后的是期待员工生产力提升和缩短知识工作者获取信息的时间(各占65%)。
为了达到这些目标,生成AI的用户们正在寻求检索增强生成(RAG)环境,以获得改进的上下文结果、可操作数据以及精准和可追溯的洞察时间。现代方法如知识图谱被称为利用组织的结构化和非结构化数据的关键方式,为RAG系统建立基础,从而消除生成AI成功的典型障碍和风险。近三分之一的受访者正在探索RAG环境,以支持其信息处理,29%的人在实施RAG解决方案,以弥补企业数据库与LLMs之间的差距。
大多数受访者一致认为,他们的企业将依赖于此,近一半的人认为RAG将帮助信息更具可操作性并更接近实时。LLMs和RAG的战略价值在于,它们能够改变组织管理和利用知识的方式,从而提高生产力、更好的决策、增强客户体验和提高效率。
“大型组织对AI的承诺和如何将专有洞察力转化为竞争优势感到着迷。正如研究所确认的那样,企业渴望投资于生成AI,但如果没有严格的数据质量控制,这些投资将面临被无关或不准确数据训练出AI模型的风险,从而导致错误的结果,并阻碍预期的投资回报,”Graphwise的高级副总裁安德烈亚斯·布鲁马尔(Andreas Blumauer)表示。“错误的决策会造成金钱损失,往往还会因不准确的结果、误导性或偏见的决策,以及可怕的幻觉而导致不可弥补的声誉损害。将知识图谱基础设施与语义AI技术相结合是AI在商业基础设施中牢固立足所必需的重要一步,而这种投资相对较小。”
Graphwise使组织能够通过提供知识图谱和语义AI技术领域中最全面和可信的行业解决方案来为企业AI解锁投资回报。随着企业向AI投资数百万,Graphwise提供关键的知识图谱基础设施,以确保企业能够实现这一技术的全部潜力,值得信赖,并且可以大规模实施。Graphwise是由技术先锋Ontotext与语义网公司合并而成,全球拥有200多名员工,在北美、欧洲和亚太地区设有办事处。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
调查:近1/3的生成AI用户寻求RAG处理信息