Altera Digital Health宣布Paragon Denali一般可用

Software-as-a-service EHR为农村、重要入口和社区医院提供完整系统以支持其独立性 Altera Digital Health,全球卫生IT领军者,今天宣布,原生部署在Microsoft Azure云平台上的电子病历(EHR)Paragon® Denali现已一般可用。图片{ width=60% }


利用软件即服务(SaaS)模型,Paragon Denali为农村、重要入口和社区医院带来了云端功能和容器化服务,提供更强大的系统可靠性和数据可访问性,同时支持组织增长和改善用户体验。 医院需要对实时数据进行快速、持续的访问,以支持从临床诊断到财务和运营效率的知情决策。考虑到这些需求,Altera在Azure上构建了Paragon Denali,采用容器化服务来最大程度地减少客户停机时间,从而减少对患者护理和现金流的干扰。客户现在将能够轻松地快速实现Altera即将推出的功能。除了硬件和维护成本的降低,使用Paragon Denali的医院还可以根据需要扩展或缩小系统。作为长期合作伙伴,Altera和Microsoft的结合力还将为客户提供所需的先进安全控件,以帮助防范不断演变的威胁环境。 「Paragon一直是我们医疗系统的重要投资,推动了全面的EMR最佳实践。我们的提供商和临床和运营最终用户拥有他们需要的灵活性,专注于提供安全、高质量的患者护理,」Pipeline Health System首席信息官Meghan Bisping表示。“Altera对其解决方案的投入时间和资源为我们满足医疗需求的不断增长提供了重要支持。我们期待着看到我们与Altera合作Paragon Denali将如何推动我们组织的未来成功。” Paragon Denali为客户提供了经过验证的EHR功能,以及通过集成急诊科室、门诊、财务、收入循环和企业资源计划数据的单一数据库。在整个组织中利用单一系统不仅为忙碌的提供者提供了单一的临床事实来源,还减少了数据冗余、IT复杂性和成本。随着医疗市场整合在扩大,Paragon Denali将提供工具,帮助客户保持独立性,实现财务稳定,并继续为他们的社区提供高质量护理。 「社区医院通常拥有比大型医疗系统更少的资源,但他们必须应对许多相同的监管要求、财务压力和IT复杂性,」Altera Digital Health首席执行副总裁Paragon的Mark Bruno表示。“Paragon Denali旨在满足这些组织的独特需求,并使他们能够稳步与整个行业发展。我为团队在将Paragon Denali引入生活中的不屈不挠的专注感到自豪,期待着在客户随着Altera迈出这一步时为他们带来更高级别的EHR体验。” “云代表了医疗保健的一个新时代,使组织能够应对不断发展的临床和运营压力,同时为提供者提供强大的数据和人工智能驱动的能力,”Microsoft卫生和生命科学总经理Todd Mersch表示。“在Microsoft Azure上的Paragon Denali是我们与Altera长期合作关系的新篇章,我们致力于释放卫生数据的全部价值,并实质性地改善提供者和患者的医疗体验。” 要了解有关Paragon Denali的更多信息,请访问alterahealth.com/paragon。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Verax AI获得由TQ Ventures领投的760万美元种子轮融资

Verax AI在生产中提供AI可见性和控制的企业级软件解决方案的开发商Verax AI今日宣布,已获得由TQ Ventures领投的760万美元种子轮融资,Concept Ventures、Cardumen Capital、Seedcamp、InMotion Ventures和XTX Ventures等机构参与投资。图片{ width=60% }


组织广泛商用的基于LLM产品往往受到透明度和可预测性的限制,包括事实错误、幻觉、偏见或其他与设计行为不符的偏差等意外结果。所有这些都可能给依赖它们的公司带来巨大的财务和声誉损害。为帮助客户实时缓解这些风险,Verax AI还宣布推出其企业级软件解决方案Verax Control Center。这一最先进的解决方案旨在提供生产中LLM产品的可见性和控制,实现可信赖和负责任的人工智能。

Verax AI由Leonid Feinberg和Oren Gev创立,两人共有超过45年的企业级软件解决方案开发经验和技术公司规模化经验。他们于2017年首次在CloudEndure共事,Feinberg是CloudEndure的产品副总裁,后来CloudEndure被亚马逊网络服务(AWS)收购。两人在AWS继续共事,直到2023年共同创立了Verax AI。

退出隐身模式后,该公司计划利用这笔新资金加速市场推广和提高知名度。

“我们很高兴能够同时宣布我们的种子轮融资和Verax Control Center的发布。为客户提供增强的AI信任度,以及对其AI产品行为的新水平可见性,是防范风险和促进负责任AI的广泛采用的关键一步,”Verax AI联合创始人兼首席执行官Leonid Feinberg表示。“我们看到组织在采用AI时面临的挑战与十年前采用公共云时面临的挑战有很多相似之处。因此,我们完全有条件帮助他们。”

虽然传统的机器学习(ML)开发工具和运维工具帮助优化AI产品的开发和部署时,Verax AI是首家成功在这些AI产品转移到生产环境后减轻风险的公司。其解决方案提供实验室外基于LLM产品的生产使用可见性,并能实时自动纠正不良行为,无需耗时配置或人工工作。

“各行各业各种规模的公司需要减轻其生产中AI应用提供不准确、令人不满或尴尬的答案的风险,” TQ Ventures联席管理合伙人Schuster Tanger表示。“具有多年开发和部署企业级解决方案经验的成功企业家,Leo和Oren开发了解决方案,能够满足这些公司面临的重大挑战。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

E.C.I. Networks宣布收购NoviFlow

E.C.I. Networks,一家领先的开放式网络解决方案提供商,今天宣布收购NoviFlow,NoviFlow是SRv6和服务链技术的先驱。图片{ width=60% }


NoviFlow以提供基于开放标准、高性能可编程服务网络和网络安全解决方案而闻名。此次收购将增强E.C.I. Networks的产品组合,提供先进的网络能力,以满足不断增长的行业对可扩展、高效和灵活网络基础设施的需求。这也将确保我们继续为现有客户提供最高水平的支持和创新,加强他们依赖的解决方案,为未来的网络挑战做好准备。
“NoviFlow尖端的SRv6和服务链解决方案完美地补充了我们的开放网络专业知识,”E.C.I. Networks首席执行官Wassim Mekkaoui表示,“随着我们将NoviFlow的优势整合到我们的业务中,我们将继续致力于提供质量卓越的加拿大研发解决方案,被国际认可为创新和可靠性。这一战略性收购凸显了E.C.I. Networks为下一代网络环境提供创新解决方案的承诺。”
“在NoviFlow,我们的使命始终是使网络完全可编程,今天标志着我们正式与我们信任的伙伴E.C.I. Networks联手的激动时刻,”NoviFlow首席执行官Dominique Jodoin表示,“通过结合我们互补的产品和专业知识,我们将扩展我们的解决方案范围,加快创新,并更好地满足客户不断变化的需求。共同努力,我们将在开放网络中开启新的机遇,并在这一充满活力的行业中不断突破可能的边界。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Arkestro加入AWS合作伙伴网络,增强采购影响力

领先的预测采购编排(PPO)领导者加入AWS合作伙伴网络,重新定义采购在业务增长中的角色。图片{ width=60% }


Arkestro兴奋地宣布加入亚马逊网络服务(AWS)合作伙伴网络(APN),这是一个利用程序、专业知识和资源构建、市场营销和销售客户产品的全球AWS合作伙伴社区。通过加入APN,Arkestro强化了其致力于赋予组织每次购买时获取竞争价格的承诺,同时以规模驱动更快、更好的成果。
Arkestro利用机器学习(ML)和行为科学彻底改变采购,消除了像数据透视表和繁重的谈判等过时的手动过程的需要。相反,采购团队可以以无法手动实现的速度和准确性处理报价并获得最佳供应商协议。使用Arkestro的企业在头60天内平均节省16%,在每笔交易中释放价值。
Arkestro的首席执行官Neil Lustig表示:“我们对加入APN所开启的为客户带来的机会感到兴奋。与AWS合作将帮助我们提供前所未有的卓越运营水平,并赋予采购团队实现更快、更具规模的卓越成果,以前无法实现。我们旨在加快上市时间,同时提供一个安全、未来可靠的环境,将采购从成本中心提升为整个组织的战略增长引擎。”
APN是一个全球网络,来自200多个国家的130,000个合作伙伴与AWS合作,提供创新解决方案、解决技术挑战、赢得交易并为共同客户提供价值。
加入APN突显了Arkestro对装备采购团队所需的尖端工具,塑造未来采购的承诺。通过以更快、更智能的规模交付成果,Arkestro帮助创造强大的优势——这确实是企业想要将采购转变为成功的战略驱动力的双赢局面。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Opsera与Databricks宣布合作伙伴关系

Strategic partnership unlocks value for enterprise customers by leveraging Opsera’s AI/ML capabilities and Databricks’ Data Intelligence Platform for faster, safer and smarter deployments
Opsera, the Unified DevOps platform powered by Hummingbird AI trusted by top Fortune 500 companies, today announced that it has partnered with Databricks, the Data and AI company, to empower software and DevOps engineers to deliver software faster, safer and smarter through AI/ML model deployments and schema rollback capabilities.图片{ width=60% }


Learn More About the Opsera and Databricks Partnership: Opsera官网链接
Opsera, the industry’s first Unified DevOps platform (powered by Hummingbird AI), delivers on a vision that empowers developers and enterprises to ship software faster, more securely, and better across multi-cloud and multi-SaaS applications. Opsera leverages its DevOps platform and integrations and builds AI agents and frameworks to revolutionize the software delivery management process with a unique approach to automating data orchestration.
Opsera is now part of Databricks’ Built on Partner Program and Technology Partner Program. The partnership enables:
AI/ML Model Deployments with Security and Compliance Guardrails: Opsera ensures that model training and deployment using Databricks infrastructure meets security and quality guardrails and thresholds before deployment. Proper model training allows customers to optimize Databricks Mosaic AI usage and reduce deployment risks.Schema Deployments with Rollback Capabilities: Opsera facilitates controlled schema deployments in Databricks with built-in rollback features for enhanced flexibility and confidence. Customers gain better change management and compliance tracking and reduce unfettered production deployments, leading to increased adoption of Databricks and enhanced value of automation pipelines.
“The development of advanced LLM models and Enterprise AI solutions continues to fuel an insatiable demand for data,” said Torsten Volk, Principal Analyst at Enterprise Strategy Group. “Partnerships between data management and data orchestration vendors to simplify the ingestion and ongoing management of these vast flows of data are necessary responses to these complex and extremely valuable AI efforts”.
“We are proud to partner with Databricks, a leader in data intelligence and cloud-based data lakehouse solutions,” said Kumar Chivukula, co-founder and CEO of Opsera. “Together, we will expand our shared vision to provide better, faster, safer DevOps with shift left security and governance and a unique approach to automating data orchestration to software teams across organizations and industries.”
“This partnership will allow DevOps teams to seamlessly integrate Databricks into their existing software development lifecycle, accelerating time to value for our customers and helping to build data intelligence,” said Heather Akuiyibo, VP of GTM Integration at Databricks. “This is an important step to getting data and AI into the hands of users efficiently and safely.”
Additional benefits of the Opsera and Databricks partnership include:
Powerful ETL (Extract, Transform, Load) Capabilities: Databricks’ Spark-based engine enables efficient ETL from various sources into a centralized data lake. This empowers Opsera to collect and orchestrate vast amounts of data, increasing developer efficiency and accelerating data processing efficiency.Scalable and Flexible Data Intelligence Platform: Databricks’ Delta UniForm and Unity Catalog provide a scalable, governed, interoperable, and reliable Data Lakehouse solution, enabling Opsera to orchestrate large volumes of structured and unstructured data efficiently.Advanced Analytics and ML: Databricks Mosaic AI’s integrated machine learning capabilities allow Opsera to efficiently build and deploy AI/ML models for predictive analytics, anomaly detection and other advanced use cases.Seamless Integration: Databricks integrates seamlessly with Opsera’s existing technology stack, facilitating smooth data flow and enabling end-to-end visibility of the DevOps platform.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Solutionreach推出安全文件工具

Solutionreach,作为患者沟通和参与解决方案领域的领先者,自豪地宣布在其综合的Revenue Cycle MessagingTM解决方案中新增了Secure Documents应用程序。图片{ width=60% }


这一创新功能赋予了诊所能力,可以安全地数字化发送、收集和管理重要的患者文件,与最近实施的FTC眼镜规则为验光诊所一致。

Secure Documents模块允许验光诊所轻松收集、管理和共享关键的患者文件,如处方和报表,安全高效地进行处理。随着FTC眼镜规则的最新变化,该规则要求眼镜处方更透明和更易获得,无缝数字文件管理解决方案的需求变得更为关键。

通过将Secure Documents模块与Solutionreach的Revenue Cycle Messaging解决方案集成,验光诊所获益于:

简化文档处理:通过利用集中的电子签名功能,减轻手动跟踪和发送签署文件的行政负担。

自动处方传递:验光师和眼科医生现在可以通过安全渠道将眼镜处方数字化发送给患者,降低员工的手动工作量,确保及时交付,符合FTC要求。

高效记录管理:诊所可以在一个集中位置数字化存储和访问患者文件,消除纸质存储的需求,减少处方或记录丢失的风险。

与Solutionreach平台的无缝集成:Secure Documents产品与Solutionreach平台完全集成,使诊所能够继续从一个中心枢纽管理患者通信和记录。

患者便利性:患者可以通过安全的患者文档中心轻松访问他们的处方,无需注册另一个繁琐的患者门户。

Solutionreach的产品副总裁Chris Young表示:“随着FTC更新的眼镜规则正式生效,验光诊所在处理处方交付和文档管理方面面临新挑战。”他说:“我们的Secure Documents产品是一个改变游戏规则的产品,支持诊所遵守新规定,同时通过快速安全地传递文件改善整体患者体验。”

Solutionreach致力于为患者沟通和实践管理提供最佳解决方案,为验光和眼科诊所提供支持法规和患者护理需求的解决方案。

要了解更多有关Solutionreach及其新Secure Documents模块的信息,请访问https://www.solutionreach.com/platform/solutions-overview/secure-documents。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Riverbed任命Kris Luhrsen为首席营收官

全球观测和数字体验领域的领导者强化领导团队,引入行业资深人士
Riverbed,AI观测领域的领导者,宣布任命Kris Luhrsen为新任首席营收官(CRO)。图片{ width=60% }


在这一角色中,Luhrsen将推动Riverbed的增长和销售战略,监督全球销售、渠道和联盟、续约和客户成功、咨询架构师、专业服务以及销售运营。

LinkedIn链接: Riverbed appoints Kris Luhrsen as Chief Revenue Officer: https://bit.ly/48o0S9A

Riverbed首席执行官Dave Donatelli表示:“我们很高兴欢迎Kris Luhrsen加入我们的团队担任首席营收官。Kris 对技术领域有着深刻的了解,且在扩大营收、领导高绩效团队和客户参与方面具有显著的业绩,使他成为引导我们的销售职能向前发展、推动Riverbed的观测和加速解决方案增长的理想人选。”

Kris Luhrsen表示:“我很高兴加入Riverbed担任首席营收官,在Riverbed的AI驱动平台和领先解决方案在市场上势头强劲的时刻。我期待支持数千依赖Riverbed每天优化数字体验、改进IT运营并取得实实在在结果的客户。”

Luhrsen带来了数十年领导销售组织、实现销售执行和增长议程的经验。Luhrsen还具备在构建增强组织内预测能力、一致性和生产力的流程方面丰富的专业知识。

在加入Riverbed之前,Luhrsen曾在Venafi担任首席营收官,Venafi是一家领先的网络安全公司,后被CyberArk收购。他之前的职务包括担任开源基础设施软件领域的领导者SUSE的北美销售总裁,并在VMware和思科担任高级销售领导职务。

Luhrsen毕业于印第安纳大学凯利商学院,获得商业管理学士学位。

Luhrsen的任命紧随Riverbed平台最近的推出,以及关于几款新数据观测和AIOps解决方案的发布,包括Aternity Mobile、NPM+以应对网络盲点、Riverbed IQ 2.0,以及Riverbed统一代理的首个第三方模块 — Aternity for Intel Thunderbolt 和 Wi-Fi。此外,Riverbed最近凭借许多解决方案获得了行业认可:Gartner® 2024数字员工体验管理工具(DEX)魔力象限报告中的领导者;2024年GigaOm网络观测雷达报告中的领导者;2024年GigaOm AIOps雷达报告中的优秀表现者;以及Gartner® 2024数字体验监控(DEM)魔力象限报告中的远见者。

探索AITechPark,了解人工智能、物联网、网络安全、AITech News的最新进展以及来自行业专家的见解!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

当AI取代真相,大模型如何一步步诱骗了人类的文明?

如今,人们选择餐厅,多半会打开app搜索一番,再看看排名。然而美国奥斯汀的一家餐厅Ethos的存在证实这种选择机制多么不可靠。


Ethos在社交媒体instagram宣称是当地排名第一的餐厅,拥有7万余粉丝。实际上,这家看起来很靠谱的餐厅根本不存在,食物和场地的照片都由人工智能生成。可它家发布在社媒上的帖子却得到了数千名不知情者的点赞和评论。大模型通过视觉形式误导公众认知,引发了人们对其潜在影响的深刻思考。

图1:图源:X

大型语言模型(LLMs),由于其幻觉及涌现特性,总让人们忧虑其传播虚假信息的可能。然而这一现象背后的机理我们却不甚了解。大模型究竟如何改变人类的心理机制,让人们越来越难以判断一件事情真实与否,并失去对专业机构和彼此的信任?

2024年10月发表的一篇名为“Large language models (LLMs) and the institutionalization of misinformation(大语言模型与虚假信息的制度化)”的研究[1],点出了大模型和虚假信息的关系:它比我们所了解的更为深远与复杂。

Garry, Maryanne, et al. “Large language models (LLMs) and the institutionalization of misinformation.” Trends in Cognitive Sciences (2024).

AI生成的虚假信息影响深远

类似开篇提到的虚假餐厅的例子,现实生活中发生了不止一次。2023年11月,搜索引擎Bing曾因为爬取了错误信息,而针对“澳大利亚是否存在”的问题,给出了如下图所示荒谬的回复。(事后官方很快对该问题进行了修复。)

图2:Bing截图;图源:Bing

上面的例子,还可视为程序的bug,而普林斯顿的一项研究则系统性说明了AI生成数据的影响不止如此[2]。该研究发现,截止24年8月,至少5%的英文维基百科页面是由AI生成的,相对而言德语、法语和意大利语文章的占比较低。

维基百科(Wikipedia)是人工智能训练数据的重要来源,且被普遍视为权威的信息来源。尽管AI生成的内容并不一定都是虚假信息,但该研究指出,被标记为AI生成的维基百科文章通常质量较低,并具有较明显的目的性,往往是自我推广或对有争议话题持特定观点。

AI生成的虚假信息如何利用了判断真假的启发式弱点

虽然虚假信息被发现后很快会被纠正,但如同小时候听过的“狼来了”的故事,一次次的接触虚假信息,会让磨损我们彼此间的信任。

我们判断一件事情是否为真时,有两种不同的思考方式,一是启发式,另一种则是费力的思考。启发式思维所需的认知资源更少,依赖直觉,属于丹尼尔·卡尼曼所说的系统一。对个体来说,判断是否是虚假信息,启发式的判断标准包括是否声明清晰,是否吞吐犹豫,是否有熟悉感;而费力的思考则多基于逻辑:“不应该只相信互联网来源,我是否在学校或是书本中见过类似的?”

图3:大模型会如何利用人类事实监控机制的弱点,图源:参考文献1

在在日常生活中,我们常用到两种启发式方法判断信息真实与否:一种是观察发言是否流畅自信,另一种是言论是否熟悉。然而事实证明,这两种判断基准在人工智能面前都会败下阵来。

然而,大模型生成的文章,往往会显得自信且流畅。一项研究对比人工智能生成的和人类撰写的大学入学论文,发现人工智能生成的论文与来自特权背景的男性学生的论文相似。人工智能论文倾向于使用更长的词汇,并且在写作风格上与私立学校申请人的论文尤其相似,相比真实的申请论文缺乏多样性[3]。这意味着当我们面对大模型生成的信息时,之前用来判断真假的第一种启发式——“表述是否自信”——失效了。

而对于第二个判断机制——是否熟悉,由于大模型产生信息的速度远远大于人类,它可以通过高度重复同质化的信息,人工创造出一种真实感。当大模型不加区分地向“思想市场”输出真假参半的同质化信息时,判断信息真伪的第二个启发式机制“熟悉与否”也失效了。

当大模型产生的虚假信息被误认为真实并传播后,这些内容还会持续被用于训练下一代的大模型,加剧虚假信息的制度化过程。

将AI拟人化使我们轻信大模型

大多数人倾向于认为,我们的对话伙伴是真诚的、合作的,并会为我们提供与话题相关的有用信息。在与大模型对话时,人们也会不自觉地将其拟人化,忘记自己面对的是代码而非真实的人。这种拟人化倾向让人们更容易依赖启发式思维,而非进行更深入的批判性分析。

大模型的训练目标是与用户持续对话,这样的对话特征可能会引发确认偏误(confirmation bias),趋向于输出我们想看见的,我们愿意相信的。例如,当用户询问大模型“股市会涨吗”,大模型会给出若干长期看涨的理由,而当用户询问“股市会跌吗”时,大模型同样能找出对应的论据。

这样的回应可能会强化人们已有的信念(或偏见),并可能增强人们对大模型整体回复的信任。在这种情况下,人们不太可能进行批判性的信息评估,反而倾向于默认快速启发式判断,更加坚信自己的初始判断:“我知道这是真的”。

在向大模型寻求帮助时,通常会遇到短暂的延迟,在此期间模型解析用户的请求,并预测一个看似经过认真思考的回应。当ChatGPT回应时,它不会模棱两可或不确定。它从不说“我不知道,你怎么不问问你的朋友 Bing?” 即便在拒绝回答时,它也通常会给出其他方式的帮助,而不是直接承认自身的局限。例如,“我不能帮助您从YouTube下载视频,因为这违反了他们的服务条款”。

这样,大模型赢得了人们对其的信心、准确性和可信度的认可。即使大模型发出了“可能会出错”的警告,其效果大多是有限的。

大模型会影响我们的群体智慧与记忆

按照目前大模型产生信息的速度发展下去,生成文本的遣词造句风格,将变得比人类自己的内容更为人熟知。那么,它就有能力大规模地生成看似真实但却严重误导的消息,从特定社区扩散到主流社会,让人类社会的信任问题再升级。

这正是研究中提到的虚假信息的“制度化institutionalization”的过程。电影《肖申克的救赎》也用到了“Institutionalized”这个词——最初,囚犯讨厌监狱的牢笼,但几十年后,出狱的他们却发现自己无法适应没有围墙的生活。

类似地,最初我们可能认为大模型产生的虚假信息只是遮挡视野的灰尘,但随着时间推移,这些信息逐渐被接受,其与新闻、政治和娱乐之间的界限变得模糊,连制度性的事实监控机制也会被侵蚀。

图4:大模型如何采纳虚假信息的循环:(1)大模型从互联网和其他数字资源中收集大量数据,用于训练;(2)训练LLM的过程导致一个可能包含数百亿个参数的模型。然后,这个模型被用来创建聊天引擎,这些引擎可能错误地生成针对天真用户的虚假信息,或者故意生成针对恶意“威胁行为者”的虚假信息;(3)发布在网站上、社交媒体上,或者由媒体来源报道:所有这些活动都在互联网上传播虚假信息;(4)一旦在网站上,这些信息就会被网络爬虫抓取,并由搜索引擎索引,现在这些搜索引擎将这些网站上的虚假信息链接起来。当创建模型的下一个迭代版本时,它随后在互联网上搜索新的数据语料库,并将该虚假信息反馈到训练集中,采用先前生成的虚假信息。图源:参考文献1

想象一下,为了掩盖侵略历史,政府使用大模型生成虚假的历史记录;或是不相信进化论,相关人员也可以使用大模型来生成反驳进化论的文章与书籍,如此一来,特定群体的集体记忆会被重新塑造。

不止于此,更深远的影响是,虚假信息会成为我们用来规划、做决策的新基础,而我们也将失去对权威机构和彼此的信任。 大模型产生的虚假信息,还可能对群体智慧的涌现产生负面影响。在一个多样化的群体中,不同观点和背景的信息碰撞,会产生超出个体智慧的结果;但如果虚假信息充斥讨论,哪怕只是大家都依赖大模型获取信息和想法,群体智慧的多样性和创造力也会受到抑制。

图5.AI生成的图片被广泛传播,塑造集体记忆。图源:X

小结

人类应对虚假信息的方式,与自身的历史一样悠久。只是大模型的出现,让我们传统的启发式应对机制失效了。 要应对大模型生成的虚假信息,需要多方合作,可以通过大模型智能体以及众包协作来进行事实审核,也需要向公众科普大模型的运行机制,使其不再拟人化大模型,并习惯采取非启发式的方式去判断信息真假。

我们需要创立优化的虚假信息监控制度,并重建大众对机构的信任。我们需要加深对真假信息判断机制的理解,无论是个体层面、人际层面,以及制度层面。我们需要对每个解决方案的有效性进行心理学研究。缺少这些,迎接我们的,不是后真相时代,而是不可避免的虚假信息制度化。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

HiddenLayer 2024年被认定为Gartner评选的人工智能安全领域的“酷厂商”

HiddenLayer,作为人工智能解决方案安全领域的领先者,很荣幸地被认定为Gartner 2024年人工智能安全领域的“酷厂商”。图片{ width=60% }


这一备受推崇的荣誉突显了HiddenLayer在保护人工智能模型、数据和工作流免受迅速发展的威胁环境侵害方面的创新方法。

HiddenLayer的积极解决方案确保组织可以依赖全面且强大的人工智能系统,在加速采用人工智能的时代。Gartner的认可强调了该公司在人工智能安全领域的专业知识和领导力,树立了行业的基准,因为企业越来越多地转向尖端解决方案来保护敏感的人工智能系统和数据。

HiddenLayer的创新解决方案涵盖了针对机器学习和人工智能中独特安全挑战的能力。通过专注于人工智能的完整性和模型保护,HiddenLayer赋予企业加强人工智能资产的能力,而不会影响性能或创新。

这一Cool Vendor的认定加强了HiddenLayer作为人工智能安全领域领军者的势头,此前的成就包括获得SINET16创新奖并在A-List Austin奖项中被认可为人工智能突出者。这些荣誉反映了HiddenLayer不断致力于推动人工智能安全标准,并确保在全球范围内安全采用人工智能。

对于希望保护其人工智能模型和工具的组织,HiddenLayer提供一种基于对现代安全需求的韧性和适应性的无与伦比的解决方案。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

从方言对话这枚“落子”,看AI手机“棋局”的尴尬赛点

这段时间,手机厂商的新品发布会、开发者活动比较密集,我们团队东奔西跑,整体感觉是,手机AI确实火了,但这盘棋局,所有厂商都对弈得不太轻松。一方面,各家都在想尽办法讲好AI故事。


一位CEO在发布会后采访时就特别烦恼,“AI要讲场景,不讲场景用户没感觉,明年我们还要上很多新功能,发布会的两个小时根本讲不完”。这是手机AI越来越完善的一面。但同时我们也发现,大家手里的牌其实都差不多,很少有哪家能靠一个或某个AI功能,就形成碾压级的体验优势。结果就是单点功能容易被复制,AI手机功能趋同。我就听过至少三个厂商表示:我们这个xx功能去年一推出就被致敬了,欢迎友商来“普及”我们这个AI功能……

假设AI手机市场是围棋对弈,观众们想看什么样的比赛过程?肯定是棋手们通过各种复杂的策略,展开激烈的劫争,才能吸引大家的注意力。而不是各方实力差不多,导致比赛过程冗长乏味、难分胜负。目前的AI手机竞争,就有点后者的意思。 在大众对AI手机这一概念的兴奋劲儿过去之前,手机厂商们必须尽快找到更聚焦的策略和体系化攻势,而不能只关注浅层的、零敲碎打的AI功能。 举个例子,方言对话,就不是AI手机的一步好棋。 首先要说明的是,方言的识别、理解与生成、交互是非常重要,甚至不容有失的一个领域。 从技术能力上看,方言的语言资料少,语音识别、语义理解、语音合成等模型的打磨,也比普通话等主流语种要更复杂、成本更高,是比较能体现科技公司实力的。 从社会效益上看,国内还有20%群体没有完成普通话的普及,确实有很多人存在方言对话的需求。而且,随着大模型的到来,低资源的方言如果不能被大语言模型所学习和训练,很可能越来越弱势,甚至消失。 所以,从科技普惠、文化保护的角度,方言对话也是十分必要的。

今年的几个手机厂商活动中,我们就看到了方言对话成为手机AI的一个典型用例。 其中应用场景包括: 1.方言的语音理解。普通话不标准的用户发出的方言指令,也能被手机智能助手很好地理解。 2.方言的语音生成。手机智能助手可以用本地方言跟用户聊天,播报新闻等,提供更个性化、更温暖的服务。 上述功能当然是有用的,但从市场策略上来说,方言对话真的是手机厂商在AI领域的一步好棋吗?未必。

之所以说方言对话不是一步好棋,答案在于,市场策略的低效性。 无论是短期或长期,手机厂商想靠方言对话来带动AI手机市场,都是一件挺困难的事情。 短期看,市场营销最看重的就是“效果”,即激发消费者的行动,这就要进行好的CTA(Call To Action,行动呼吁)设计。 比如传统电视广告会呼吁“赶快拿起电话订购吧”,网页时代会将“click”“立即咨询”等按钮放在最显眼的地方,而近期手机厂商也意识到AI很难被用户感知,开始营造场景化、现场感的氛围,来让观众们身临其境。 那么,方言对话的用例展示,能够让用户做出关注、搜索、试用、购买等商业想要的行为吗?显然是很低效的。 “AI手机”的受众大多是对前沿技术、新锐功能比较感兴趣的年轻群体、极客、潮人等,普通话普及率是比较高的,方言对话固然有趣、有人情味儿,但并不会高频使用,所以转化到购买行为的概率很低。 当然,也许有人会说,方言对话很能彰显手机厂商的技术实力和人文关怀啊,这对品牌来说是一种长期利好,没错,但前提是手机厂商能在方言领域建立长期壁垒,而这几乎不可能。 一是成本很高。语音识别、理解依赖于大规模语料数据,而方言数据的采集和标注成本比普通话更高。有业内人士分享,传统单一方言的识别,需要十万小时的标注数据量才能获得比较好的效果。这意味着,手机厂商要投入极高的研发成本,去开发一个市场前景未知的小众功能。 二是技术挑战。即使有的手机厂商愿意在方言领域的耐心投入,但能否建立壁垒也要打一个问号。

目前,基础模型厂商如科大讯飞(星火大模型V4.0)、商汤科技(商量SenseChat粤语版大模型)、阿里通义实验室(粤语识别与生成大模型),基础服务商如中国电信(星辰大模型)、字节跳动(豆包大模型)、喜马拉雅(珠峰AI音频多模态大模型)等,都推出了自研的、具备方言能力的语音大模型,手机厂商想要在这一技术赛道上做到“人有我优”并不容易。友商通过基于开源模型自研或与闭源模型合作等形式,就能补齐相关能力。

所以,想要靠方言能力建立壁垒,长期为品牌价值赋能,很难做到,投资效益比也要打一个问号。 总结一下,从短期市场行动到长期品牌价值上,方言对话带来的贡献都很有限,算是一个低效落子。 其实,类似方言对话这样零敲碎打的AI功能还有不少。这暴露了AI手机目前的一个尴尬处境,就是趋势向好、细节模糊。AI应用到底怎么做?这是很多厂商还没有想好的问题。 越来越多的AI功能加入手机,却面对一种硬件新品的阶段性困境:

需求模糊,必然有大量AI功能注定失败。 AI大模型作为一种新技术,用户根本不知道怎么用,甚至手机厂商、产品经理们自己也不知道。以“产品成熟时才发布”而著称的苹果,在这一轮AI浪潮中行动也是头部厂商中最慢的。这种情况下,很多AI功能是厂家根据模糊的需求或自己的产品定义拿出的探索方案,其中必然会有很多是注定失败或被遗忘的。 多点开花,难以产生压倒性的说服力。 AI+手机相结合的场景众多,手机厂商在探索中很容易多点开花,如果不成体系,就很难形成具有压倒性说服力的产品。在消费理性化的市场环境下,结果就是无法激发用户的购买欲望。一个AI功能,A厂商有,B厂商很快也能推出,既然“等等党永远不亏”,那就干脆持币以待。

方言对话,就恰好是这样一种很难拉开差距的AI功能。 整体来看,相比去年,手机中的AI应用数量,有了极大增长,场景也越来越多,从简单的文生文、文生图能力展示,与输入法、摄影、系统设置、出行服务、点餐等诸多场景都有了结合。AI作为撬动手机新一轮换机潮的关键,越来越受到了用户、媒体与分析师的认可。 面对整体向好、细节模糊的“AI手机”大趋势,手机厂商当下最需要的就是聚焦。用更清晰、体系化的产品策略来展开市场攻势,一鼓作气形成突破,快速完成对细分市场份额的占有。 比如给方言对话这一步散棋出个主意,用“让父母大胆开口说”来撬动中青年群体为长辈换机,这就需要:

1.产品精细化,在语音大模型的基础能力上,开发出中老年高频用机场景下,具有说服力的方言产品,比如方言取消续费套餐,方言搜索影视剧内容等。 2.能力体系化,除了方言对话,结合中老年用机需求,形成组合攻势。比如AI反诈、手机自动驾驶主动服务、适老化功能等,全面解决目标群体的用机困扰。 3.营销情境化,AI作为一种通用软件技术,大众还是难以理解,通过场景化、故事化的营销方式,更容易激发用户的代入感,产生兴趣和后续的行为。 这就要求手机厂商改变与用户沟通的方式,从比参数、放demo、碾压友商、价格刺激等短平快式输出,转变为情境化的语言。 通过方言对话这一个AI用例,我们会发现AI手机的棋局才刚刚开始。手机作为最适合AI落地的硬件载体,行业正逐步收敛与聚焦,接下来更清晰有力的体系化AI能力与策略会逐步登场。 从一个个AI功能的零敲碎打,到体系化AI能力的强势出击,届时不同厂商也将拉开显著差距。 高水平的激烈劫争,是一场围棋赛最精彩的部分,我们会继续为大家解说大模型时代的手机赛事。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB