Zeb在生成式AI服务领域获得AWS资质认证

zeb很高兴宣布其获得了AWS生成式AI服务领域的认证,并计划与客户密切合作,利用生成式AI来提高生产效率和效率,引领行业进步。图片{ width=60% }


zeb是一家领先的人工智能驱动的数字化转型战略公司,也是AWS高级合作伙伴,并自豪地宣布获得亚马逊网络服务(Amazon Web Services,AWS)生成式AI服务的资质认证。这一殊荣表明zeb在帮助客户实施生成式AI技术并通过充分利用其数据实现运营效率提升方面具备专业知识。

获得AWS生成式AI服务认证将zeb区分为顶尖的AWS合作伙伴,展示了公司在交付变革性解决方案方面的技术熟练和成熟记录。其使命是帮助组织充分释放其数据的潜力,借助先进的生成式AI技术推动创新,简化流程,并提供卓越价值。zeb通过识别机会、塑造创新理念并将其转化为可操作的战略,引导客户。通过生成式AI解决方案成功应对客户挑战,提升数字化转型,提供超个性化内容、简化工作流程并提供可操作结果。从构思到生产部署、从其他AI提供商(如OpenAI)的迁移,再到AI集中的托管服务,团队确保数据为业务智能工作。与AWS数据与分析咨询能力结合,这一成就强化了公司提供全面、基于数据驱动的见解与解决方案的承诺。

“zeb很荣幸获得AWS生成式AI服务资质认证,” zeb 的 CEO Mal Vivek 表示。“这一认可证实了我们利用先进的AI技术交付变革性解决方案的专业知识和成功案例。通过SuperDesk,我们不仅仅是在增强服务台运营效率;我们正在彻底革新它们。我们的基于AI的解决方案简化工作流程、提高生产力并提升客户服务,展示了我们通过创新的AI应用帮助客户取得卓越成果的承诺。”

SuperDesk是zeb的旗舰产品,提供强大的生成式AI驱动的服务台转型解决方案,旨在简化支持工作流程、提高生产力和增强客户服务。利用先进技术,如Amazon Bedrock、Amazon SageMaker 、Databricks DBRX 和 Mosaic,SuperDesk与ServiceNow、Jira、Zendesk、Salesforce 和 HubSpot等平台无缝集成. zeb通过专业服务提供SuperDesk,并提供AI OpsAdvantage 项目的托管服务,以用于持续维护和支持。这一创新解决方案强调了公司致力于提供能够赋予组织最大运营效率和客户满意度的前沿工具的愿景。

AWS资质计划旨在帮助客户与拥有广泛知识和技术专长的AWS合作伙伴连接,这些合作伙伴在特定领域,如生成式AI,使用AWS技术和最佳实践。zeb的专业知识和成熟框架促进了AWS解决方案的无缝集成与部署,确保其满足从初创企业到全球企业的所有客户的独特需求。通过加速实验和实施周期,zeb帮助组织迅速推出可提供显著业务价值的生产级解决方案。通过其全面的服务套件,zeb赋予客户高效地将理念转化为有影响力的业务成果的能力。

欲了解更多关于zeb及其数字化转型服务的信息,请访问www.zeb.co。
探索AITechPark,获取人工智能、物联网、网络安全、AITech 新闻以及行业专家的深刻更新!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Accenture公布与NVIDIA AI一起推出定制Llama LLM模型

Accenture AI工厂将使组织能够创建定制模型,由NVIDIA提供支持,从而使Llama模型能够在其企业数据上进行训练,并根据业务需求进行个性化。图片{ width=60% }


Accenture(纽约证券交易所代码:ACN)今天宣布推出Accenture AI工厂™框架,基于NVIDIA AI铸造厂,使客户能够使用Llama 3.1系列的可在企业数据上进行训练的模型进行定制,该系列模型也于今天推出。

企业正在探索gen AI的力量,他们必须通过自己的数据和独特流程对基本LLM模型进行提炼和精炼。 Accenture AI工厂框架位于其基础模型服务内,标志着企业对生成式AI的使用迈出了重要一步。 它将使客户能够使用领域特定知识构建定制的LLM,并部署反映其独特业务需求的强大AI系统,有助于推动业务及其行业的重塑。

Accenture董事长兼首席执行官Julie Sweet表示:“全球领先企业正寻求运用技术、数据和人工智能进行重塑。 他们看到生成式人工智能如何改变每个行业,并渴望部署由定制模型驱动的应用。 Accenture一直在与NVIDIA技术合作重塑企业功能,现在可以帮助客户快速创建和部署自己的定制Llama模型,以支持转型的AI应用达到他们自身的业务重点。”

NVIDIA创始人兼首席执行官Jensen Huang表示:“Meta推出的公开可用的Llama模型标志着企业生成式AI采用的转折点,许多人正寻求专家指导和资源来创建自己的定制Llama LLM。 在NVIDIA AI铸造厂的支持下,Accenture的AI工厂将帮助以开发和部署定制模型的端到端生成式人工智能服务推动业务增长。”

Accenture还正在利用这一AI工厂框架重塑其企业功能,最初是通过营销和传播,然后延伸到其他功能。 该解决方案使Accenture能够快速创建特定于其独特业务需求的gen AI应用程序。

Accenture的新AI工厂框架有四个关键要素,帮助企业调整和定制预构建的基础模型,并部署这些模型以反映其独特的业务需求:

领域模型定制和训练:通过客户自己的数据和独特流程提炼和完善预构建的基础模型,以驱动改革,并通过NVIDIA AI铸造厂提供的支持传递价值。交换平台:允许用户选择一组模型来应对业务背景或基于成本或精度等因素进行选择。企业认知大脑:扫描并将所有企业数据和知识向量化成一个企业级索引,以赋予gen-AI机器力量。主动式架构:使AI系统能够自主行动——推理、规划和提出可以在最小人类监督下负责执行的任务。

这些服务将向所有在Accenture AI工厂中使用Llama的客户提供,该工厂建立在由基础模型、NVIDIA NeMo和其他企业软件、加速计算、专家支持和广泛合作伙伴生态系统组成的NVIDIA AI铸造厂服务之上。使用AI工厂创建的模型可以在所有超大规模云上部署,并提供各种商业选择。

探索AITechPark,了解人工智能、物联网、网络安全、AITech新闻以及行业专家的深入更新!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Avetta推出Avetta One的AI和ESG增强功能

一个强大的SaaS和智能平台,从资格预审审核到培训、ESG与可持续性以及现场安全风险管理,全面管理承包商风险
在悉尼举行年度Avetta峰会之前,领先的供应链风险管理(SCRM)软件提供商Avetta®今天宣布,推出了Avetta One平台的系列创新,这是一套领先行业的承包商风险管理产品套件,用于管理工作场所安全、分包商管理、供应商分析以及ESG风险和合规性。图片{ width=60% }


Avetta首席产品官泰勒·阿利斯(Taylor Allis)表示:“许多组织由于业务分割或不协调的定制点解决方案而难以全面管理承包商风险。由于新的安全和可持续性法规的涌入,这一挑战变得更加严峻。我们在Avetta One平台上的新进展帮助组织及其供应链供应商在一个集成解决方案中降低风险,该解决方案从现场延伸到企业办公室。”
工作场所安全和AskAva
AskAva™,行业首个基于生成式人工智能的风险助手,现在将在澳大利亚和新西兰范围内提供现场前安全工作方法声明(SWMS)和动态AI辅助风险评估建议。AskAva™赋予客户、供应商和承包商识别危险、评估风险并在进行高风险工作前实施有效控制的能力。基于用户输入和工作背景,Avetta利用专有数据,并由OpenAI驱动,提供高风险危险和所需控制的建议,以降低严重伤害或死亡(SIF)的风险。使用人工智能是解决全球客户供应链风险问题的有效方法,进一步确保满足他们目前和未来的需求,并重新定义风险管理方式。
分包商管理
Avetta的增强分包商管理解决方案帮助客户通过将他们的合规计划扩展到所有供应商层级,减轻先前未曾看到的工地风险。该解决方案提供空前的供应链可见性,其附加好处包括确保项目按时完成,并为供应商提供一个新的网络功能,供应商可以在其中寻找自己符合要求的分包商,以完成大型复杂客户项目。
供应商分析
Avetta的新供应商分析仪表板清晰展示完成状态、合规性和差异,使供应商能够预测即将到期的截止日期,快速识别问题,优先处理任务,并管理分包商的上下游联系和合规性。
环境、可持续性和企业社会责任
Avetta One还部署了全球可扩展的ESG&Sustainability工具,赋予供应商、承包商和分包商减少碳排放、防止强迫劳工,并遵守道德实践的能力。Avetta最近获得专利的ESG Mapping引擎确保将正确的可持续性评估、问题和法规映射到基于其工作、位置和行业的正确供应商。Avetta One现在使组织清晰地看到其供应链中的ESG风险,并突出显示面临声誉、法律和运营风险的脆弱性。Avetta的ESG解决方案使组织能够通过从供应商收集可靠的ESG数据来满足新的利益相关者和监管要求。
7月25日,Avetta首席产品官泰勒·阿利斯(Taylor Allis)将在Avetta悉尼峰会上探讨承包商预资格最佳实践、平台的好处以及Avetta One的升级、现代、用户友好的人工智能和高级功能。

探索AITechPark,了解人工智能、物联网、网络安全、AITech新闻以及行业专家的深入见解!


---
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:[GPTNB](https://gptnb.com)。

Emmes Group与Miimansa AI合作推动生成式人工智能在研究领域的应用

Emmes Group,领先的专业技术全球合同研究组织(CRO),今日宣布与Miimansa AI达成了一项为期多年的战略合作伙伴关系。图片{ width=60% }


该合作的一个关键支柱旨在革新Emmes的临床研究,即收购基于先进大型语言建模(LLM)技术和生成式人工智能的Miimansa的临床实体建模工具。

人工智能(AI)承诺改变医疗保健的所有方面,包括临床研究。Emmes Group正在快速打造其技术平台Veridix AI,而Miimansa的临床实体建模技术将成为加速开发面向临床研究量身定制的最先进自动化文本处理解决方案的关键构件。

该合作将专注于创造快速高效地处理大量临床数据的能力,并实现文本到文本的转换,如协议撰写和医学写作,从而降低与手动数据处理和分析相关的时间和成本。

“我们很高兴与Miimansa AI合作,将尖端人工智能技术引入临床研究的最前沿,” Emmes Group的首席执行官Sastry Chilukuri表示。“通过我们合作获得的临床实体建模工具将加速Emmes Group的Gen AI平台Concord的开发和采用,推动更快、更好、更高效的临床试验。”

Miimansa AI的创始人兼首席执行官Dr.Vibhu Agarwal补充道:“与Emmes Group联手对我们来说是一个重要的里程碑。他们的专业知识和全面的临床试验数据为我们提供了在实际场景中应用先进AI技术的独特机会。我们共同旨在改变临床研究的格局,使其更快速、更经济,并最终更成功地提供安全有效的治疗。”

探索AITechPark,了解人工智能、物联网、网络安全、AITech新闻等方面的最新进展,并获取来自行业专家的深入见解!。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Accenture发布搭载NVIDIA AI的定制Llama LLM模型

Accenture AI炼油厂推出,使组织能够创建定制模型,由NVIDIA提供支持,使Llama模型能够在其企业数据上进行训练,并根据业务需求进行个性化定制。图片{ width=60% }


Accenture(纽约证券交易所代码:ACN)今天宣布推出Accenture AI炼油厂™框架,基于NVIDIA AI Foundry构建,使客户可以借助Llama 3.1系列的公开可用模型建立定制的LLM模型,这也是今天推出的。
尽管企业正在探索gen AI的力量,他们必须通过自己的数据和独特流程提炼和完善基础的LLM模型。Accenture AI炼油厂框架作为其基础模型服务的一部分,标志着在企业使用生成AI方面迈出了重要的一步。这将使客户能够建立具有特定领域知识的定制LLMs,并部署强大的人工智能系统,使之反映其独特的业务需求,帮助推动业务的重塑,以及他们所在行业的重塑。
Accenture主席兼首席执行官朱莉·斯威特(Julie Sweet)表示:“世界领先的企业正在寻求利用科技、数据和人工智能进行重塑。他们看到生成AI如何正在改变每个行业,并渴望部署由定制模型驱动的应用程序。Accenture一直与NVIDIA技术合作,重塑企业功能,现在可以帮助客户快速创建和部署自己定制的Llama模型,以推动其独特的业务重点的转变。”
NVIDIA创始人兼首席执行官黄仁勋(Jensen Huang)表示:“Meta推出的公开可用Llama模型标志着企业生成AI采用的一个关键时刻,许多人正在寻求专家指导和资源来创建自己的定制Llama LLMs。由NVIDIA AI Foundry支持,Accenture的AI炼油厂将帮助推动企业增长,为开发和部署定制模型提供端到端生成AI服务。”
Accenture还正在利用这一AI炼油厂框架对其企业功能进行改造,首先是营销和传播,然后扩展至其他功能。这一解决方案使Accenture能够快速创建针对其独特业务需求进行训练的gen AI应用程序。
Accenture的新AI炼油厂框架有四个关键元素,以帮助企业调整和定制预构建的基础模型,并将其部署以反映其独特的业务需求:
领域模型定制和训练:通过客户自己的数据和独特流程提炼和完善预构建的基础模型,以驱动通过NVIDIA AI Foundry提供支持的重塑和价值。交换机平台:允许用户选择一组模型来处理业务背景或基于成本或准确性等因素。企业认知大脑:扫描并将所有企业数据和知识向量化成企业范围的索引,以赋能gen-AI机器。代理架构:使AI系统能够自主行动——推理、规划并提出能够在最少人工监督下负责执行的任务。
这些服务将向所有使用Accenture AI炼油厂中的Llama的客户开放,该炼油厂建立在由基础模型、NVIDIA NeMo和其他企业软件、加速计算、专家支持以及广泛的合作伙伴生态系统组成的NVIDIA AI Foundry服务上。使用AI炼油厂创建的模型可以部署到所有超大规模云,并提供各种商业选择。
探索AITechPark,获取人工智能、物联网、网络安全、人工智能科技新闻以及行业专家见解的最新进展!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

业内:若AI不能让企业赚钱 英伟达商业模式或"崩溃"

7月22日消息,在第47届韩国商工会议所济州论坛上,韩国商工会议所会长、SK集团董事长崔泰源向与会者发出警示,若企业不能通过人工智能技术赚钱,英伟达的商业模式可能会“崩溃”。

崔泰源在论坛上表示:“如果AMD、Arm等竞争对手能以更低的成本提供高品质的芯片,英伟达的商业模式可能会面临严峻挑战,甚至有崩溃的风险。


”他还将当前的人工智能热潮比作19世纪中叶的加州淘金热,并预测英伟达在未来三年内有望继续维持其市值巅峰地位,就像淘金热时期的铁镐和牛仔裤制造商一样繁荣。

然而,崔泰源也提醒大家:“淘金热总有结束的一天,当黄金不再容易获取时,挖掘工具便失去了市场。同样,如果人工智能行业不能持续盈利,这股热潮可能会迅速退去,重蹈淘金热的覆辙。”

几周前,崔泰源前往美国,与亚马逊、英特尔、微软及Open AI等科技巨头的高层进行了深入交流。今年四月,他还与英伟达首席执行官黄仁勋会面。崔泰源指出:“美国的大型科技公司对我们的半导体和能源解决方案构建的高效人工智能数据中心表现出了强烈需求。尽管我们不可能提供AI数据中心所需的所有组件,但我们将利用自身的技术和材料优势,致力于打造更高效的人工智能数据中心。”

英伟达借助于2023年数据中心GPU的创纪录销量,上月一度成为全球市值最高的公司,尽管市场调整后其股价有所下滑,但仍然稳居全球市值前三。鉴于人工智能发展的强劲势头未见放缓,我们有理由相信英伟达将在可预见的未来继续保持其行业领先地位。

然而,值得注意的是,培训新一代大型人工智能语言模型的成本正在以惊人的速度增加。Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)透露,目前进行中的模型训练成本已达数十亿美元,预计到2025年将出现耗资千亿美元的模型。人工智能开发成本的激增已引起金融机构如高盛的关注,他们开始质疑人工智能的过度炒作和巨额投资是否能够带来相应的回报。

虽然人工智能已成为现代社会不可或缺的组成部分,其未来发展依然取决于企业是否能找到这一技术的盈利方式。如果找不到可持续的盈利模式,人工智能的竞争可能会演变成一个泡沫,并最终破裂。在这种情况下,专为支持人工智能进程而设计的硬件投资可能会大幅下降,英伟达其业务或将受到波及。

然而,业内人士并不认为“绿队”(即技术开发者)会因此退缩。回顾英伟达的历史,其创始人黄仁勋在创业之初,人工智能尚未崭露头角。英伟达始终拥有稳固的游戏行业基础作为其核心市场,其芯片在多样化应用中持续展现价值。

然而,英伟达面临的主要挑战来自其竞争对手。虽然AMD已经制造出一些性能良好的GPU,但在超采样技术方面仍有不足,FSR 3.0技术被认为仍然落后于DLSS 3.5,但AMD正在迅速追赶。同时,英特尔也在GPU市场上取得进展,其Arc GPU和XeSS超采样技术正在改变市场竞争格局。

只要英伟达能继续提供无与伦比的性能,个人和机构客户就会继续购买其产品。但其竞争对手并未放慢脚步。随着微软、亚马逊、谷歌和OpenAI等AI巨头加大对自主硬件研发的投资,英伟达在AI加速领域的领先地位可能会面临前所未有的挑战。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI创新者将齐聚新加坡财富头脑风暴会议

财富首次在亚洲举办“财富头脑风暴AI”会议,探讨人工智能对商业和社会的变革影响。图片{ width=60% }


财富荣幸宣布首届“财富头脑风暴AI新加坡”会议,这是一场亚太地区高级执行官必参加的活动,为参会者提供独家见解和交流机会。会议将于7月30-31日在五星级麗思卡爾頓酒店新加坡举行,汇聚了具有影响力的商业领袖、政策制定者、投资者和初创公司,探讨重塑商业格局的相关人工智能议题和影响力。由财富屡获殊荣的记者策划,议程涵盖了人工智能对业务运营的影响、在亚洲市场的推广、新应用、投资机会以及新法规的影响等业务关键主题。知名发言人包括新加坡数字发展与信息部部长朱若靜、安永增长市场高级总经理暨数据与人工智能领导者Vivek Luthra、安永增长市场高级总经理Advanced AI中心Joon-Seong Lee、Grab首席技术官Suthen Thomas Paradatheth、谷歌全球人工智能业务董事总经理Caroline Yap、微软亚洲区总裁Ahmed Mazhari,以及乐天公司技术研究所全球负责人兼乐天集团执行官Ewa Szymanska。“头脑风暴AI是我们最受欢迎的新活动系列之一,我们很高兴首次将其带到亚洲,”财富亚洲执行编辑兼《财富》头脑风暴AI新加坡联合主席克雷·钱德勒说:“我们将从行业专家那里学习,了解人工智能如何改变财富500强的商业格局,并思考在人工智能时代,作为消费者、员工和公民,我们的生活可能会有何不同。”安永是“头脑风暴AI新加坡”会议的创始赞助合作伙伴,也是财富全球新系列活动的合作伙伴,包括启动活动在伦敦(2024年4月)以及即将在旧金山(2024年12月)举办的活动。 PayPal是财富2024年“财富头脑风暴AI新加坡”活动的赞助合作伙伴。
在 AITechPark 探索最新的人工智能、物联网、网络安全、人工智能科技新闻以及行业专家的见解!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

中国AI长卷(二):框架立基

2021年正值科技摩擦之际,我采访到一位工业机械公司的技术负责人,向他问到:“制造领域有没有一些“卡脖子”的情况?”他提到,“工业智能制造的核心要素,可以归纳为“三软三硬”。三软主要是指大数据、人工智能和工业软件,三硬主要是指核心装备、制造工具和材料。


卡脖子这个问题,在各行各业各个领域都普遍存在”。“反倒是深度学习框架,现在的情况还好,没有卡脖子。TensorFlow是开源框架,虽然也是国外的,但目前还没有封闭,不过也不排除它后期还会封闭。这也是为什么我们公司选择国产深度学习框架,一是使用门槛更低,二是防患于未然。客观地说,国产框架离TensorFlow还有一定的差距,但这个差距在肉眼可见地缩小。”
从传统的深度学习模型时代,到方兴未艾的大模型时代,都离不开AI框架的平台化支撑,其重要性不亚于芯片。但和芯片不同的是,与大模型发展相适配的国产AI框架,基本实现了自保。

这是基础技术领域一个非常大的进步,也是中国为什么没有错过这一轮大模型AI热潮的原因之一。
2021-2024的短短数年,从机器学习到大模型,新旧技术“沧海桑田”,科技行业风云变幻,但AI框架之于产业的重要性,却从未改变。
如果说,从信息化、数字化到智能化的漫长进程,就像鱼类走向陆地的进化变迁,那么AI框架,就处于算力层与应用层的中间地带,犹如海洋与陆地之间的那道“海岸”,支撑着各行各业与智能浪潮的交融。
那么,究竟什么是大模型所需要的AI框架?AI框架是如何满足产业链需求的?国产AI框架与海外框架的差距或差异又在哪里?
本文就让我们深入AI产业链的中枢地带,沿着AI框架的“海岸”一探究竟。

鱼要经由海岸,进化成两栖动物,适应陆地,才能具备在新环境的生存能力,拓宽种群的边界。同理,AI模型从训练到推理的全流程落地,开发者也需要一种基础设施作为助力,这就是AI框架。
一个底层AI框架,至少具备几个特质:

  1. 通用性。AI框架作为基础设施,广泛覆盖各类模型,同时简化了AI开发过程,对多种算法进行模块化封装,让开发者不需要“重复造轮子”,可以快速搭建AI模型。比如对多元异构计算硬件的适配兼容,支持大分发多类型任务调度的分布式能力,核心算子库等,是开发各类算法模型都需要的,都要在框架层去解决。
  2. 全流程。AI框架集成了模型开发所需要的工具,为开发人员提供全流程的开发环境。具体来说,训练、调优、测试和部署的一整个标准化流程中,所需要的相应组件,都能够在一个平台获得,进行全流程的项目提升,高效满足各类场景的定制化建构需求。
  3. 生态化。从产业链全局来看,AI框架下接芯片,上承应用,是芯片厂商、应用开发者、软件服务商等多个行业主体都汇聚的中枢地带,形成了非常关键的AI生态系统。拥有一个集聚产业链的自研AI框架,就如同拥有了一条生态丰富、自主可靠的海岸线,是一企乃至一国守住AI疆域的关键。
    因此,当ChatGPT代表的大模型爆火之后,焦虑无处不在,“我们没有大语言模型怎么办?”“高端算力卡被禁了怎么办?”“基础软件卡脖子怎么办?”但同样至关重要的底层AI框架,却没有出现“什么时候才能有自己的框架”的焦虑。
    试想一下,如果国计民生重点行业的大模型,建立在海外企业的框架上,开源许可证的断供风险、数据安全风险可想而知。幸好,国产AI框架,早就做好了准备。

目前,国际有两大主流AI框架TensorFlow(谷歌)、PyTorch(Meta),而中国自研的AI框架,按照其厂商可以分为三类:

一是以百度为代表的AI头部科技企业推出的,如飞桨paddlepaddle,基于先进模型和产业生态积累,布局AI框架,建立智能业务的体系化优势。
中国软件产业40年功勋人物、“国家卓越工程师”称号、百度CTO的王海峰,曾回忆文心一言的开发过程:2023年要在算力需求爆发、供应紧缺的条件下,快速跟上ChatGPT的趋势,正是基于百度的深度学习框架飞桨paddlepaddle,下游跟主流的芯片厂商做了适配,任何好的算力,我们都能用得起来,很快完成了大模型训练。

二是以华为云为代表的AI云服务厂商推出的,如昇思mindspore,通过AI框架,在云基础设施和行业云用户之间搭建起桥梁,提供完整的云端大模型服务。
去年大模型的百花齐放,就是很多ToB企业和软件公司,利用华为云上的AI框架昇思mindspore,以及盘古大模型、昇腾AI云服务等,支持国内各类开发者、服务商等结合行业应用场景,做出原创模型,支撑了国内多个领域训练并首发大模型,加速了大模型走向产业化的进程。

三是垂类AI服务商、研究者推出的深度学习框架,具备某些独特的技术特性或应用场景,比如旷视科技(Megvii)在计算机视觉领域的专长,使其MegEngine框架在图像处理任务上表现突出;清华大学计算机系推出的Jittor,特别适合于研究和教育领域,便于快速实验和算法原型开发;腾讯优图的NCNN框架专为移动端和嵌入式设备优化,适合资源受限的环境或边缘计算;一流科技的Oneflow,也是业内完整的深度学习框架类产品。

不同于英伟达基于芯片构建的软件生态体系,国产AI芯片厂商受限于产品规模,自研软件配套的应用范围比较有限,有待发育,就不详述了。

综上,面对大模型掀起的这一轮AI浪潮,海外框架平台生态蓬勃,起到了一个“海阔凭鱼跃”的作用。国产AI框架也没有缺席,为各行各业探索大模型,奠定了基础,汇聚了力量。

AI框架之所以没有缺席,是中国产学界人士“板凳甘坐十年冷”,一点一滴地构筑而成的。这个过程,遵循了技术领域的“双漏斗”规律,是一个从扩散到收敛,从收敛到扩散的过程,其间经由开发者不断选择和淘汰,最终演化成了今日格局。

第一阶段:早期时期的扩散漏斗(Diversity Phase)
新技术出现的初期,由于技术尚未成熟,新的想法和产品层出不穷,市场和用户对于哪种技术会最终胜出存在很大的不确定性,因此会出现多样化的技术流派。
PC操作系统、移动互联网OS都经历过百花齐放、多家争鸣的阶段,AI框架也不例外。深度学习大行其道的时候,数据、算法和算力激增,工程复杂度提高,开发者非常需要减少“重复造轮子”,直接调用某些模型或工具,这时候各大厂商都开始将自研算法和工具封装为软件框架,供开发者使用,涌现出了Theano、Caffe(伯克利大学)、Torch、DistBelief(谷歌,TensorFlow前身)等多款框架。
同一时期,国内还没有互联网企业或科技公司做框架,部分高校在学术科研角度做了一些零散的工作。构建完整的深度学习框架,是2013年百度开始。因为很早就关注到深度学习技术,百度更早遇到了深度学习应用上的一些挑战,比如所有的算法从头写,开发效率低,经常出错;每个深度学习开发团队写的程序差异很大,模块无法复用,兼容性也不高,急需一个统一框架。于是2013年,百度开始在框架上投入。据了解,当时百度内部也是框架百花齐放,开发了多个深度学习框架,解决不同业务的不同问题。
值得注意的是,早在此时起,国内外的框架就已经显露出差异化的特质。以Caffe、Torch为代表的海外框架,更偏向于学术、工程师使用;以百度为代表的国內框架,从产业土壤上生长出来,一开始就很注重实用性、功能性、分布式训练、硬件优化等产业特性。

第二阶段:竞争时期的收敛漏斗(Consolidation Phase)
随着时间的推移,更主要是AI巨头如谷歌、Facebook、百度的优势框架相继开源,其他框架逐渐被淘汰、合并,多样化的框架格局开始向几家主导“收敛”。
2015年开始,谷歌大脑宣布TensorFlow开源,2016年百度飞桨宣布开源,2017年Meta人工智能研究院(FAIR)宣布PyTorch开源。开发者逐渐集中到几个主导者生态中。
曾经的热点框架如Theano、CNTK(微软)、Keras、Caffe2都相继停止维护,或被主流框架收编,百度内部也开始将多款框架收敛为paddlepaddle,并正式对外开源。

这一阶段,海内外并不“同此凉热”。
一方面,PyTorch凭借极强的学术灵活性、易用性,迅速崛起,已经发布很快成为爆款,成为围剿谷歌“框架霸权”(TensorFlow不兼容其他开发框架)的生力军。
另一方面,当时国内很多企业的AI意识还没有觉醒,以计算机视觉为代表的深度学习技术,很难满足产业落地的精度需求。因此,当海外AI巨头围绕框架“火星四溅”的时候,中国的深度学习框架依然是“冷板凳”,企业中只有百度一家在坚持做。
如果说,当时海外框架是因竞争而主动收敛,那国内框架就是因为遇冷而被动孤守。

第三阶段:摩擦时期的再生漏斗(Renewal Phase)
当主导框架不再适应时代需求,就会出现新的创新浪潮,导致技术的多样性再次增加。“TensorFlow、PyTorch两分天下”的局面被改变,国产AI框架的创新再生大爆发,是在2019-2020左右,中美科技摩擦逐渐增多,需求侧和供给侧都发生了诸多变化。

源于产业、面向产业、托举产业,以国产AI框架为

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

5 年 160 亿估值,硅谷「企业 AI」领头羊怎么做到的?

来源:美漪 极客公园

Glean 希望在企业中击败 ChatGPT。

作者 | 美漪
编辑 | 靖宇

大模型引发的 AI 大战持续了两年多之后,现在所有创业团队和投资人都在问的一个问题是——适用于大模型真正的场景有哪些?或者,更重要的是,到底怎么才能获得货真价实的客户和营收?

当普通消费者依然为对话式聊天助手而感到兴奋时,AI 公司们早已经在寻找 AI 的落地场景。


例如,企业 SaaS,这个千亿美元级别赛道上挤满了 OpenAI、Anthropic、微软等 AI 新贵和科技巨头。

就在这样拥挤的赛道中,一家名为 Glean 的公司,凭借企业内部 AI 搜索产品拿下了索尼电子、Databricks 等行业巨头。

最近,这家刚刚成立 5 年的公司,在 D 轮融资中拿到了 Kleiner Perkins 和光速创投的 2 亿美元巨款,公司估值暴涨至 22 亿美元(约 160 亿人民币),成为企业 AI 赛道当之无愧的领头羊。

Glean 是怎么做到的?它的 企业 AI 搜索产品,又有什么不同凡响之处?

01

集中式 AI 搜索平台

Glean 可以看做一个 AI 企业搜索和知识管理的平台,主要功能包括:AI 搜索、知识管理、工作主页。

AI 搜索是 Glean 最核心的功能,与传统搜索相比,它的优势在于跨应用和个性化。

Glean 打造了一个深度集成的工作空间,为企业员工提供统一的界面,访问企业所有的应用程序和服务,快速搜索定位和整合零散的信息,如会议记录、支持票据、项目档案等,极大提高了查找信息的速度。

例如,用户可以在 Glean 的平台上搜索到 Slack 对话信息、Google 文档内容和 Confluence 中的信息等。

不仅如此,用户还可以在 Glean 上执行与之连接的 SaaS 应用的轻量级功能,例如在 Glean 上直接启动会议、创建 Jira 文档等等。

在企业内部集成数据的基础上,Glean 不仅整合了可实现「语义理解」的矢量搜索和关键词搜索技术,还利用 LLM 推出了生成式 AI 的搜索功能,并推出了 AI 助手。

今后我们将会见证 AI 在企业领域不断发展壮大,随着技术的不断演进,Glean 很可能会继续引领行业的发展。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

中国AI长卷(一):大国重算

编者按:“中国AI到底发展得怎么样了?”在各种社交平台上,我们经常会看到这样的问题,也会看到各种各样的答案,但这些答案有着普遍的缺陷。它们往往只抽取一两个片段或案例,用非常取巧,甚至有点抖机灵的方式,极端唱好或者唱贬中国AI。


事实上,所谓的中国AI产业覆盖面非常广泛。每个领域有各自的发展特点,产业优势以及产业局限性,很难用过分简单的方式,来概括事实上非常复杂的AI产业。

或许,复杂的问题就应该有详细的答案。就像一幅小画,画不尽中国广袤的山水。

想要探寻中国AI的底色,需要梳理来龙去脉,需要回看一步一景,需要去画一幅长卷。

今天我们都知道,驱动AI算法工作的“燃油”是AI算力。尤其当深度学习算法发展到了预训练大模型阶段,AI算力已经成为整个AI领域的最大成本开销。根据相关数据,算力成本要占到大模型训练成本的70%左右,在大模型推理阶段则高达95%。

如果说,AI产业是一间工厂,那么AI算力就是工厂所需的煤和石油。更为致命的是,这些“煤和石油”的供应处在一种半垄断状态。在这次AI复兴当中,英伟达用GPU占据全球AI算力市场的主导地位。英伟达的高端AI算力不仅成本高昂,供不应求,但对于蓬勃发展的中国AI产业来说,能否确保其供应稳定都要打上大大的问号。

在算力贵且不稳的前提下,中国AI产业却涌现出了巨大的AI算力需求。根据相关数据预测,2030年全球AI算力的需求将达到2020年的500倍。其中,中国AI算力的增长是主要驱动力。目前阶段,中美之间的AI算力差不多是1比1.5。种种迹象显示,未来两国间的AI算力需求将拉平,甚至中国反超。

成本高昂、供应不稳,需求激增,这三点勾勒出了中国AI算力的整体发展背景。

AI算力就是生产力。在种种令人不安的局面下,中国AI开始了聚沙成塔般的算力突围。

2017年,是人工智能第三次兴起的第一年。在这一年里,AlphaGO实现了对人类棋手的全面胜利,自动驾驶被广泛看好,深度学习算法四处开花。而这一切算法表现的背后,都离不开AI算力的支持。

这一年,英伟达拉开了股价飙升,AI算力产品频繁迭代的大幕。谷歌开始在云上布局TPU等自研算力。全球半导体产业开始看到AI算力这个极具想象力的新方向。

而与此前历次半导体风口不同的是,这次中国的从业者们没有后知后觉,待产业成熟后再加油追赶,他们选择了抢跑。

在2017年10月,海思打造了麒麟970,把端侧AI算力带到了华为手机。11月,中国科学院和寒武纪共同发布了新一代产品,其中包括面向手机与云端的AI处理器。这在当时被称为全球首个深度学习专用处理器芯片。

如果说,这些芯片还更多集中在端侧场景,不能直接对标英伟达提供的高端AI算力,尤其是AI训练算力,那么到了2018年,情况就正式发生了改变。

2018年10月,华为正式发布了全栈全场景AI解决方案。构成全站全场景AI主体的,是两款华为自研的AI芯片,也就是当年发布了用于推理的昇腾310,以及预告中的昇腾910,伴随着昇腾这个名字的出现,华为在AI基础设施领域的一系列布局开始浮现出来。

彼时,中美之间的贸易摩擦还没有开始。中国科技界不会料想到科技封锁的大棒即将迎面而来,更不会料想到AI算力这个还非常新颖、前沿的概念,居然会在几年后成为美国反复操纵,极力打击的中国科技“命门”所在。

如果没有华为对AI机遇的预判,昇腾在AI算力上的抢跑,或许后面的故事,就会是另一个走向。

2019年到2022年,中国AI算力发展进入第二阶段。简要概述这个阶段的发展目标,就是把AI芯片变成了AI算力。

提及AI计算,很多朋友会有种疑惑,一方面国产AI芯片似乎非常多,时不时就能看到相关报道,但另一方面却又都说AI算力卡脖子。其中的问题,就在于芯片和算力是有区别的。

芯片需要能够量产,能够变成板卡、服务器、小站等计算产品,还需要具备全套的软件生态来帮助用户进行调用、开发,需要与各个应用场景进行适配,证明可用性。在这一系列问题都得到解决之后,还需要形成足够大的市场规模。

要顶着性能没有英伟达好,成本、生态、商业信任全都没有优势的逆境走向市场,国产AI算力这条…
…强的AI芯片优势。由此,异构智算开始成为企业和数据中心新的需求。

这三根“足”,给中国AI算力带来了某种稳定性。经过极限情况下的多年经营与发展,今天中国AI算力谈不上充沛与廉价,至少有了可以遮风挡雨的稳固。

至少我们可以看到,中小企业应用AI算力的综合门槛正在降低,AI算力的选择在增多,异构协同能力在加强,并且熟悉了昇腾与海光DCU这样能够直接替代英伟达GPU的存在。中国AI是否会因为算力而陷入生存僵局,已经不再是个问题。

总结一下,在AI算力层面,我们有办法,但办法不够好,其实也不够多。

然而换个角度想想,幸好我们有方法,否则麻烦就大了。

依靠精准的预判抢跑,在多重助力下超高速发展,在外部压力下极限成型。

智算,终成国之重器。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB