Teradata, Google Cloud在企业AI领域展开合作

Teradata (NYSE: TDC) 今日宣布,将在Google Cloud上提供Teradata VantageCloud Lake,该版本具备更新功能,旨在发挥Teradata和Google Cloud的优势,提供专业、规模化和技术领先的Trusted AI,以满足企业的需求。图片{ width=60% }


VantageCloud Lake的关键组件是ClearScape Analytics和一个连通的生态系统,对于Google Cloud版本来说,其中包括与Google Cloud强大AI技术、Vertex AI平台和Gemini模型的无缝集成。这种组合预计将为客户提供一种卓越的现代数据平台,在多种类型的AI方面表现出色,从扩展预测AI项目到支持新的生成式AI用例。

尽管AI具有诱人的前景,但许多AI项目从未投入生产应用,而那些投入生产的项目则需要大量时间和资源。此外,当AI在整个企业部署时,失控和监管知识产权(IP)的风险更大。因此,许多组织在从AI中获得价值方面面临日益严峻的障碍,需要正确的技术和合作伙伴以具有成本效益地扩展具备安全、透明和高性能特性的AI。

“各行业的公司都看到了AI中的巨大商业潜力,需要现代化的云分析,以及一个可信赖的数据平台,才能开始实现AI的好处”,Teradata首席产品官Hillary Ashton表示。“我们与Google Cloud的合作体现了两家公司对帮助组织成功负责地执行业务战略的AI的深度承诺。带有ClearScape Analytics并无缝集成Google Cloud的AI服务的VantageCloud Lake旨在让客户应对挑战、抓住重大机遇,并以Trusted AI实现巨大价值。”

ClearScape Analytics和Vertex AI平台
ClearScape Analytics是部署端到端AI/ML流水线的最强大引擎,其开放API与Google Cloud全面托管的统一AI开发平台Vertex AI集成,提供了在VantageCloud Lake上对数据进行培训和预测模型的能力。这些解决方案共同为客户提供了对大规模数据集执行复杂分析和AI/ML的能力,并整合了首选的数据科学工具。这使客户能够从其AI/ML投资中获得盈利增长,因为他们可以更快地部署复杂模型并获得信任。

通过ClearScape Analytics和Gemini模型进行生成式AI
大多数公司已经在尝试生成式AI如何创造价值和业务结果。Gemini模型是Google Cloud独特的多模式大语言模型(LLM),可以理解几乎任何输入内容:文本、音频、图像、视频和代码。ClearScape Analytics的开放API与Gemini模型中的嵌入API集成,将结果向量存储在VantageCloud Lake中,为LLM提供了高性能向量存储,可以与VantageCloud Lake中的生产数据相结合。通过这种联合解决方案,组织可以支持创新的生成式AI用例,丰富客户体验。

Google Cloud副总裁Stephen Orban表示:“我们与Teradata的扩展合作将Google Cloud的生成式AI能力带到Teradata VantageCloud Lake,让我们的合作客户能够解锁新的创新和效率水平。”。“通过将Google的前沿AI技术无缝集成Teradata的数据平台,我们正在帮助企业充分发挥其数据的潜能,并通过Trusted AI推动变革性成果。”

例如,Teradata Customer Complaint Analyzer利用Gemini模型提供更丰富和全面的客户投诉视图。该联合解决方案可以比传统方法更有效地自动分类、分析并从基于文本和音频的客户投诉中识别见解,后者只分析文本。通过同时分析呼叫中心的音频记录和文本,组织可以更好地了解客户情绪,更准确地识别趋势,并最终制定可改善客户忠诚度并推动业务价值的可操作见解。

这只是Teradata和Google Cloud支持的众多用例之一,代表了许多组织构建生成式AI到其业务应用程序的一个易于入门的常见需求。

Google Cloud上的VantageCloud Lake
所有这些创新的基础是Teradata的云原生VantageCloud Lake解决方案延伸到Google Cloud。通过这一新推出的产品,组织可以提供在整个机构中无缝集成和协调的可信赖数据。这提供了一个可靠、良好治理和具有成本效益的基础,以最小化数据准备时间,并加速规模化AI倡议的价值实现。

可用性
Teradata VantageCloud Lake在Google Cloud上已经普遍可用。ClearScape Analytics与Vertex AI平台的集成已经普遍可用,而增强版与Gemini模型的解决方案将在2025年上半年提供私人预览。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Teradata与Google Cloud合作,为企业提供可信任的人工智能

Teradata(NYSE:TDC)今天宣布将在Google Cloud上提供Teradata VantageCloud Lake,推出的更新旨在利用Teradata和Google Cloud的优势,提供具有专业知识、规模和技术的Trusted AI,以满足企业的需求。图片{ width=60% }


VantageCloud Lake的关键组成部分是Teradata的ClearScape Analytics以及与Google Cloud版相连的生态系统,包括与Google Cloud强大的人工智能技术、Vertex AI平台和Gemini模型无缝集成。 这种组合预计将为客户提供一种出色的数据平台,该平台擅长多种类型的人工智能,从扩大预测性人工智能项目到支持新的生成式人工智能用例。

尽管人工智能有着许诺,但许多人工智能项目从不进入生产阶段,那些成功进入生产阶段的项目需要大量的时间和资源。此外,当人工智能在企业中部署时,更容易失去对知识产权的控制和监督。 由于这些挑战,许多组织日益面临一个障碍,即从人工智能中获取价值的障碍,并且需要正确的技术和合作伙伴以成本效益地扩展带有安全性、透明度和性能的人工智能。

“每个行业的公司都看到人工智能在业务上的巨大潜力,并需要现代化的云分析工具以及可信赖的数据平台,才能开始实现人工智能的好处,” Teradata首席产品官Hillary Ashton表示。“我们与Google Cloud的合作反映了两家公司在帮助组织成功和负责任地使用人工智能执行业务战略方面的深刻承诺。 VantageCloud Lake与Google Cloud一起,配备ClearScape Analytics和无缝集成Google Cloud的人工智能服务,旨在使客户能够应对挑战,抓住重大机遇,并通过可信任的人工智能创造巨大价值。”

ClearScape Analytics和Vertex AI平台
ClearScape Analytics是用于部署端到端AI/ML管道的最强大引擎,其开放API与Google Cloud的全面托管的统一人工智能开发平台Vertex AI集成,在VantageCloud Lake中训练和预测模型。 这两个解决方案提供了客户在庞大数据集上执行复杂分析和AI/ML以及整合首选数据科学工具的能力。 这使客户能够通过更快地将复杂模型部署到生产环境并获得信任,从而从他们的AI/ML投资中获利。

ClearScape Analytics和Gemini模型实现生成式人工智能
大多数公司已经在尝试生成式人工智能如何为价值和业务结果提供驱动力。Gemini模型是Google Cloud独特的多模态大语言模型(LLM),可以理解几乎任何输入:文本、音频、图像、视频和代码。 ClearScape Analytics的开放API与Gemini模型中的嵌入式API集成,将结果向量存储在VantageCloud Lake中,为LLM提供一个高性能的向量存储库,以与VantageCloud Lake中的生产数据联接。 借助这种联合解决方案,组织可以推动创新的新一代人工智能用例,并丰富客户体验。

“我们与Teradata扩大的合作将Google Cloud的生成式人工智能能力带入Teradata VantageCloud Lake,使我们的共同客户能够解锁新的创新和效率水平,” Google Cloud副总裁Stephen Orban表示。“通过将Google的尖端人工智能技术与Teradata的数据平台无缝集成,我们让企业能够充分利用其数据的潜力,并通过可信任的人工智能实现变革性成果。”

例如,Teradata Customer Complaint Analyzer使用Gemini模型提供对客户投诉更丰富和全面的视图。 这一联合解决方案可以比传统方法更有效地自动对文本和音频的客户投诉进行分类、分析和识别见解,传统方法仅分析文本。 通过分析呼叫中心的音频记录,除文本外,组织还可以更好地了解客户情绪,更准确地识别趋势,最终制定改善客户忠诚度并带来业务价值的可操作见解。

这只是Teradata和Google Cloud支持的许多用例之一,代表了许多组织构建生成式人工智能进入其业务应用程序的一个简单起点的共同需求。

Google Cloud上的VantageCloud Lake
所有这些创新的基础是将Teradata的云原生VantageCloud Lake解决方案扩展到Google Cloud。 有了这一新提供,组织可以提供经过信任验证的数据,在整个组织中无缝集成和协调。 这提供了一个可靠、经过审慎管理且具有成本效益的基础,以最大限度地减少数据准备时间并加速规模化AI项目的价值实现。

可用性
Teradata VantageCloud Lake在Google Cloud上现已全面推出。 ClearScape Analytics与Vertex AI平台的集成现已全面推出,并增强与Gemini模型的解决方案将于2025年上半年提供私人预览。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI CTO表示:未来将会有越来越多的人被AI所取代...

对于“AI是否能最终取代人类进行工作”这件事儿,很多学者持有否定态度。大家普遍认为,即便如今诞生了ChatGPT,Claude等强大的AI工具,它们也只能够解决一些格式化,重复化的工作,无法取代人类进行一些具有创造性,设计性的工作。


但有些专业人士不这么认为,还有人将“AI工作”直接引入实践。譬如国外就有科技媒体的老板使用ChatGPT来撰写和编辑文章,用它取代了自己的60名员工,在他看来,AI完全可以驾驭撰写和编辑深度文章的工作。

就连OpenAI CTO,被誉为“ChatGPT之母”的Mira Murati也在采访中直言:AI可能会扼杀一些本来不应该存在的创意性工作。

或许,我们不得不颠覆思维,以全新的方式去思考这个问题:AI真的会淘汰掉那些富有想象力和创造力的人类吗?

Image

OpenAI CTO直言:创意性的工作终将因为AI的出现而消失…

在前几天的采访中,OpenAI的CTO,ChatGPT的关键缔造者Mira Murati表达了自己对于AI与人类未来关系的看法。她表示,AI会扼杀掉一些可能出现的创意性工作,现存的某些创意性的工作也会因为AI的出现而消失。

Image

随后,她在自己的社交媒体上发文,并拿出了自己在2022年撰写的文章来佐证观点。

在文章中,Mira Murati表示,OpenAI致力于推进科学理解,以帮助改善人类福祉。OpenAI所开发的AI工具,诸如Sora,GPT-4o,DALL·E,ChatGPT等从技术角度来看都令人印象深刻,但它们真正重要,也最为关键的作用在于,它们正开始改变人类与信息和想法互动的方式。

OpenAI创造AI工具的使命是将其变成有用,安全,易用,并尽可能让更多人使用的普遍性工具,希望帮助减少传统上的障碍,使大家可以自由的表达想法和观点,从而赢得更多的控制权,也更具有创新性和可探索性。

Image

在Mira Murati的眼里,AI有潜力实现前所未有的创造力和民主化。毕竟,一个人的创造潜力不应该受到资源,教育或行业关系的限制。AI工具可以降低门槛,允许任何有想法的人进行创作。

对于Mira Murati的文章,网友纷纷玩起了梗。一位网友表示,“我让ChatGPT总结了这篇帖子,大意就是一些创造性的工作也许会消失,但也许它们本来就不应该存在”。

事实确实如此。在一年多前的文章里,Mira Murati只是表示“AI工具可以帮助降低门槛,允许有想法的人去创作”,但如今,她的观点直接升级加码成为了“AI会让一些创意性工作消失”。

而在现实生活在,这样的例子不在少数。很多大厂正在用AI工具取代一批又一批的员工,而这些员工本身所从事的工作也是复杂的,具有创造性的。

原来“ChatGPT之母”早早就表过态:人工智能对人类的影响才刚刚开始。

事实上,Mira Murati不止一次的谈及AI与人类之间可能存在的矛盾问题。

2024年5月29日-5月31日,亚洲科技大会在新加坡召开。Mira Murati通过视频远程参加了这场会议。她当时就在会议上发言表示,生成式人工智能才刚刚开始对经济产生影响。

她认为,目前我们还没有完全意识到AI可能对商业和工作产生的影响,因为这一切才刚刚开始。未来,随着AI工具的进一步普及,AI对全球经济的影响将愈来愈大。也就是在5月,OpenAI重磅发布了GPT-4o聊天机器人,GPT-4o模型可以帮助用户生成文本,演示文稿和视频等内容,使用起来越来越直观,这无疑会推动人工智能的进一步普及。如今,完全足以抗衡GPT-4o的Claude 3.5 Sonnet已经横空出世,在AI巨头们军备竞赛般的激烈比拼下,我们有理由相信,AI对于人类经济所产生的影响,势必会越来越大。

Image

“AI大范围的取代人类”,这并非预演,而是事实。

AI会让人类失业。这是一件百分百会发生的事情。

纵观过去的每一场科技革命,都会“夺”走不少的工作岗位,这是科技进步发展过程中必然会出现的阵痛和代价。

工业革命时期,机器得以大量使用,这使得许多手工业者破产,工人失业。工人们据此开始了砸机器的运动。工作人员把机器看作是问题的根源,他们试图通过砸坏它来保住工作,但事情的根源并不在此。到了20世纪中期,福特汽车的工人们也开始用罢工的方式来抵制新的流水线自动化系统。这一行为后来被发展经济学家所接纳,并称之为“卢德谬论”:即科技的发展带来生产力的提高,会减少对劳动力的需求,从而导致失业率的上升。

Image

但有一点毋庸置疑,每一次科技革命都会在短时间内带来部分工作的消亡,但新的时代一定会孕育出更多的工作机会。

今年2月,瑞典的一家先买后付服务公司Klarna曾表示,基于OpenAI构建的客服聊天机器人,可以完成700名客服人员的工作,而且会比人类做的更快更准确,着实令人惊叹。

无独有偶,高盛和摩根士丹利等大型金融服务公司,也在引入AI工具。这些工具可以取代华尔街的大部分入门级白领工作,诸如备电子表格,创建演示文稿,分析金融数据等。

值得一提的是,AI工具并非是巨头和大公司的专有物,一些小企业也正被AI的力量逐渐渗透。伊利诺伊州布卢明顿的Little Beaver啤酒厂,以及达拉斯地区的亚洲餐厅Burning Rice,正在使用Slang.ai这样的平台来自动接听客户电话并预订座位。这些工作原本由人工来完成,现在却被AI所替代。

Image

由此可见,Mira Murati在发言中所提到的观点都是正确的。可问题在于,说了真话的Mira,为何还要被广大网友们攻击反对呢?

没有生存和失业压力的高知当然可以客观冷静,对未知问题大方承认,而不是自欺欺人。但对于广大普通网友来说,工作被替代是一件多么可怕的事情,怎么能不焦虑?

也正因此,一个网友“地狱笑话”般的留言才让人感叹高明:“第一批应该被AI取代的工作是大多数企业高管。他们的薪酬过高,而且AI能和他们做得一样好。顺便说一句,这也包括Murati的CTO”。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI收购5人远程协作公司

刚刚,OpenAI又收购了一家创业公司——远程协作平台Multi。Multi支持10人以内团队通过屏幕共享实时协作,包括语音、视频通话以及标注等。


继4天前收购数据库初创公司Rockset后,此番动作似乎再一次印证了OpenAI正面向To B市场发力。上个月,OpenAI还与普华永道签署合作,由后者代销其工具,包括面向企业的定制AI模型优化与咨询计划。目前ChatGPT企业用户已接近60万,其中包括93%的财富500强企业。对于这项合作,多数网友一致认为:感觉OpenAI要在企业生产力效率市场重投入。

回到Multi,这项合作具体金额尚未公布,不过Multi联合创始人已透露,公司的5名成员将在交易完成后加入OpenAI。同时,Multi将在7月24日后关闭,所有用户数据将被删除。

更多详情接下来一起扒一扒。

Multi是谁?

Multi成立于2019年,总部位于美国旧金山。公司开发了一个为macOS设计的多人协作应用程序,允许团队成员共享光标、绘图和键盘控制等。Multi已进行了两轮融资,总计筹集了1300万美元资金,最近一轮是在2020年。公开资料显示,Multi有6名投资者,最新投资者为Musha Ventures和Greylock。Multi(前身Remotion)的核心创始人有3位。

CEO Hamze Ghalebi曾就读于里昂商学院,目前还兼任Narrator(一家集成语音服务的初创公司)联合创始人。联创兼CTO Charley Ho是一位华人,目前在OpenAI担任技术团队成员,此前曾在Google担任软件工程师,拥有斯坦福大学电气工程硕士和学士学位,专注于软件系统和计算机硬件。联创兼CEO Alexander Embiricos毕业于斯坦福大学,曾任Dropbox产品经理。而且据Alexander Embiricos透露,他们将加入ChatGPT的桌面团队。对于这一动向,网友们大胆猜测:GPT的“多人模式”即将到来?

OpenAI的用意?

收购消息一出,网友们立马想起了之前的传闻:OpenAI打算构建自己的操作系统。毕竟大佬们如卡帕西就曾反复提到过LLM操作系统愿景。而且有网友想起了苹果和Adobe曾经的例子。不过也有人对此持怀疑态度:收购multi的感觉与此相反,因为它们的大部分技术和价值可能与现有操作系统集成。这也和开头提到的OpenAI的近期策略相契合,OpenAI似乎正在走解决方案的道路。一旦完成集成,新的ChatGPT可能如网友形容:我猜他们会让ChatGPT能够在你的屏幕上绘图、编辑代码等。等等,这一设想是不是有点眼熟,难道这不就是GPT-4o的功能吗?距发布会已有1个月了,GPT-4o的视频及语音功能仍未上线。不过就在刚刚,GPT-4o也传出了好消息。GPT-4o的语音和视频功能已开启灰度测试,已经有网友被“灰度”到了~

飞奔,快去看看有没有你?

参考链接:
- 1
- 2
- 3
- 4
- 5

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

日本AI+Web3.0的新机遇系列活动即将开启

AI与Web3.0技术的结合,正成为推动行业发展的新引擎。在此背景下,BytomDAO将在2024年7月3日在日本京都IVS期间,举办一场主题为“AI+Web3.0的新机遇”的系列活动,旨在深入探讨这一融合趋势如何塑造未来的Web3格局。


活动邀请了包括TON、Animoca、Hashkey DX、OKCoin JP、Bitget JP、Gate JP、Skyland ventures、Kekkai、Arweave Oasi、1783DAO、CGV FOF、DAOBase、Deeplink Chain、AI on Web3等知名机构和项目。
据悉,IVS是日本最大的创业创新论坛,IVS Crypto是日本最大的区块链峰会之一。

image

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

突发!OpenAI停止不支持国家API,7月9日开始执行

6月25日凌晨,有部分开发者收到了OpenAI的信,“根据数据显示,你的组织有来自OpenAl目前不支持的地区的API流量。从7月9日起,将采取额外措施,停止来自不在OpenAI支持的国家、地区名单上的API使用。


但这位网友表示,他只在美国和乌克兰的第聂伯罗两个地方使用都是在白名单上的,还是被无理由禁止。

并且当他试图去联系OpenAI的真人客服时,得到的却是一封AI回复的信件是“对不起,我们没有在你所在的地区进行运营。”

不只是他一个人,在西班牙、瑞士的开发人员也面临了禁止使用其API。但根据名单上来看,这两个国家是支持的。

一家SaaS公司也没能幸免,因为他们在提供服务时,可能会有OpenAI禁止的国家、地区用户来访问其API。所以,连这家公司也给封了,确实挺无辜的。

有人指出,出现这种情况的原因,可能与互联网封锁的范围扩大有关,然后AI自动检测可能出现了问题。或者OpenAI得到了一些政策上的压力,开始严格执行封禁行动。所以,只要你接到了这封信,基本上就会被禁止使用API了。

此外,远程桌面协作平台Multi在今天凌晨宣布加入OpenAI,并在7月24日之前关闭其产品。Multi的大约5人团队将加入ChatGPT桌面团队。

这也是继6月22日收购数据搜索、分析平台Rockset后(点击查看),OpenAI完成的第二笔收购,以增强ChatGPT等产品的功能和打造更多的玩法。

公开资料显示,Multi创立于2019年,总部位于旧金山,曾用名Remotion,融资总额1300万美元。由前谷歌工程师Charley Ho和前 Dropbox 产品经理Alexander Embiricos联合创立。

Multi的产品是一款类似Windos自带的远程桌面控制、协作产品,但面向的是macOS系统,同时在Zoom的基础之上进行了大量扩展。

Multi最多支持10人同时进行屏幕共享,通过共享光标和绘图工具来完成交流,延迟却低于100毫秒。例如,开发人员在共享代码时,彼此可以互相帮助打开、修改、更新代码等。

Multi还支持类ChatGPT的总结摘要和多轮深度对话功能,在屏幕共享时开启该功能会自动将会议的内容进行全方位总结,并且支持基于这些总结起草或提问更多的内容,来完成会议摘要的多用途。

关于OpenAI收购Multi这事,很多网友出于安全的考虑加上最近入局董事会的中增根非常担忧ChatGPT的安全问题。

如果将远程桌面控制功能与ChatGPT相结合,那么就很容易打造新的“间谍”工具来非法控制和搜集别人的信息。

有人认为,如果ChatGPT 从提供建议转变为接管你的桌面。那么他接下来就会帮你订购披萨并更新Spotify播放列表!也就是说,ChatGPT+远程桌面可以在暗地里做很多你无法看到的事情。

也有用户对Multi被收购这件事表示不理解,这是他用过最好的远程控制桌面,就这么美了还是挺伤心的。

Multi的联合创始人Alexander表示,非常兴奋加入ChatGPT的桌面团队,接下来将于OpenAI一起打造更好的功能。

本文素材来源网络、Multi官网,如有侵权请联系删除

END



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

追赶与超越,国产芯片制程

图片来源:由GPTNB生成

文章来源: 头部科技

文|俊俊

芯片在现代社会的各个行业中都发挥着至关重要的作用,是支撑科技发展和推动各种电子产品创新的核心技术。

目前,我们还是不得不面对先进制程被卡脖子的问题。


6 月 24 日消息,路透社报道,字节跳动正在与美国博通公司合作开发制程为 5nm,由台积电制造的 AI 处理器。

所以,谁能掌握更先进的芯片技术,谁就能在未来的发展中占据主动权!

先进制程

说起芯片,不得不提最近经常被提起的芯片制程。

一块芯片由无数的晶体管组成,每个晶体管由源极、栅极、漏极组成。其中栅极相当于一个通道,主要负责控制两端源极和漏极的通断。

而栅极的宽度,就是制程节点,也就是我们常说的多少纳米工艺中的数值,也就是我们经常听到的28nm、14nm、7nm、5nm、3nm,包括台积电正在推进的2nm等。

微电子技术的发展,长期以来依靠工艺技术的不断改进,使得晶体管尺寸不断缩小,也就是制程进步。

一般来说,晶体管中栅极的宽度越窄,晶体管就越小,电流通过时的损耗越低,性能也越高,制造工艺也更复杂。

目前,业界普遍认为28nm是成熟制程与先进制程的分界线,28nm及以上的制程工艺被称为成熟制程,28nm以下使用的高精度和高效能生产技术的制程工艺被称为先进制程。

狭义上分析,通常纳米制程越小,可以带来芯片体积变小,性能提升,芯片能耗降低的…

关键技术

制程技术步骤有很多,从台积电北美技术论坛特别强调的技术,近一半篇幅与先进封装有关,加上无论台积电、英特尔、三星甚至韩国政府,都计划倾国家之力发展先进封装,能看出半导体发展、芯片效能提升,先进封装技术无疑扮演关键角色。

先进封装之所以被称为“先进”,主要体现在以下方面:

  1. 高集成度,先进封装技术可以在一个封装体内集成多个芯片,也可以将多个芯片垂直堆叠起来,显著减少了封装尺寸和重量.
  2. 工艺方法更多元,与传统封装不同的是,先进封装的做法结合了半导体制造工艺与传…

以下部分内容过长,未完全呈现。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

突发!OpenAI停止不支持国家API,7月9日开始执行

6月25日凌晨,有部分开发者收到了OpenAI的信,“根据数据显示,你的组织有来自OpenAl目前不支持的地区的API流量。从7月9日起,将采取额外措施,停止来自不在OpenAI支持的国家、地区名单上的API使用。


但这位网友表示,他只在美国和乌克兰的第聂伯罗两个地方使用都是在白名单上的,还是被无理由禁止。

并且当他试图去联系OpenAI的真人客服时,得到的却是一封AI回复的信件是“对不起,我们没有在你所在的地区进行运营。”

不只是他一个人,在西班牙、瑞士的开发人员也面临了禁止使用其API。但根据名单上来看,这两个国家是支持的。

一家SaaS公司也没能幸免,因为他们在提供服务时,可能会有OpenAI禁止的国家、地区用户来访问其API。所以,连这家公司也给封了,确实挺无辜的。

有人指出,出现这种情况的原因,可能与互联网封锁的范围扩大有关,然后AI自动检测可能出现了问题。
或者OpenAI得到了一些政策上的压力,开始严格执行封禁行动。所以,只要你接到了这封信,基本上就会被禁止使用API了。

此外,远程桌面协作平台Multi在今天凌晨宣布加入OpenAI,并在7月24日之前关闭其产品。Multi的大约5人团队将加入ChatGPT桌面团队。

这也是继6月22日收购数据搜索、分析平台Rockset后(点击查看),OpenAI完成的第二笔收购,以增强ChatGPT等产品的功能和打造更多的玩法。

公开资料显示,Multi创立于2019年,总部位于旧金山,曾用名Remotion,融资总额1300万美元。由前谷歌工程师Charley Ho和前 Dropbox 产品经理Alexander Embiricos联合创立。

Multi的产品是一款类似Windos自带的远程桌面控制、协作产品,但面向的是macOS系统,同时在Zoom的基础之上进行了大量扩展。

Multi最多支持10人同时进行屏幕共享,通过共享光标和绘图工具来完成交流,延迟却低于100毫秒。例如,开发人员在共享代码时,彼此可以互相帮助打开、修改、更新代码等。

Multi还支持类ChatGPT的总结摘要和多轮深度对话功能,在屏幕共享时开启该功能会自动将会议的内容进行全方位总结,并且支持基于这些总结起草或提问更多的内容,来完成会议摘要的多用途。

关于OpenAI收购Multi这事,很多网友出于安全的考虑加上最近入局董事会的中增根非常担忧ChatGPT的安全问题。

如果将远程桌面控制功能与ChatGPT相结合,那么就很容易打造新的“间谍”工具来非法控制和搜集别人的信息。

有人认为,如果ChatGPT 从提供建议转变为接管你的桌面。那么他接下来就会帮你订购披萨并更新Spotify播放列表!也就是说,ChatGPT+远程桌面可以在暗地里做很多你无法看到的事情。

也有用户对Multi被收购这件事表示不理解,这是他用过最好的远程控制桌面,就这么美了还是挺伤心的。

Multi的联合创始人Alexander表示,非常兴奋加入ChatGPT的桌面团队,接下来将于OpenAI一起打造更好的功能。

本文素材来源网络、Multi官网,如有侵权请联系删除
END



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

自动驾驶运营第一股,如祺出行要和滴滴、百度打擂台?

北京时间6月14日凌晨,在特斯拉股东大会上,马斯克阐述了对Robotaxi(自动驾驶出租车)商业模式的构想——特斯拉不仅会运营自己的无人驾驶出租车车队,还可以让特斯拉车主们的爱车加入共享车队,让它们在闲置时段出去“兼职”打零工,为车主们创造额外收入。

这一次,马斯克并没有遥遥领先,事实上,国内企业也都已经开始了对Robotaxi的探索,例如百度的萝卜快跑、文远知行、小马智行……都想要插上自动驾驶的战旗,挤进网约车行业分一杯羹,甚至成为行业的颠覆者。


打着“自动驾驶运营科技第一股”旗号的如祺出行,也是其中的一个关键参赛选手。

2024年3月25日,如祺出行向港交所交表。6月17日,如祺出行完成港股上市备案,据招股书显示,如祺出行83.9%的营收都来源于网约车服务。从收入来看,如祺出行从2021年到2023年连续三年的收入,分别为10.14亿元、13.68亿元、21.61亿元,增长率高达35.01%、57.93%。

不过,高增速是建立在前期营收规模很小的前提下,对比来看:滴滴2023年营收1924亿元,相当于87个如祺出行,曹操出行2023年营收106.68亿元,相当于5个如祺出行。

如若上市成功,如祺出行将成为第二十家网约车上市企业,明显不够性感。那么“自动驾驶运营科技第一股”究竟是差异化上市的“招牌”,还是如祺出行真的已经转型成了科技公司?

从招股书中,或许能一探如祺出行的“Robotaxi梦”究竟成色几何。

如祺出行,“困”在大湾区

如祺出行正在面临收入规模和盈利能力两方面的挑战。

从收入的角度来看,如祺出行局限在大湾区内,规模的增长空间有限。

据招股书显示,2022年如祺出行营收增长35.01%,录得收入13.68亿元;2023年营收增长57.93%,录得收入21.61亿元。巧合的是,最大的竞争对手滴滴于2021年7月至2023年1月被实施网络安全审查,停止了新用户注册。

抓住了这一关键的窗口期,如祺出行的收入增速高涨,但相较于滴滴这种全国性运营的企业,如祺出行几乎只做大湾区市场,更类似于早期的T3出行,T3出行背靠中国一汽、东风汽车、重庆长安汽车,在重庆、武汉、成都等地扎根。而如祺出行背靠广汽、腾讯,在大湾区具有天然的战略优势。

招股书显示,如祺出行充分挖掘了大湾区的网约车潜力,但在有限地域,无法避免与滴滴的直接交锋。 目前,如祺出行在大湾区的市占率已经仅次于滴滴,为45%,向上增长只会越发艰难。

从成本的角度来看,如祺出行暂时还没有形成规模效应。

据招股书显示,如祺出行2022年收入成本增长20.31%、2023年增长52.65%,主要包括司机服务费、汽车服务站成本、第三方平台服务成本、支付予运力加盟商的管理费、IT服务费、技术成本费等等,成本增速几乎达到与营收增速同幅,最终导致在2021-2023年一直处于亏损状态,毛损在2022年有所收窄,为1.46亿元,2023年毛损扩大到1.50亿元。

其中,如祺出行的第三方平台服务成本0.96亿元,占总成本的比例从2021年的0.5%增长到了2023年的4.1%。

在大湾区通过滴滴平台,如祺出行作为第三方平台出现在列表中。同样是从人民公园到凯蓝大厦,滴滴快车需花费约23元,如祺出行只需花费约16元,比滴滴便宜了30%,这或许也是如祺出行能够在大湾区抢到市场份额的原因之一。

而接入到滴滴平台上的如祺出行需花费25.81元,比原价格高出了35%,等于说25.81元中有9元是给滴滴的服务分成费。

显而易见的是,由于大湾区内竞争激化,如祺出行正在借助第三平台例如滴滴出行、哈喽打车等,来增加自身订单量,2022年来自第三方平台的订单占总订单量的比例约为28.03%,而2023年这一比例高达58.58%,也正是如此第三方出行服务平台的服务成本增速远超营收增速,2021至2022年,这一增速为289.20%,而2022至2023年,增速为255.16%。

当然,如祺出行也可以选择走出大湾区,但其重资产模式,也很难有向外扩张、迎战全国对手的竞争力。

作为广汽旗下的出行服务平台,广汽会为如祺出行提供标准化车辆,由如祺出行租给司机,并收取一定的租金,如祺出行除了提供出行服务、技术服务外,还提供车队管理服务,需要承担很重的营业成本。

据招股书显示,2023年如祺出行的第二大成本即为汽车服务站的成本,达到了3.06亿元、占总成本比重13.3%,正是基于车队管理及服务的车辆采购成本增加导致的。

这和轻资产模式的滴滴迥然不同,滴滴没有自有车队,仅仅作为连接司机和乘客的第三方平台,这种C2C的轻量化模式使得滴滴能够很快地在全国范围内扩张开来,借助规模效应压低成本,实现盈利。

换言之,如果说,滴滴的司机是灵活就业,如祺出行的司机更像是被雇佣的员工。

在重成本的基础下,如祺出行在费用开支上一直在收紧,2021-2023年,如祺出行研发开支占总收入的比例分别为11.5%、7.7%、5.5%。2021-2023年销售及营销占总开支的比重为26.1%、16.9%、10.1%。

最终的盈利情况,仍有待扭亏。据招股书显示,如祺出行的经调整净亏损从2021年的6.69亿元,到2022年的5.31亿元,再到2023年的5.41亿元,2021到2022年经调整净亏损收窄20.57%,2022年到2023年略微扩大1.90%。

如祺出行走不出大湾区,意味着增长不可持续;而重资产模式,又意味着如祺出行很难做到规模化扭亏,如今的如祺出行,似乎被困在了大湾区。

放手一搏,下注Robotaxi

如祺出行想要闯出一条路来,从招股书反复强调Robotaxi来看,它把砝码押在了科技上。

如祺出行在招股书战略的第一条写道,要“以重点区域成功为始,发挥Robotaxi营运建设先发优势,打造具有全面产品矩阵的出行服务平台”,把未来真正的增长潜力都压在了Robotaxi。

自动驾驶出租车市场仍是一片蓝海。根据IHS Markit的预测,到2030年,中国共享出行的总市场规模将达到2.25万亿人民币,其中Robotaxi的占比将达到60%,即约1.3万亿人民币。

根据百度的计算,以运用车辆5年周期计算,在一线城市仅司机成本就达到8000元/月,而RT6无人化运营,车辆成本仅4100元/月。李彦宏还提到,当每日订单量为5000万时,Robotaxi的成本将会是现在的1/5。

一旦如祺出行能够将Robotaxi模式铺开,这意味着占如祺出行总成本77%左右的司机服务费就可以大幅缩减,从而实现迅速扭亏。

为了向未来扩张,如祺出行做了充足的准备,目前已经满足了Robotaxi的刚性条件。

要做Robotaxi,汽车、资质许可和自动驾驶技术缺一不可——即使布局Robotaxi业务的企业数量众多,如百度、文远知行、AutoX、滴滴,能够兼具的玩家却如凤毛麟角。

而手握了资质许可和自动驾驶解决方案的小马智行,成为了如祺出行招股书中,不断突出的重要战略股东。

作为一家技术公司,小马智行致力于实现L4级及以上的自动驾驶技术。2024年4月24日,小马智行宣布中标广州市南沙区2022年出租车运力指标,允许符合运营安全技术要求的自动驾驶车辆提供出租车经营服务。

与此同时,小马智行也是首个在北京和广州均获准落地商业化Robotaxi服务的公司,可以为乘客提供付费出行服务。此外,就只剩百度的萝卜快跑在北京亦庄地区获得了自动驾驶出租车运营资质。

背靠着小马智行,让如祺出行拿到了Robotaxi落地的尊贵入场券。

此外,Robotaxi作为技术,也离不开车的载体,做Robotaxi要么和车企合作,要么得自己造车。如棋出行又天然地拥有广汽的支持。

如祺出行走的“1+1+1”,即车企+自动驾驶公司+出行服务商的“铁三角”模式综合各方实力可加速Robotaxi的商业化落地。

Robotaxi最大的难题:政策

不过,Robotaxi的战场,也并不比网约车乐观。

目前,Robotaxi赛道上有三类主力军,以百度Apollo、文远知行WeRide等为代表的互联网企业,以特斯拉、小鹏为代表的车企,以及以滴滴出行、如祺出行为代表的出行服务企业。

上述竞争者们探索出了两种不同的竞争模式。

一种是传统车厂+旗下出行服务商+自动驾驶公司的资源整合模式,如上汽+旗下享道出行+Momenta,再如广汽+如祺出行+小马智行。

另一种是新势力造车企业集出行服务、造车、自动驾驶技术研发于一体,如百度、蔚来、小鹏、特斯拉,正在通过成立出行服务商布局出行服务领域。

相较于它们,上述短期内的优势,并不能形成如祺出行长期的、不可替代的竞争优势。

国内有自动驾驶技术的公司不止小马智行,还有百度Apollo、AutoX、文远知行等。且自动驾驶技术是小马智行的,并不独属于如祺出行。

小马智行也选择了和其他企业合作,比如去年丰田汽车宣布与小马智行合作,以支持未来Robotaxi前装量产和规模化部署。

至于造车,国内有名气的车企太多,随时可以借助战略合作跨界到Robotaxi领域。就连如祺出行的大靠山广汽也联合滴滴设立了合资公司,计划在2025年推出首款商业化L4车型。

但是,Robotaxi能否实现大规模商业化,技术和车并不是决定性的因素,而是国家政策和相关配套的法律法规能否落地。**从中国各个省市的Robotaxi资质分批、分阶段发放便能看出,目前Robotaxi仍处在小

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

为什么都放弃了LangChain?

或许从诞生那天起,LangChain 就注定是一个口碑两极分化的产品。看好 LangChain 的人欣赏它丰富的工具和组建和易于集成等特点,不看好 LangChain 的人,认为它注定失败 —— 在这个技术变化如此之快的年代,用 LangChain 来构建一切根本行不通。


夸张点的还有:「在我的咨询工作中,我花了 70% 的精力来说服人们不要使用 langchain 或 llamaindex。这解决了他们 90% 的问题。」最近,一篇 LangChain 吐槽文再次成为热议焦点:作者 Fabian Both 是 AI 测试工具 Octomind 的深度学习工程师。Octomind 团队会使用具有多个 LLM 的 AI Agent 来自动创建和修复 Playwright 中的端到端测试。这是一个持续一年多的故事,从选择 LangChain 开始,随后进入到了与 LangChain 顽强斗争的阶段。在 2024 年,他们终于决定告别 LangChain。让我们看看他们经历了什么:「LangChain 曾是最佳选择」我们在生产中使用 LangChain 超过 12 个月,从 2023 年初开始使用,然后在 2024 年将其移除。在 2023 年,LangChain 似乎是我们的最佳选择。它拥有一系列令人印象深刻的组件和工具,而且人气飙升。LangChain 承诺「让开发人员一个下午就能从一个想法变成可运行的代码」,但随着我们的需求变得越来越复杂,问题也开始浮出水面。LangChain 变成了阻力的根源,而不是生产力的根源。随着 LangChain 的不灵活性开始显现,我们开始深入研究 LangChain 的内部结构,以改进系统的底层行为。但是,由于 LangChain 故意将许多细节做得很抽象,我们无法轻松编写所需的底层代码。众所周知,人工智能和 LLM 是瞬息万变的领域,每周都会有新的概念和想法出现。而 LangChain 这样围绕多种新兴技术创建的抽象概念,其框架设计很难经得起时间考验。「LangChain 为什么如此抽象」起初,当我们的简单需求与 LangChain 的使用假设相吻合时,LangChain 还能帮上忙。但它的高级抽象很快就让我们的代码变得更加难以理解,维护过程也令人沮丧。当团队用在理解和调试 LangChain 的时间和用在构建功能上的时间一样时,这可不是一个好兆头。LangChain 的抽象方法所存在的问题,可以通过「将一个英语单词翻译成意大利语」这一微不足道的示例来说明。下面是一个仅使用 OpenAI 软件包的 Python 示例:这是一段简单易懂的代码,只包含一个类和一个函数调用。其余部分都是标准的 Python 代码。将其与 LangChain 的版本进行对比:代码大致相同,但相似之处仅此而已。我们现在有三个类和四个函数调用。但令人担忧的是,LangChain 引入了三个新的抽象概念:Prompt 模板: 为 LLM 提供 Prompt;输出解析器: 处理来自 LLM 的输出;链: LangChain 的「LCEL 语法」覆盖 Python 的 | 操作符。LangChain 所做的只是增加了代码的复杂性,却没有带来任何明显的好处。这种代码对于早期原型来说可能没什么问题。但对于生产使用,每个组件都必须得到合理的理解,这样在实际使用条件下才不至于意外崩溃。你必须遵守给定的数据结构,并围绕这些抽象设计应用程序。让我们看看 Python 中的另一个抽象比较,这次是从 API 中获取 JSON。使用内置的 http 包:使用 requests 包:高下显而易见。这就是好的抽象的感觉。当然,这些都是微不足道的例子。但我想说的是,好的抽象可以简化代码,减少理解代码所需的认知负荷。LangChain 试图通过隐藏细节,用更少的代码完成更多的工作,让你的生活变得更轻松。但是,如果这是以牺牲简单性和灵活性为代价的,那么抽象就失去了价值。LangChain 还习惯于在其他抽象之上使用抽象,因此你往往不得不从嵌套抽象的角度来思考如何正确使用 API。这不可避免地会导致理解庞大的堆栈跟踪和调试你没有编写的内部框架代码,而不是实现新功能。「LangChain 对开发团队的影响」一般来说,应用程序大量使用 AI Agent 来执行不同类型的任务,如发现测试用例、生成 Playwright 测试和自动修复。当我们想从单一 Sequential Agent 的架构转向更复杂的架构时,LangChain 成为了限制因素。例如,生成 Sub-Agent 并让它们与原始 Agent 互动。或者多个专业 Agent 相互交互。在另一个例子中,我们需要根据业务逻辑和 LLM 的输出,动态改变 Agent 可以访问的工具的可用性。但是 LangChain 并没有提供从外部观察 Agent 状态的方法,这导致我们不得不缩小实现范围,以适应 LangChain Agent 的有限功能。一旦我们删除了它,我们就不再需要将我们的需求转化为适合 LangChain 的解决方案。我们只需编写代码即可。那么,如果不使用 LangChain,你应该使用什么框架呢?也许你根本不需要框架。「我们真的需要构建人工智能应用程序的框架吗?」LangChain 在早期为我们提供了 LLM 功能,让我们可以专注于构建应用程序。但事后看来,如果没有框架,我们的长期发展会更好。LangChain 一长串的组件给人的印象是,构建一个由 LLM 驱动的应用程序非常复杂。但大多数应用程序所需的核心组件通常如下:用于 LLM 通信的客户端用于函数调用的函数 / 工具用于 RAG 的向量数据库用于跟踪、评估等的可观察性平台。Agent 领域正在快速发展,带来了令人兴奋的可能性和有趣的用例,但我们建议 —— 在 Agent 的使用模式得到巩固之前,暂时保持简单。人工智能领域的许多开发…
原文链接



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB