独立英国零售商声称亚马逊索赔10亿英镑

独立的英国零售商对亚马逊提出了10亿英镑的赔偿要求,他们声称这家在线巨头一直在将他们挤出其在线市场。


这起索赔由约35,000家卖家发起,由英国独立零售商协会(Bira)领导,声称在2015年10月至今的时间内,亚马逊使用属于零售商的非公开数据,来启动自家的竞争产品。该索赔还声称,亚马逊操纵了其“购买框”,在该平台上大部分销售活动都在此处进行,将购物者从独立零售商商品转移到自家商品上。

Bira表示,亚马逊已经对其会员每售出一件商品收取“不可协商的30%佣金”,并声称,通过“滥用其专有数据推出价格更低的竞争产品,亚马逊实际上正在将许多英国独立零售商挤出市场”。该行业协会表示:“亚马逊滥用行为的后果是增加了其利润并伤害了英国零售行业,尤其是在经济困难时期苦苦挣扎的小型独立零售商。”

Bira表示,他们将向伦敦竞争上诉法庭提交逾1,150页的文件,详细说明针对亚马逊的索赔。Bira首席执行官安德鲁·古德克雷(Andrew Goodacre)表示:“我们可以问,为什么独立零售商会使用对其业务如此有害的亚马逊?实际上,我们看到了消费者购买行为的显著转变,如果小型企业想要在线销售,亚马逊是英国主要的市场。”

一位亚马逊发言人表示:“我们还没有看到这份投诉,但根据迄今为止的报道,我们相信这是毫无根据的,这将在法律程序中得到证实。在英国,超过10万家中小企业在亚马逊商店销售商品,我们英国商店中超过一半的实物产品销售来自独立销售合作伙伴,事实上,只有当我们与合作伙伴合作取得成功时,我们自己才会成功。”

2022年,英国竞争和市场管理局(CMA)展开了调查,以确定亚马逊是否曾对其市场上使用其物流服务的自有品牌和第三方品牌形成不公平优势。英国的调查以及欧盟委员会的类似调查是在一系列报道之后展开的,这些报道声称亚马逊使用第三方卖家的数据复制产品。

去年11月,调查结束,亚马逊同意确保独立卖家的报价有机会被显示在该站点的“购买框”中。他们必须在5月3日之前实施该指令。亚马逊还被禁止使用从第三方卖家那里获取的市场数据来获取不公平的竞争优势,并同意让卖家直接与独立供应商协商他们的交货费率。亚马逊在2022年12月为回应欧盟的调查已经做出了类似的承诺。

更多探讨这些话题的内容:

  • 亚马逊
  • 零售行业
  • 小型企业
  • 电子商务
  • 竞争与市场管理局
  • 新闻

分享本内容

转载本文
。Privacy Notice: 电子报可能包含有关慈善机构、在线广告以及由外部方资助的内容。有关更多信息,请参阅我们的Privacy Policy。我们使用Google reCaptcha来保护我们的网站,Google的隐私政策和服务条款适用。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

特斯拉主席警告称,如果股东拒绝特斯拉首席执行官560亿美元的薪酬计划,埃隆·马斯克可能会“退出”

特斯拉主席提出了一个可能性,如果股东们不支持首席执行官的560亿美元(440亿英镑)薪酬计划,埃隆·马斯克可能会从这家电动汽车制造商中“退出”,称创始人“还有其他地方可以花时间”。


罗宾·丹霍姆在一封致投资者的信中补充道,下周对美国公司历史上最大的薪酬协议进行投票“显然不是关于钱”,因为无论结果如何,马斯克将仍然是地球上最富有的人之一。丹霍姆表示,如果6月13日的投票不利于他,马斯克可能会从特斯拉中退出,或者减少在公司的时间。投资者在2018年批准了马斯克最初的560亿美元(440亿英镑)薪酬协议,但该协议在一月被法官否决,迫使董事会要求他们再次批准。

“我们在2018年认识到的,并且今天继续认识到的一件事是,埃隆绝对不缺乏的一样东西就是无限的时间。他也没有任何短缺的想法和其他地方他能在世界上产生影响的地方,”丹霍姆写道。“我们希望这些想法、这种能量和时间花在特斯拉上,为了你们,我们的股东的利益。但这需要相互尊重。”马斯克的其他商业兴趣包括火箭公司SpaceX、人工智能初创公司xAI和社交媒体平台X。一些特斯拉投资者表达了对他集中精力于特斯拉的能力的担忧。在X上,他拥有超过1.86亿的粉丝,这也激怒了特斯拉的一个机构投资者Ross Gerber,他说这“绝对损害了(特斯拉)品牌”。丹霍姆在日期为6月5日的股东信中写道,2018年协议的目的是“让埃隆专注于特斯拉,并激励他实现公司无与伦比的抱负”。

“因此,遵守我们在2018年共同做出的决定,通过批准我们所有人在2018年做出的决定,比以往任何时候都更重要。如果特斯拉要保留埃隆的注意力,并激励他继续投入他的时间、精力、抱负和愿景,以在未来取得可比的成果,我们必须坚守我们的协议,”她写道。丹霍姆补充说,这个包括购买特斯拉股票的计划要求马斯克在获得这笔交易中的股份后等待五年才能出售股份。

根据彭博社的数据,马斯克的财富达到了2030亿美元,使他成为全球第三富有的人。上个月,ISS,一家顶级的投票咨询公司,建议股东反对这项计划,称薪酬过高。另一家咨询公司Glass Lewis也建议反对。特斯拉的十五大投资者之一贝利·吉福德表示计划支持这项计划,而美国公共养老基金和排名前二十五的股东Calpers则表示计划投反对票。

特斯拉的法律基地搬迁到得克萨斯州.特斯拉总部在得克萨斯州,但现在设在德拉华州,但埃隆·马斯克立即将其注册地转移到了得克萨斯州。丹霍姆写道:“在得克萨斯州设立法人实体为特斯拉提供了最好的增长和创新平台,因为我们相信得克萨斯的立法者和法院最有资格公平地制定和做出适用于特斯拉的公司法决策,尤其是当我们下一个巨大的赌局带来超乎任何人想象的期望时。”

美国证券公司Wedbush Securities的分析师丹·艾夫斯表示,马斯克“不会离开”,但如果投票不利,他可能会放弃首席执行官头衔,逐渐减少在特斯拉的参与。“马斯克不会离开,但如果薪酬计划被否决,他可能会放弃首席执行官头衔,逐渐减少在特斯拉的参与,”艾夫斯说。

探索更多相关主题
埃隆·马斯克
特斯拉
公司治理
高管薪酬与奖金
年度业绩
新闻分享

重新使用此内容。注意:Title、Date、Body 三个部分内容已经翻译完毕,放入到对应的位置,Title部分的内容已经翻译为中文。最后只需要输出为Markdown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI pioneers turn whistleblowers and demand safeguards

OpenAI正面临内部纷争和外部批评,涉及其实践以及其技术可能带来的潜在风险。图片{ width=50% }


五月,包括前OpenAI“超级对齐”工作的负责人Jan Leike在内的几位知名员工离开了这家公司。Leike的离职发生在OpenAI推出其新旗舰GPT-4o模型后不久,该模型在其春季更新活动上被誉为“神奇”。

据报道,Leike的离开是由于对安全措施、监控实践以及攀附华而不实的产品发布而非安全考虑的持续分歧。

Leike的离职为该AI公司敞开了潘多拉魔盒。前OpenAI董事会成员提出了针对CEO Sam Altman和公司领导层的心理虐待指控。

OpenAI日益增长的内部动荡与外界对像公司自己的语言模型这样的生成式AI技术可能带来的潜在风险的关切相吻合。批评者警告说,先进的AI超越人类能力的即将到来的存在威胁,以及更直接的风险,如工作替代以及将AI武器化用于信息误导和操纵活动。

作为回应,一群来自OpenAI、Anthropic、DeepMind和其他领先AI公司的现任和前任员工共同起草了一封致这些风险的公开信。

“我们是先进AI公司的现任和前员工,我们相信AI技术潜力可以为人类带来前所未有的好处。我们也了解到这些技术所带来的严重风险,”信中写道。

“这些风险范围从进一步巩固现有的不平等,到操纵和误导,到失去对自主AI系统的控制,可能导致人类灭绝。AI公司本身已经承认了这些风险,各国政府以及其他AI专家也承认了这些风险。”

这封信已经有13位员工签署,并获得了AI先驱Yoshua Bengio和Geoffrey Hinton的认可,其中提到四个核心要求,旨在保护告发者,促进在AI开发方面更大的透明度和问责:

  • 公司不会强制执行不恭维条款,或因员工提出与风险相关的问题而采取报复行动。
  • 公司将支持一种可验证匿名的员工与董事会、监管机构和独立专家沟通提出关注的过程。
  • 公司将支持一个批评开放的文化,并允许员工公开分享与风险相关的担忧,同时适当保护商业秘密。
  • 公司不会对在其他流程失败后分享机密与风险相关信息的员工采取报复行动。

“他们等其他人赞成‘快速行动,打破陈规’的做法,但这与这种强大且理解不足的技术所需的相反,”曾因对公司价值观和缺乏责任感的担忧离开OpenAI的前员工Daniel Kokotajlo说。

这些要求出现在OpenAI迫使即将离职的员工签署保密协议,以防他们批评公司或失去其已投资权益的报告中。OpenAI首席执行官Sam Altman承认对这种情况感到“尴尬”,但声称公司实际上从未收回过任何人的已投资权益。

随着AI革命不断发展,OpenAI的内部纷争和告密者的要求突显了这项技术周围的成长阵痛和未解决的伦理困境。

另请参阅:OpenAI瓦解了五个秘密影响行动

想要从行业领袖那里了解更多关于AI和大数据的知识吗?查看在阿姆斯特丹、加利福尼亚和伦敦举行的AI&Big Data Expo。这一全面的活动与其他领先活动同时在这里举行,包括智能自动化大会、BlockX、数字转型周和网络安全与云计算博览会。

探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

SupportLogic宣布首个用于售后CX可观测性的数据云

SupportLogic,Support Experience(SX)管理和售后CX可观测性领域的领导者,今天在Snowflake Data Cloud Summit上宣布了SupportLogic Data Cloud的一般可用性。图片{ width=60% }


企业现在可以在Snowflake内直接观察并行动售后客户互动信号,无需数据迁移。
营收增长的竞争已经从售前转向售后,使得投资于售后CX的AI成为帮助企业保持竞争力的关键。据普华永道报告,73%的美国企业正在使用AI进行业务,但大型企业在AI采用和价值实现方面受到数据摩擦的阻碍。SupportLogic最近发布的CXO报告突出了CX领导者的类似行业趋势。
可观测性工具是IT软件栈的基础,但当今的组织在监控客户互动时面临着差距。CX可观测性的一个主要挑战是客户信号和洞察力分布在多个记录系统中,主要是在非结构化数据中。SupportLogic通过连接不同的数据源、规范化数据、提取信号并进行准确预测来解决这一挑战。现在,这些洞察力可以通过Snowflake AI数据云安全地访问。
SupportLogic正在极大地简化和降低组织减少数据摩擦并启用新用例的成本,包括:

  • 客户健康评分、客户流失风险预测和客户旅程绘制
  • 售后客户营销和数字客户成功自动化
  • 构建业务智能仪表板和内部AI应用程序
  • 在CRM之间进行逆向ETL迁移
    Snowflake客户现在可以利用SupportLogic的专门建模和工作流程,与Snowflake Arctic和Snowflake Cortex一起构建自己的生成式AI模型,以提升工作流程和洞察力。
    SupportLogic的创始愿景一直是解锁客户互动信号并让整个公司受益。SupportLogic数据云进一步减少了摩擦,并启用了一组新的用例,” SupportLogic创始人兼首席执行官Krishna Raj Raja表示。“通过直接建立在Snowflake AI数据云的强大基础上,我们为我们的客户去掉了繁重的工作,将启动售后CX旅程所需的时间和IT资源最小化,从数月缩短到数天。”
    SupportLogic Data Cloud建立在SupportLogic和Snowflake之间强大的集成基础之上。许多领先的数据基础设施和商业智能软件公司,包括Salesforce、Snowflake、Databricks、Qlik、Tableau、Alteryx、Fivetran等,已经在使用SupportLogic来监控他们的客户互动。
    SupportLogic SX支持Salesforce Service Cloud、Zendesk、Freshdesk、Microsoft Dynamics、ServiceNow CSM和ITSM以及Atlassian JIRA开箱即用。此外,该平台提供了一个模式无关的数据导入器,允许您连接到部署在本地或云端的任何数据库。SupportLogic SX从工单数据、语音和聊天会话中提取信号,并使组织能够主动保护其客户体验,并了解客户的声音,而无需依赖于被动调查。
    SupportLogic Data Cloud现在可供购买。更多信息,请访问SupportLogic Data Cloud。我们邀请Snowflake Data Cloud Summit的参会者到booth#1528参观SupportLogic。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

技嘉在 COMPUTEX 重新定义 AI 进化

著名的技术研发能力使得技嘉科技在 COMPUTEX 上以“ACCEVOLUTION”为主题展示其产品和解决方案,赞誉加速计算和 AI 时代的到来。图片{ width=60% }


AI 仍然是一个主要趋势,吸引了包括 COMPUTEX 历史上最高数量的 CEO 在内的行业领袖。为了庆祝这一事件,在 COMPUTEX 期间,台北 101 大楼将被点亮,技嘉将于 6 月 4 日晚上 6:30 至 10:00 点点亮它,促进 AI 事件并欢迎国际客人。

全球芯片开发领域的重要领导人将参加 COMPUTEX,旨在在 AI 时代巩固影响力并加强与台湾供应链的联系。技嘉作为这一行业的重要组成部分,荣幸地邀请这些 CEO 到其展台探索最新技术。技嘉的产品线涵盖整个 AI 生命周期,具有行业领先的技术和灵活的服务器解决方案。这些产品旨在满足未来计算需求,配备先进的冷却解决方案,并将在 COMPUTEX 上前所未有的规模展示。此外,技嘉还将展示荣获 Red Dot 奖的 PC 产品、新产品演示以及针对玩家和创作者的 AI 体验。

技嘉始终是最快推出最多样化的 AI 服务器的厂商之一。今年,以其高密度特性和灵活设计而闻名的 G593 旗舰 AI 服务器系列将展示,支持 NVIDIA 的下一代芯片 H200 和 B100,以及为 AMD 的 MI300X 设计的模型。展示还将展示基于 NVIDIA 的 MGX 模块化设计的新 X 系列服务器,该设计缩短了开发时间并加速数据中心部署。客户可以选择 AMD EPYC、Intel Xeon x86 CPU 或 NVIDIA Grace Hopper Arm 超级芯片,为特定的计算需求提供定制配置。

大语言模型 (LLM) 在 AI 中变得越来越受欢迎。为处理不断增加的参数数量,技嘉展示了支持 NVIDIA 最新 Blackwell 架构的服务器,采用备受好评的高密度设计,配备强大的 B100 和 B200 超级芯片。B100 兼容 G593 系列硬件,而 B200 的高性能引入了传统空气冷却无法满足的热挑战。技嘉通过采用直接液冷的行业领先热工工程解决了这个问题。备受期待的 GB200 将在液冷柜中展示为 GB200 NVL72,作为一款庞大的 GPU,可实现相当于 30 倍 H100 GPU 推理性能的水平。这不仅让访客能够亲自见证这些创新,还可以参与关于 AI 发展和计算部署未来的讨论。

介绍 GIGA POD,技嘉的一站式机架集成解决方案,借助其 20 多年的服务器专业知识和从 CSP 合作伙伴关系中获得的经验。GIGA POD 是一个完整的系统集成,包括架构规划、设备集成、软件安装和部署后测试。它提供支持 NVIDIA SXM 或 AMD Instinct GPU 或 NVIDIA Superchips 的不同配置的 AI 服务器,并逐渐扩展到未来的顶级 GPU 配备的 AI 服务器。GIGA POD 还是技嘉热工工程的主要展示,将一个 HGX 模块安装在一个空气冷却的 G593 服务器的 5U 机箱中。这种高密度服务器使客户可以选择每个 42U 机架上 4 台 AI 服务器的 9 机架配置或每个 48U 机架上 8 台 AI 服务器的 5 机架配置,实现几乎双倍的利用空间,极大提高资源效率。技嘉还邀请了其集群计算解决方案(GIGA POD)的主要客户之一、欧洲最大的生成式 AI 云服务提供商 Northern Data Group,参加与技嘉子公司 Giga Computing 总经理一起举办的特别活动“与 AI 视野者的高管对话”。现场对话将涵盖合作、成功的关键和对 AI 未来的看法。

AI 发展不仅局限于 GPU 计算,还包括综合数据中心基础设施,包括存储和网络传输。技嘉在热、机械和模块化设计领域的研发专业知识确保了跨 IT 架构的多样化产品范围。在 COMPUTEX 上,技嘉将展示用于云和边缘计算、高性能和高密度存储的服务器。此外,还将展示为中小型企业和个人提供支持 AI 开发的通用服务器主板。技嘉一直在先进冷却解决方案方面处于领先地位,掌握直接液冷和浸液冷的技术。凭借跨领域整合的专业知识,技嘉开发了自己的冷板、 DLC 机架和浸液槽,提供全面的冷却解决方案。在 COMPUTEX 上,技嘉将展示单相浸液冷却、直接液冷和新的后门换热器 (RDHx) 冷却机架。技嘉与 nVent 合作,利用 RDHx 部署了西班牙第三名的超级计算机 Hyperion,使用全机柜服务器配备 RDHx。这样的架构连接到户外冷却器,每小时提供高达 54,000 瓦的散热,降低了空调需求,有效管理计算热点。

技嘉通过工业级嵌入式计算机展示了强大的 AI 模型训练能力和实用的 AI 应用。演示涵盖了配备 AI 启用机器视觉和远程控制的智能工厂,以及利用面板 PC 结合 AI 识别和大数据分析的零售吧。AI 和下一代 CPU/GPU 的进步也增强了智能汽车应用,提升了 ADAS 和车载远程通讯设备的性能。

AI 的崛起正在改变个人计算。技嘉的 Z790 系列主板专为不同场景设计,支持 RTX 40 SUPER 系列显卡,通过增强的核心数量、VRAM 和内存速度实现性能峰值。利用 AI 加速,显卡为专业任务和 AAA 游戏提供出色的计算和图形处理能力,同时为用户准备了新的基于 AI 的应用。AORUS 17X 和 16X AI 笔记本配备了技嘉的 AI Nexus,并具备 AI Boost、AI Generator 和 AI Power Gear,提供了改进的性能、无缝的 AI 生成和持久的电池寿命。在展台的 AI 体验区,访客可以探索最新的 AI 应用和实时交互,包括 NVIDIA ACE 和 ChatRTX,深入了解尖端的 AI 技术。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI增强霍尼韦尔为零售商提供的指导工作解决方案

Hands-free技术与Honeywell Forge架构的洞察力赋予零售员工增加生产率、减少错误并创造优秀客户体验的能力
霍尼韦尔(纳斯达克股票代码:HON)今日宣布更新,将人工智能(AI)和机器学习整合到其指导工作解决方案中,以帮助带来更大的操作效率和更好的购物体验,从而帮助零售商在当今竞争激烈的市场中成功。图片{ width=60% }


Honeywell指导工作解决方案的AI驱动语音技术使得门店员工能够以速度和效率执行任务,如点击收集订单履行、货架补货和退货处理。AI增强解决方案的开发旨在简化零售业务运营,也支持霍尼韦尔对三大引人注目的超级趋势的产品组合调整:自动化、航空未来和能源过渡。
通过将耳机启用的语音指导与构建在Honeywell Forge架构之上的提供洞察力和分析的软件结合,更新后的解决方案可以实时引导门店员工完成工作流程。员工只需通过免提耳机进行交流,然后即可收到具体的指示和确认是否选择了正确的物品。通过整合AI技术,解决方案可以理解员工的语音,即使涉及48种不同语言、各种语调、方言和发音变化。
“零售业地貌发生了重大变革,特别是随着在线购买、线下取货以及高度个性化购物体验等趋势的出现,”霍尼韦尔生产力解决方案总裁戴维·巴克表示。“随着零售商寻求改善运营绩效和增强客户体验的途径,指导工作解决方案是实现这些目标的理想工具。它利用AI技术的优势,使零售员工能够以更高效的方式为门店顾客提供服务。”
Honeywell指导工作解决方案帮助零售商建立竞争优势,通过提高生产率、减少培训时间和减少货架上缺货商品来优化日常运营,从而促进更大规模的实体店销售。自2018年推出Honeywell指导工作解决方案以来,它已帮助零售商提高了超过30%的生产率,相比无线电频(RF)扫描,在产品拣选方面准确率达到99%以上。因此,店铺管理者可以更好地利用有限的劳动力资源,通过节省时间来重新分配他们的工作人员到其他增值活动或在同一时间内增加履行订单的数量。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

技嘉在 COMPUTEX 上重新定义 AI 进化

全球享有盛誉的技嘉科技以“ACCEVOLUTION”为主题,在 6 月 4 日至 6 月 7 日的 COMPUTEX 上展示其产品和解决方案,赞誉加速计算和 AI 时代的新纪元。图片{ width=60% }


AI 仍然是一个主要趋势,吸引了行业领袖,包括 COMPUTEX 历史上最多的 CEO。为庆祝此次活动,台北 101 大楼将点亮 COMPUTEX,技嘉将于 6 月 4 日晚上 6:30 至 10:00 点亮它,宣传 AI 活动,并欢迎国际客人。

全球芯片开发领域的著名领导者将出席 COMPUTEX,旨在在 AI 时代主张自己的影响力,并加强与台湾供应链的联系。技嘉作为这一行业的重要组成部分,荣幸地邀请这些 CEO 到其展位,探索最新技术。技嘉多样化的产品阵容涵盖整个 AI 生命周期,拥有领先行业的技术和灵活的服务器解决方案。这些产品旨在通过先进的冷却解决方案满足未来计算需求,并将在 COMPUTEX 上以空前规模展示。此外,技嘉还将展示其获得红点奖的 PC 产品、新产品演示以及面向游戏玩家和创作者的 AI 体验。

技嘉一直以最多样化的 AI 服务器最快进入市场而闻名。今年,以高密度特性和灵活设计著称的 G593 旗舰 AI 服务器系列将展示支持 NVIDIA 的下一代芯片 H200 和 B100,以及为 AMD 的 MI300X 设计的模型。展示还将展示基于 NVIDIA MGX 模块设计的新 X 系列服务器,缩短开发时间并加速数据中心部署。客户可以选择 AMD EPYC、Intel Xeon x86 CPU 或 NVIDIA Grace Hopper Arm 超级芯片,为特定计算需求提供定制配置。

大语言模型(LLM)在 AI 中越来越受欢迎。为处理不断增长的参数数量,技嘉展示了支持 NVIDIA 最新 Blackwell 架构的服务器,具有备受赞誉的高密度设计和强大的 B100 和 B200 超级芯片。B100 将与 G593 系列硬件兼容,而 B200 的下一级性能引入了传统空气冷却容量以外的热挑战。技嘉通过采用先进的直接液体冷却解决了这个问题。备受期待的 GB200 也将以 GB200 NVL72 的液冷柜形式展示,作为一个巨大的 GPU,可以实现等量的 H100 GPU 推理性能的 30 倍。这让访客不仅可以第一时间见证这些创新,还可以参与关于 AI 发展和计算部署未来的讨论。

介绍技嘉的一站式机架集成解决方案 GIGA POD,利用其 20 多年的服务器专业知识和从 CSP 合作伙伴那里获得的经验。GIGA POD 是一个完整的系统集成,包括架构规划、设备集成、软件安装和部署后测试。它提供配备 NVIDIA SXM 或 AMD Instinct GPU 或 NVIDIA 超级芯片的不同配置的 AI 服务器,并逐步扩展到未来的顶级 GPU 配备的 AI 服务器。GIGA POD 也是技嘉热工工程的一个主要展示,通过将一个 HGX 模块放入一个 5U 机箱的空冷 G593 服务器中,实现高密度服务器,使客户可以选择每个 42U 机架的 9 个 AI 服务器或每个 48U 机架的 5 个 AI 服务器的配置,实现近乎两倍的利用空间并大大提高资源效率。技嘉还邀请了其集群计算解决方案(GIGA POD)的重要客户、欧洲最大的生成 AI 云服务提供商 Northern Data Group 参加由技嘉子公司 Giga Computing 的总经理主持的“与 AI 有远见的高管对话”特别活动。这次现场对话将涵盖合作、成功的关键以及对未来 AI 的展望。

AI 的发展不仅限于 GPU 计算,还涉及全面的数据中心基础设施,包括存储和网络传输。技嘉在热、机械和模块设计方面的研发专业知识确保在 IT 架构各个领域拥有多样化的产品范围。在 COMPUTEX 上,技嘉将展示用于云计算和边缘计算、高性能和高密度存储的服务器。此外,将展示面向中小企业的通用服务器和面向微型企业和个人的 DIY 服务器主板,支持各种规模的 AI 开发。

技嘉引领先进的冷却解决方案,精通直接液体和浸没冷却等技术。通过跨学科整合的专业技术,技嘉开发了自己的冷板、 DLC 机架和浸没槽,提供全面的冷却解决方案。在 COMPUTEX 上,技嘉将展示单相浸没冷却、直接液体冷却和新的后门热交换器(RDHx)冷却机架。技嘉与 nVent 合作,使用 RDHx 部署了西班牙排名第三的超级计算机 Hyperion,使用具有 RDHx 的整个机架服务器,连接到室外冷却器,每小时提供高达 54,000 瓦的散热量,减少空调需求,有效管理计算热点。

技嘉通过工业级嵌入式计算机展示了强大的 AI 模型训练能力和实用的 AI 应用。演示跨越智能工厂,应用了 AI 的机器视觉和用于远程控制的高稳定性嵌入式计算机,以及利用面板 PC 结合 AI 识别和大数据分析的零售酒吧。AI 和下一代 CPU/GPU 的进步也增强了智能汽车应用,增强了 ADAS 和车载远程信息设备。

AI 的崛起正在改变个人计算。技嘉的 Z790 系列主板针对不同场景设计,支持 RTX 40 SUPER 系列显卡,通过增强的核数、VRAM 和内存速度提供顶尖性能。利用 AI 加速,显卡为专业任务和 AAA 游戏提供卓越的计算和图形处理,同时为用户准备新的 AI 驱动应用。AORUS 17X 和 16X AI 笔记本配备了技嘉的 AI Nexus,具有 AI Boost、AI Generator 和 AI Power Gear,提供改进的性能、无缝 AI 生成和持久的电池寿命。在我们的展位 AI 体验区,访客可以探索最新的 AI 应用和实时互动,包括 NVIDIA ACE 和 ChatRTX,深入了解前沿 AI 技术。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Neo4j 宣布与 Snowflake 合作,实现高级人工智能洞察

Neo4j知识图谱、图算法和机器学习工具已完全整合在Snowflake中 – 无需ETL且无需专业的图形技能
图数据库和分析领导者Neo4jⓇ今天在Snowflake年度用户大会Snowflake Data Cloud Summit 2024上宣布,与Snowflake合作将其完全集成的本地图数据科学解决方案引入Snowflake AI数据云中。图片{ width=60% }


此次整合使用户能够立即执行超过65个图算法,消除了需要将数据移出Snowflake环境的需求,让他们能够利用SQL编程语言、环境和工具来运用先进的图形能力,而这些他们已经熟悉。 
该解决方案为寻求通过图形启用洞察力的客户消除了复杂性、管理障碍和学习曲线,这对于人工智能/机器学习、预测性分析和GenAI应用至关重要。该解决方案拥有行业最广泛的图算法库,用于识别异常和检测欺诈、优化供应链路线、统一数据记录、改进客户服务、提供推荐引擎以及数百种其他用例。任何使用Snowflake SQL的人都可以将更多项目快速投入生产,加快实现价值的时间,并产生更准确的业务洞察,以进行更佳的决策。
Neo4j图数据科学是一种分析和机器学习(ML)解决方案,它能够识别和分析数十亿数据点之间的隐藏关系,从而提升预测能力并发现新的洞察。Neo4j的图算法库和ML建模使客户能够回答诸如什么是重要的、什么是不寻常的、什么是接下来的问题。客户还可以构建知识图谱,其中捕获了实体之间的关系,将LLM建立在事实基础之上,并使LLM能够更准确有效地推理、推断和检索相关信息。Neo4j图数据科学的客户包括 Boston Scientific、Novo Nordisk、OrbitMI和Zenapse等众多企业。
“到2025年,图形技术将在数据和分析创新中占80%的市场份额 — 远高于2021年的10% — 有助于企业快速做出决策,”Gartner® 在其Emerging Tech Impact Radar: Data and Analytics 2023年11月20日报告中预测道。Gartner还指出,“数据和分析领导者必须利用大型语言模型(LLMs)与知识图谱的健壮性相结合,以用于容错的AI应用,”在2023年11月发布的关于知识图谱和生成式AI的AI设计模式报告中。
Neo4j与Snowflake:新的功能和优势
企业可以在Snowflake中原生地掌握和扩展其安全、受管制的数据,并搭配Neo4j的图分析和推理能力,以进行更高效和及时的决策制定,从而为客户节约时间和资源。
即刻算法。联合客户可以使用SQL构建知识图谱,直接在Snowflake中运行超过65个Neo4j图算法,包括易于使用的机器学习工具。Neo4j的库作为Snowflake内部的本地服务提供。图算法作为SQL函数提供,使用户能够轻松地增强ML流水线,带有影响者评分、社区标识符、页面排名、离群值和其他图特性,以提高ML的准确性。无需ETL(提取、转换、加载)。客户可以在Snowflake环境内完全访问和运行Neo4j庞大的图算法库,无需经历采购和安全签署流程,将其数据转移到另一个SaaS提供商。无需经历提取、转换和加载数据到另一个数据库和提供商的痛苦过程,即可使用现有数据,简化了安全和数据工作流程,消除了数据准备方面的开销。熟悉的语言和工具。客户从中获益,作为工具集和环境的一部分,他们已经熟悉。数据科学家和开发人员可以在其工作流程中使用Snowflake SQL,以简化开发、加快见解时间,并轻松地从其数据中获得更大价值。Neo4j与Snowflake今天宣布的最新Snowpark容器服务(SPCS)一起工作。GenAI 可用。联合客户可以创建知识图谱,并生成利用结构化、非结构化和关系数据的向量。这些功能是Snowflake内部的完整GenAI堆栈的一部分,包括矢量搜索和Snowflake Arctic LLM模型。该结果以更易理解和检索见解的方式组织和表示数据,在GenAI应用中更准确、透明和解释。完全无服务器且灵活。客户只付费所需费用。用户可以从Snowflake SQL无缝创建短暂的图数据科学环境,使他们仅需支付在运行算法期间使用Snowflake积分的Snowflake资源。这些临时环境旨在将用户任务与特定需求配对,以更高效地分配资源和降低成本。图分析结果也能够与Snowflake无缝集成,方便与其他数据仓库表进行交互。

支持语录
Greg Steck, 德克萨斯资本银行(VP 消费者分析)
“在德克萨斯资本银行,我们致力于帮助企业及其领导者取得成功。我们在涉及关系重要性的客户 360 和欺诈用例中使用Snowflake和Neo4j。我们对这一新合作的潜力感到兴奋。能够在Snowflake内使用Neo4j的图数据科学能力将加速我们的数据应用,并进一步增强我们为客户带来长期成功的能力。”
Jeff Hollan, Snowflake 应用与开发平台负责人(Head of Applications and Developer Platform)
“将Neo4j的成熟图数据科学能力与Snowflake AI数据云集成,为我们的联合客户提供了优化其运营的重大机会。我们共同致力于为组织提供提取更深层次见解的工具,以前所未有的速度推动创新,并为智能决策制定设立新标准。”
Sudhir Hasbe, Neo4j 首席产品官
“Neo4j领先的图分析与Snowflake无与伦比的扩展性和性能重定义了客户如何从互联数据中提取洞察力,同时使用户在今天所处的SQL接口中。我们的内置Snowflake集成赋予用户轻松地充分发挥AI/ML、预测性分析和生成式AI的潜力,用于提供无与伦比的洞察力和决策敏捷性。”
这些新功能现已提供预览和早期访问,今年晚些时候将在Snowflake市场上正式推出。有关更多信息,请阅读我们的博客文章 或 联系我们 以预览 Neo4j 在 Snowflake AI 数据云上的情况。
要了解更多有关组织如何在Snowflake上构建下一代应用的信息,请点击 这里。
GARTNER 是 Gartner, Inc. 及其在美国和国际上的附属公司的注册商标和服务商标,经授权在此处使用。保留所有权利。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Western Digital推出AI数据循环存储框架

公司将不断增长的企业级SSD和HDD组合优化,以支持AI数据循环中的关键工作负载
为推动下一波AI创新,西数(Western Digital,纳斯达克股票代码:WDC)今天推出了一个包括六个阶段的AI数据循环框架,为规模化AI工作负载定义了最佳存储组合。图片{ width=60% }


该框架将帮助客户规划和开发先进的存储基础设施,以最大程度地利用其AI投资,提高效率,并降低其AI工作流的总体拥有成本(TCO)。
AI模型在持续循环的数据消耗和生成中运行 – 处理文本、图像、音频和视频等其他数据类型,同时生成新的独特数据。随着AI技术变得更加先进,数据存储系统必须具备足够的容量和性能,以支持大型、复杂模型所需的计算负载和速度,并管理庞大的数据量。西数已将其Flash和HDD产品与技术路线图战略地与循环的每个关键阶段的存储需求保持一致,今天推出了一个新的行业领先的高性能PCIe® Gen5 SSD,以支持AI训练和推断;一个高达64TB的高容量SSD,用于快速AI数据湖;以及对于大规模成本效益存储而言是全球容量最大的ePMR,UltraSMR 32TB HDD。
观看:AI数据循环视频
“毫无疑问,生成式AI是下一个变革性技术,而存储是一个关键的推动者。存储的影响和对数据的访问速度,将影响AI模型的速度、效率和准确性,特别是随着更大规模和更高质量的数据集变得更加普遍时”,IDC的研究主管Ed Burns表示。“作为Flash和HDD领域的领导者,西数有机会从其强劲的市场地位和广泛产品组合中受益,以满足不同AI数据循环阶段内的各种需求。”
“数据是AI的动力。随着AI技术在几乎每个行业领域得到嵌入,存储已经成为AI技术堆栈中一个日益重要且动态的组成部分”,西数闪存业务部执行副总裁兼总经理Rob Soderbery表示。“新的AI数据循环框架将使我们的客户能够构建一个影响AI应用性能、可扩展性和部署的存储基础设施,彰显了我们提供卓越价值给客户的承诺。”
用于计算和存储密集型工作负载的增长套件企业AI存储解决方案
新的Ultrastar DC SN861 SSD是西数首款配备行业领先的随机读取性能和预计在AI工作负载下拥有最佳功耗效率的企业级PCIe Gen 5.0解决方案。容量高达16TB,它可以提供比上一代高达3倍的随机读取性能增加,具有极低的延迟和令人惊叹的响应速度,适用于大语言模型(LLM)训练、推理和AI服务部署。此外,低功耗配置提供更高的IOPS/Watt,降低了总体TCO。增加的PCIe Gen5带宽满足AI市场对高速加速计算和延迟低以服务AI计算密集型环境的不断增长需求。专为关键任务工作负载打造,Ultrastar DC SN861提供了丰富的功能集,包括NVMe® 2.0和OCP 2.0支持,1和3 DWPD以及5年有限保修。Ultrastar DC SN861 E1.S目前正在抽样。U.2将于本月开始抽样,并将从2024年第三季度开始进行批量发货。E1.S和E3.S尺寸的更多细节将于今年晚些时候公布。
作为Ultrastar DC SN861的补充,扩展的Ultrastar DC SN655企业级SSD系列专为存储密集型应用而设计。U.3 SSD的新选择将达到高达64TB的容量,为AI数据准备和更快、更大数据湖提供更高性能和容量。这些新的DC SN655变体目前正在抽样。更多关于这些驱动器的详细信息将在今年稍后开始的量产时发布。
西数目前也正在向部分客户提供32TB ePMR企业级HDD中全球容量最高的样品。设计用于超大规模云和企业数据中心中的海量数据存储,新的Ultrastar DC HC690高容量UltraSMR HDD将在AI工作流中发挥重要作用,特别是在需要大规模数据存储和低TCO的情境下。利用来自几代极为成功产品的成熟设计,新的32TB驱动器提供无与伦比的容量,经过无缝的验证和集成,可快速部署,同时保持卓越的可靠性和可靠性。有关这个驱动器的更多详细信息将在今年夏天稍后公布。
“AI数据循环的每个阶段都是独特的,拥有不同的基础设施和计算需求。通过了解AI和数据存储之间的动态相互作用,西数正在提供不仅提供更高容量,而且还量身定制以支持下一代AI工作负载极端性能和耐用度的解决方案”,Soderbery表示。“通过我们不断增长的产品组合、长期路线图和不断创新,我们的目标是帮助客户释放AI的变革能力。”。请先将这篇文章翻译为中文,Title部分内容需要翻译为中文。最后只需要输出为Makedown源文件格式内容。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

优步和Lyft达成协议提高司机工资,这是大科技公司的又一次胜利

在上个月明尼阿波利斯市议会宣布与优步和Lyft达成协议,增加司机工资并改善工作条件时,到底谁获得了胜利?5月20日,市议会宣布与这两家网约车公司达成妥协。


优步和Lyft将同意将司机的工资地板与明尼苏达州15美元/小时的最低工资水平相匹配。一些立法者称赞这是对司机的提高20%的工资,“然而,与过去两年间提出的几乎所有提案相比,这项协议的工资水平要低得多,这两年间,优步、Lyft及其司机与立法者之间进行了激烈的斗争。”司机经常会被不透明算法任意解雇(”取消资格”),现在他们可以对解雇提出上诉。这项协议还为“非营利司机中心”的司机权利教育提供资金。最宝贵的或许在于扩大了网约车司机的保险覆盖范围达到100万美元,包括行程结束后的那段时间,这将帮助司机支付在遭受袭击或事故后的医疗费用和失去收入。然而,这项协议保留了数字网约车模型的核心部分,使优步和Lyft能够继续运营并在后期破坏该妥协。

在与这项协议展开为期两年的冲突中,网约车司机团体展示力量,游说议员,甚至与优步进行谈判。优步和Lyft多次威胁进行资本罢工,承诺三次离开该州,以此抗议拟议立法。每次这两家公司都让政治受到伤害:第一次的威胁说服州长蒂姆·沃尔兹在2023年5月通过他的首次否决杀死了一项议案;第二次促使明尼阿波里斯市市长雅各布·弗雷在当年8月否决了市议会通过的一项法令;第三次是在弗雷再次否决了一项法令后,被市议会推翻。
威胁资本罢工让这些公司限制了我们的政治视野,同时增强了他们自己的地位。我们辩论司机工资水平,他们却无情地破坏了这一点,从而使我们分散注意力,远离他们不成比例的结构性权力。城市预先削弱了它们的抱负,顾客推理出了更高的价格,而司机则将自己的命运置于边缘性的改善之中。

那么谁是真正的赢家?一种同情的说法是司机取得了立即的胜利。如果优步和Lyft离开该州,司机的工资将变为零。一项让司机继续工作并赚取更高工资的协议使他们有可能继续争取更好的待遇。数字网约车模型的两个关键支柱不断降低司机的工作条件:一是将司机误分类为承包商以降低劳动成本,二是工人、监管者和公司之间的信息不对称。明尼阿波利斯的协议两项都未解决,但放弃数据透明性特别是确保工作条件将因伊琳娜·迪索干膜法(劳工民族志学家,加州大学尔湾分校法学教授)所称的“算法工资歧视”而恶化。利用持续的工人监视,优步和Lyft等公司计算出每位司机为提取最大价值所需的最低支付水平。迪索尔观察到,即使工作是一样的,“完全不可预测且不透明的方式”计算出了一名司机的劳动价值。随着可预测性的消失,任何公平的概念都会消失,工人被算法欺骗,赌上被指派工作是否值得发生的费用,时间更长,条件更差也变得更正常。仅有工资地板是不足以对抗这一动态的。

放弃数据透明性将在法案中留下一个巨大的漏洞。据称,优步和Lyft游说以阻止对每次行程最低收入的任何担保。相反,网约车公司将为那些平均收入低于最低工资标准的司机在两周的支付周期内支付额外费用。虽然该法案在司机端规定了支付透明度,但它放弃了法令对明尼阿波利斯规定网约车公司定期和无限制地向明尼阿波利斯披露数据的要求。

纽约市引入了一个每小时净收入为17.22美元的工资地板后,优步和Lyft采取了引入分等定额制度并强制禁止停工的方式,这种方式是雇主拒绝雇员工作,直到他们接受新条件的强制性策略。司机被迫工作时间较长,以获得在高峰时段安排工作的优先权-每天完成的越多的行程,司机在排班高峰时段的机会就越大。未能满足指标要求的司机根本不能使用这些应用程序。该项目对公司来说是一个巨大的成功。该项目在2019年6月至2020年3月的第一阶段迫使每个平台清退了8000名司机,这归功于故意恶化的劳动条件。

被误分类,没有基本保护,并由广泛监视推动的算法管理,司机住在车里,全力以赴以谋求生计,即使有了工资地板也是如此。

按需劳动模式的核心是保持这些公司、乘客、司机和城市之间不平衡的权力动态。任何回避关于司机误分类、数据提取和算法管理问题的协议,充其量是暂时的。

优步和Lyft非常擅长将辩论和提案简化为表面的处理。顺其自然的诱惑是可以理解的;加州大学伯克利分校最近的一项研究发现,美国主要大都市区域的司机始终挣扎于微薄的工资-他们现在需要救济。然而,优步和Lyft在避开数十亿美元的商业税、改变劳动法和控制应对自己的监管机构方面取得的成功,表明这些公司将永远找到变通的办法。我们被引导相信别无选择,政策提案-市有或州有网约车、扩大公共交通-将屈服于失望。

事实上,数字网约车模式本质上是有缺陷的。它效率低下、昂贵、剥削性和歧视性。没有一个不需要放松监管的市场、高昂的投资者补贴和一个庞大的政治机器来维护它就无法运行。在几乎每个被允许其发酵的城市,叫车服务已经降低了城市公共交通的质量,导致拥堵和污染大幅增加,并在其他行业中恶化了工作条件。这一切的目的是什么?是赢得一些贪婪者,他们收割数十亿美元,同时把每一项可能的成本都转嫁给公众。

不久的将来,肯定会有另一次资本罢工。网约车通过将司机误分类和剥削他们直到他们反抗来剥夺司机的尊严。下一次,它会以另一个“妥协”告终,留下这种策略的核心仍未受影响吗?还是我们最终会拒绝这种设捐交易,冒险尝试一些新的东西,以换取这些寄生虫公司对数不清的城市、乘客和司机的人质?

探索更多相关主题:科技、交通政策、Uber、Lyft、明尼阿波利斯

转载,请注明出处。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB