特斯拉威胁解雇律所因为教授反对马斯克数百亿美元的薪酬计划

一位公司治理领域的知名教授指控特斯拉威胁解雇其律师事务所,原因是他反对埃隆·马斯克声称拥有高达560亿美元赔偿套餐。


特拉华大学退休教授查尔斯·埃尔森在周一的一份法律文件中称,他为近三十年一直在工作的霍兰德和奈特律师事务所告诉他,特斯拉威胁要结束与该律所的关系,除非他放弃计划向一起股东诉讼提交反对引人争议的支付的法律摘要,在美国历史上属于最大的薪酬奖励之一。
在诉讼中,埃尔森表示,特斯拉试图阻止他的意见纳入行动,理由是声称存在利益冲突,这种做法“既不同寻常又可怕”,是“马斯克透过特斯拉试图通过向一家教授施加严重经济威胁的做法来欺凌一位律师事务所”。
查尔斯·埃尔森补充道:“这不是特斯拉首次威胁解雇雇佣某人令埃隆·马斯克感到不悦而执行其工作的律所。”他称自己在得知特斯拉的威胁后辞职,“以保护该律所免受报复,并捍卫学术自由的重要原则”。
霍兰德和奈特否认受到特斯拉的压力,并称他们“确定查尔斯·埃尔森的提议行为与该律所对其客户的义务不一致”,并否认受到特斯拉的胁迫或威胁。
这场法律纠纷是近期冲击特斯拉和马斯克努力推动其由特斯拉董事会授予的数十亿美元薪酬套餐计划面临的最新挑战。特拉华州法庭法官凯瑟琳·麦科密克上个月发现,特斯拉某些董事缺乏对马斯克的独立性,股东“未被充分告知”,该计划的批准结果于“不公平交易”,并且计划中的补偿金额就是一个“不公平价格”。
特斯拉随后表示计划进行新的股东投票来恢复马斯克的薪酬,而埃尔森认为这是不允许的。他对法庭提交第二个意见的建议引发了,他在法庭文件中声称,特斯拉要解雇该律所的威胁。他说,所声称的利益冲突并不成立,因为他在霍兰德和奈特所中不是律师,而是顾问,并且是作为法庭朋友而行事。

马斯克声称拥有560亿美元的特斯拉赔偿金,而此时这家电动车制造商正努力维持销售。特斯拉在2023年全球交付了超过180万辆汽车的纪录,但面临来自其他汽车制造商的增加竞争和纯电动汽车需求下降的挑战。公司称在2024年前三个月交付了386,810辆汽车,比去年同期销量减少了近9%。
马斯克威胁将特斯拉的公司上市地点移到现在所在的得克萨斯州,以避开特拉华裁决,并威胁表示除非公司提出一项新的薪酬计划,否则将在特斯拉之外建立产品。

Wedbush Securities分析师丹·艾夫斯表示,这一威胁是“潜在风险”,对特斯拉股价构成“巨大阻碍”,今年下跌约三分之一
特斯拉董事长罗宾·德霍尔姆上个月致函股东称,马斯克已经实现了增长,并达到了特斯拉股东批准的2018薪酬套餐协议中规定的股价和运营目标。
德霍尔姆表示,特拉华法院“质疑了您的决定”,马斯克在过去六年没为特斯拉的工作得到任何报酬。“这对我们以及我们已经听到声音的许多股东来说是基本不公平的,不符合那些为其投票的股东的意愿”,她补充道。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Intel’s Aurora achieves exascale to become the fastest AI system

Intel正在与Argonne国家实验室和惠普企业(HPE)合作,透露其Aurora超级计算机已超过exascale计算阈值,达到了1.012 exaflops的速度,成为最快的人工智能系统。图片{ width=50% }


Intel数据中心AI解决方案的副总裁兼总经理Ogi Brkic表示:“Aurora超级计算机超越exascale将使其打开通往明天发现之路。从了解气候模式到揭开宇宙的奥秘,超级计算机是我们迈向解决那些可能改善人类生活的真正困难科学挑战的指南。”
Aurora不仅在速度上表现出色,而且在创新和实用性方面也表现出色。作为一个以人工智能为中心的超级计算机,Aurora使研究人员能够利用生成式人工智能模型,显著加速科学发现。
Aurora已经取得了突破性的工作,包括绘制人类大脑的80亿个神经元、运用深度学习增强高能物理和通过机器学习加速药物设计与发现。
Aurora的核心是Intel数据中心GPU Max系列,基于创新的Intel Xe GPU架构构建,针对AI和HPC任务进行了优化。这种技术基础实现了并行处理能力,对处理复杂的神经网络人工智能计算至关重要。
有关超级计算机的细节突显其巨大规模,包括166个机架、10,624个计算刀片、21,248个Intel Xeon CPU Max系列处理器和63,744个Intel数据中心GPU Max系列单元,使其成为全球最大的GPU集群。
除了硬件外,Intel的一系列软件工具 - 包括Intel® oneAPI DPC++/C++编译器和一系列性能库 - 提升了开发人员的灵活性和系统的可扩展性。
Intel还正在扩展其Tiber Developer Cloud,整合了新的尖端硬件和增强的服务能力,为大规模支持AI模型和工作负载的评估、创新和优化提供支持。
展望未来,预计部署集成了Intel技术的新超级计算机将改变各个科学领域。像CMCC的Cassandra系统将推进气候变化建模,而ENEA的CRESCO 8将支持聚变能源的突破,强调Intel致力于将HPC和AI推动到新的发现和创新领域。
(图片来源:Intel)
另请参阅:Chuck Ros,SoftServe:负责任地提供变革性AI解决方案

想从行业领导者那里了解更多关于人工智能和大数据的知识吗?不妨看看将在阿姆斯特丹、加利福尼亚和伦敦举行的AI & Big Data Expo。这一全面的活动与其他领先的活动同场举办,包括智能自动化会议、BlockX、数字转型周和网络安全与云计算博览会。
在这里探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

SensiML发布第一个完整的开源AutoML解决方案

硬件无关的解决方案支持广泛的边缘处理器和硅供应商,为社区驱动的边缘ML创新奠定基础,包括生成式AI、合成数据生成和边缘学习
SensiML™ Corporation,AI/ML软件领域的领导者,QuickLogic(NASDAQ:QUIK)的子公司,今天宣布通过其热门的Analytics Studio应用程序首次提供完整的开源AutoML解决方案,从而颠覆了TinyML®市场。图片{ width=60% }


如TensorFlow™和PyTorch®等广泛采用的AI库已经采用开源模式,但直到现在,尚未涉及针对物联网边缘设备的全面AutoML开发工具。
AutoML,即自动化机器学习,简化并极大加快了创建机器学习模型的过程。这使得机器学习对于可能没有专门数据科学知识的开发人员更加易于访问。针对物联网微控制器和边缘SoC构建ML模型尤其复杂,因为它需要将数据科学与嵌入式代码优化相结合,以适应内存和计算能力有限的设备。AutoML有助于克服这些挑战。
SensiML的开源开拓性提供承诺为全球IoT设备开发人员提供增强的创造力、创新力和AI代码透明度,并扩大了该市场的规模,ABI Research预计到2027年将达到35亿台AI启用的边缘设备。 SensiML的Analytics Studio为各种IoT边缘设备,如以下实际应用示例,带来了智能感知能力:
分析和指导人类运动和人体工学的可穿戴设备和服装实时维修预测和异常检测传感器,识别并在本地对工厂/工厂机械、泵和阀门中的故障作出反应建筑自动化和安全端点,具有声学事件检测、关键词识别和说话者识别
直到现在,进行通常是他们的第一个AI/ML项目的IoT设备开发人员必须在各种具有不同能力和不明确路线图的专有工具市场中摸索。 SensiML的Analytics Studio开源版本的发布标志着IoT Edge AI软件工具行业的一个重要里程碑,提供了:
平台无关的模型生成:SensiML的插件式、开源架构支持各种MCU、AI/ML加速SoC和AI引擎,激发开发人员的信心,使用灵活的工具构建ML数据集,而不受特定供应商、芯片组或推理引擎的约束。
时间序列传感器输入:支持各种可能的时间序列传感器,如麦克风、加速度计、陀螺仪、IMU、载荷传感器、应变片、PIR传感器等。 输入可以进行混合以获取更复杂的模型,带有传感器融合算法。
快速创新:AI/ML的快速演进要求采用开源方法来利用更广泛的开发者社区专业知识,加速关键创新,如生成式AI、合成数据和边缘学习等进步。
灵活性:Analytics Studio支持多种模型开发机制,从点对点的自动模型生成到无代码的基于GUI的建模,具有完整的管道控制,再到完全基于Python SDK的模型创建。
可扩展性:Analytics Studio提供基本基于特征的模型生成、回归模型、经典ML和深度学习神经网络的模型生成。其丰富的超过80个特征生成器库还包括轻松添加自定义变换、过滤器、特征和分类器的功能,使社区开发人员可以轻松增强模型。
通过过渡到包括开源选项的双授权模型,SensiML正在提供其IoT边缘AutoML解决方案作为建立在七年中积累的基础代码库,以造福更广泛的开发者社区,进行协作改进和贡献。在社区支持下,SensiML希望扩展Analytics Studio,其中包括:
生成式AI模型开发和调整合成数据集增强本地LLM支持从图像和视频数据流识别物体增强边缘模型调整和学习更多MCU、MPU、NPU和GPU集成/优化更多预训练模型模板,适用于实际用例
新用户和现有用户将有灵活性可以选择SensiML的Analytics Studio开源版本或基于相同核心技术的完全托管和支持的SaaS云服务实现。

“四年前,我们的母公司QuickLogic推出了第一个开源eFPGA解决方案,”SensiML的CEO Chris Rogers说道。“我们正在利用这一成功来民主化边缘AI/ML开发,借助我们强大的工具。这一开源倡议将加速边缘AI/ML的采纳,提高最终用户的灵活性,并加速SensiML的SaaS增长和行业合作伙伴不断增长的私标工具价值。”

可用性
SensiML将于今年夏季早些时候推出其公共GitHub存储库和AutoML引擎文档。对于对这一开创性技术感兴趣并希望成为贡献者的开发人员,请注册https://sensiml.com/blog/opensource以接收更新。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

SmarterDx获得5000万美元B轮融资

Series B轮融资将推动产品创新和市场扩张,惠及医院和医疗系统。图片{ width=60% }


SmarterDx,作为收入完整性和护理质量的临床人工智能领军者,今日宣布已成功获得由Transformation Capital领投的5000万美元B轮融资。本轮融资还包括继续投资方Bessemer Venture Partners、Flare Capital Partners和Floodgate Fund,这使得公司迄今为止的总融资额达到7100万美元。此次投资将推动产品创新,为医疗系统创造额外价值,并支持公司的扩张。
SmarterDx于2022年获得种子轮融资,利用独特理解临床推理并提供完全可审计性的临床人工智能,帮助医疗系统弥补其收入完整性差距。临床文档中的小错误或遗漏可能导致遗漏、拒绝或支付不足的索赔。SmarterDx通过对每位患者病历进行第二级审查来纠正这一点,使医院和医疗系统能够保护数百万美元的收入泄漏,并确保护理质量得到准确表达。
SmarterDx的联合创始人兼CEO迈克尔·高博士表示:“SmarterDx将临床数据转化为完全可归因和可操作的见解。在一个很多人工智能解决方案建立在炒作之上、价值定义不清晰并且专注于替代人员的医疗健康领域,这使得我们的产品有别。我们一直致力于赋予临床文档准确性和编码团队捕捉更准确、更完整的患者状况,并使提供者能够专注于患者护理而不是文件工作。”。
通过此次投资,SmarterDx将增加新的临床和财务数据集成,并继续优化其独有算法,为客户识别新的收入和质量机会。SmarterDx为其客户提供的平均每10,000名患者出院净新增收入为200万美元,客户包括美国各地最大的医院和医疗系统。凭借100%的客户保留率、5:1的投资回报率以及98的KLAS客户满意度评分,SmarterDx迅速确立了自己作为医疗保健收入循环解决方案市场领导者的地位。
Transformation Capital的管理合伙人托德·科森斯表示:“在听到市场上极其积极的反馈后,我们寻求与SmarterDx合作。在与领导团队共度时间后,我们知道我们想成为他们故事的一部分。这家公司不仅拥有解决医疗健康长期备受困扰的复杂问题的解决方案,而且他们才刚刚开始。他们的临床人工智能还可以实现更多。我们相信,现代人工智能非常适合理解和自动化我们每年4500亿美元的医疗保健支出的迷宫般的报销和支付制度。”。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

SensiML推出首个完整的开源AutoML解决方案

硬件无关的解决方案支持广泛的边缘处理器和硅厂商,为社区驱动的边缘ML创新奠定基础,包括生成式AI、合成数据生成和边缘学习。图片{ width=60% }


SensiML™公司是物联网领域AI/ML软件的领导者,是QuickLogic(纳斯达克代码:QUIK)的子公司,今天宣布,通过其热门的Analytics Studio应用程序,首次提供用于开发边缘AI/ML应用的完整的开源AutoML解决方案,颠覆了TinyML®市场。目前,开源模型已经盛行于诸如TensorFlow™和PyTorch®等广受欢迎的AI库,但直到现在,尚未涵盖面向物联网边缘设备的全面AutoML开发工具。
自动机器学习(AutoML)简化并极大加快了创建机器学习模型的过程。这使得那些可能没有专业数据科学知识的开发人员更容易接触机器学习。为物联网微控制器和边缘SoC构建ML模型尤其复杂,因为它要求将数据科学与嵌入式代码优化相结合,适用于内存和计算能力有限的设备。AutoML有助于克服这些挑战。
SensiML开创性的开源方案承诺为全球物联网设备开发人员提供增强的创造力、创新性和AI代码透明度,并扩展了该公司对ABI Research预计将在2027年达到35亿台AI启用边缘设备的快速增长市场的接入。SensiML的Analytics Studio为各种物联网边缘设备带来智能感知能力,例如以下实际应用示例:

  • 可穿戴设备和服装,在实时分析和指导正确的人体动作和人体工程学
  • 预测性维护和异常检测传感器,在工厂/工厂机械、泵和阀门中识别并在本地反应故障
  • 建筑自动化和安全端点,具有声学事件检测、关键词识别和说话人识别
    到目前为止,往往需要进行他们的第一个AI/ML项目的IoT设备开发人员不得不翻阅琳琅满目的专有工具市场,这些工具具有不同的能力和不明确的路线图。SensiML的Analytics Studio开源释放标志着物联网边缘AI软件工具行业的一个重要里程碑,提供:
  • 平台不可知的模型生成:SensiML的插件风格、开源体系结构支持广泛的MCU、AI/ML加速SoCs和AI引擎,激发开发者信心,使用灵活工具构建ML数据集,这些工具不局限于特定厂商、芯片组或推理引擎。
  • 时间序列传感器输入:支持所有可想象的时间序列传感器,例如麦克风、加速度计、陀螺仪、IMU、载荷细胞、应变片、PIR传感器等。输入可以混合以用于具有传感器融合算法的更复杂模型。
  • 快速创新:AI/ML的快速发展要求采取开源方法,以利用更广泛的开发者社区专业知识,加速关键创新,例如生成式AI、合成数据和边缘学习的进步。
  • 灵活性:Analytics Studio支持多种模型开发机制,从点对点的AutoML生成模型,到无代码GUI-based建模,提供全流程控制,到完全基于Python SDK的程序化模型创建。
  • 可扩展性:Analytics Studio为基本基于特征的模型、回归模型、经典ML和深度学习神经网络提供模型生成。其丰富的超过80个特征生成器库还包括易于添加自定义转换、过滤器、特征和分类器的能力,使社区开发人员可以轻松增强功能。
    通过过渡到包含开源选项的双许可模型,SensiML正在提供其IoT边缘AutoML解决方案作为一个基础代码库,经过7年的积累,以使更广泛的开发者社区从协作改进和贡献中获益。在社区的支持下,SensiML希望扩展Analytics Studio,包括:
  • 生成式AI模型开发和调优
  • 合成数据集增强
  • 本地LLM支持
  • 图像和视频数据流中的对象识别
  • 加强的边缘模型调优和学习
  • 更多MCU、MPU、NPU和GPU集成/优化
  • 更多预训练模板,用于实际用例
    新用户和现有用户将可以灵活选择SensiML的Analytics Studio开源版本或基于相同核心技术的完全托管和支持的SaaS云服务实施。
    “四年前,我们的母公司QuickLogic推出了第一个开源eFPGA解决方案,” SensiML的首席执行官Chris Rogers说道。“我们正利用这一成功经验,利用我们强大的工具使边缘AI/ML开发民主化。这一开源倡议将加速边缘AI/ML的采用,有利于最终用户的灵活性,并提高SensiML的SaaS增长和行业伙伴名单中日益增长的私有标志工具的价值。”
    可用性SensiML将于今年夏天初启动其公共GitHub存储库和AutoML引擎文档。有兴趣获得更新并成为这一开创性技术的贡献者的开发人员可以在https://sensiml.com/blog/opensource注册。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Leal Health推出面向癌症患者的患者支持平台

公司推出行业首个面向医疗保健提供商和患者的GenAI解决方案,旨在增加医疗保健的获取
Leal Health(“Leal”或“公司”),一家以患者为先的AI动力治疗平台,正在革新患者获取癌症护理的方式,今天发布了首个颠覆性的GenAI单一访问点技术,允许医疗保健提供者(HCP)、照料者和癌症患者了解诊断情况,并确定个性化治疗选择,支持治疗决策过程。图片{ width=60% }


Leal的技术还包括财务援助、日程管理和其他患者支持资源,消除就医障碍。
“随着晚期癌症诊断速度不断加快,患者比以往任何时候都更需要支持。他们希望更好地了解自己的病情,寻找治疗选择,试图获得治疗并应对诊断带来的巨大财务影响,”Leal Health的联合创始人兼首席执行官Tzvia Bader表示。“Leal的下一代平台赋予患者和通常受限的临床支持团队一个单一访问点,在患者治疗旅程的任何时点准确、瞬间地解决这些挑战。”
Leal基于AI的患者参与平台利用其专有的大型语言模型(LLM)与专利的精确医学建模和机器学习能力:
阅读和分析医疗文件,如下一代测序(NGS)和活检报告根据患者独特的医疗条件提供精准治疗选择(临床试验和FDA批准的治疗方案)提供现场GenAI启用的聊天资源,以进一步支持、参与和教育患者确定财务支持选项,以协助支付医药费、交通费、儿童照护等帮助管理测试日程,确保患者始终了解即将进行的测试
Bader补充道:“通过我们在整个患者旅程中获得的专有的、纵向的、真实世界的数据,我们的目标是简化过程、消除目前阻碍获取拯救性癌症护理的障碍。通过这样做,我们还加速了生物制药公司在承诺在患者旅程中采用以患者为中心的方法方面。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

StreamNative宣布推出Ursa

Company has rearchitected Apache Pulsar for a cost-conscious data streaming era
StreamNative, the cloud-native data streaming company founded by the original creators of Apache Pulsar, today launched Ursa, a Kafka-compatible data streaming engine built on top of lakehouse storage. Ursa is advancing Apache Pulsar with added functionality in public and private cloud environments to take data streaming to its next generation.
虽然云计算在过去十年中降低了运营成本,但基础设施成本,尤其是网络成本却有所增加。图片{ width=60% }


对于像数据流和分析这样的技术来说,其中网络成本大约占整个IT支出的80%,优化网络成为许多公司的首要关注点。此外,大多数云供应商对出口流量收费很高,这使得从多个源聚合数据变得更加困难。这些因素的叠加推动了“lakehouse”范式的出现,用于统一批处理和流式传输数据目的地。数据流功能必须不断发展,以满足在大规模云数据平台上构建实时分析的现代需求。
Ursa利用了Apache Pulsar的架构原则和优势,例如将计算与存储分开、无重新平衡的架构设计和云优先存储。然而,Ursa有三个重要更新:
Kafka API兼容性。Ursa与Kafka API完全兼容。这使用户可以无需重写应用程序就能迁移到StreamNative,并继续在完全Kafka生态系统中使用。摆脱ZooKeeper和BookKeeper。用户不再需要管理ZooKeeper,也可以选择取消Bookkeeper以优化成本,从而在现代容器化环境(如Kubernetes)中更容易部署。Ursa利用商品对象存储进行成本效益的数据复制,消除了传统数据流技术中经常出现的过多AZ之间流量。Lakehouse First。Lakehouse是所有分析数据的目的地,而流式数据最终会落入lakehouse中。借助Ursa引擎,数据可以立即以lakehouse格式可用,消除了在Pulsar、Kafka和您的lakehouse之间复杂且昂贵的数据移动。这不仅可以通过其他工具更快、更具成本效益地处理和分析数据,同时也不再需要在不同存储系统之间进行数据分层。使用Delta Lake、Apache Hudi和Apache Iceberg等lakehouse存储格式进行长期保留,将成本降至最低。
我们很高兴看到StreamNative在lakehouse存储中采用Delta Lake格式,这证明了他们在数据管理方面前瞻性的态度。Delta Lake日益增长的流行反映了其强大的功能,而StreamNative对此格式的整合则标志着其用户的显著进步。这一举措不仅增强了他们的产品,还与数据可靠性和可扩展性的行业领先标准保持一致,”Databricks产品管理总监Himanshu Raja表示。
“当我们创立StreamNative时,我们的愿景是在云中提供一项真正现代的数据流服务,利用开源的Apache Pulsar中开创性的架构优势。虽然我们基于Pulsar的初始云服务在行业中是领先的,但我们意识到,要实现我们对于创建成本意识时代的数据流云的愿景,需要重新思考系统架构、运营方式以及用户体验,”StreamNative联合创始人兼CEO郭四杰说。“有了Ursa,我们在几个维度上推进了Pulsar的核心数据流引擎,这代表着StreamNative履行其创造世界顶尖云原生数据流平台的使命迈出了一大步。”
URSA引擎从今天起作为ONE StreamNative平台提供。有关更多信息,请访问下面列出的材料:
StreamNative联合创始人兼CEO郭四杰的URSA博客Lakehouse存储博客帖子Pulsar虚拟峰会EMEA 2004
Pulsar虚拟峰会欧洲2024
今天的发布与Pulsar虚拟峰会欧洲2024同时进行,这是一个致力于Apache Pulsar和消息传递以及事件流社区的活动。会议汇集了国际CTO、CIO、开发人员、数据架构师、数据科学家、Apache Pulsar committer和贡献者以及数据流社区,分享经验,交流想法和知识。
先前的Pulsar峰会活动包括来自思科、Salesforce、Splunk、Verizon Media、Iterable、Yahoo! JAPAN、TIBCO、Intuit等公司的技术负责人、开源开发者、软件工程师和软件架构师共200多场互动会话。这些会议汇集了全球范围内来自AWS、Google、Uber、Microsoft、AMEX、Salesforce、迪士尼、Paypal等顶尖技术、金融科技和媒体公司的3000多名与会者。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

SmarterDx获得5000万美元B轮融资

Series B融资将推动产品创新和市场拓展,惠及医院和健康系统。图片{ width=60% }


SmarterDx,作为临床人工智能在收入完整性和护理质量方面的领导者,今天宣布已获得由Transformation Capital领投的5000万美元的B轮融资。本轮融资还包括来自Bessemer Venture Partners、Flare Capital Partners和Floodgate Fund的持续投资,使累计融资达到7100万美元。此投资将推动产品创新,为健康系统创造额外价值,并支持公司扩展规模。
SmarterDx于2022年获得了种子融资,利用独特理解临床推理并提供完整可追溯性的临床人工智能,帮助健康系统弥补其收入完整性差距。临床文档中的小错误或遗漏可能导致漏报、被拒绝或少付的索赔。SmarterDx通过对每个病人病历进行二级审核来解决这个问题,使医院和健康系统能够保护数百万美元的收入损失,并确保护理质量得到准确反映。
“SmarterDx将临床数据转化为完全可归因和可操作的见解。在一个许多人工智能解决方案建立在炒作之上、价值定义模糊且着重于取代人员的医疗保健领域,这使得我们的产品脱颖而出,”SmarterDx的联合创始人兼首席执行官高曼(Gao)博士说。“我们一直致力于赋予临床文件完整性团队和编码团队捕捉更准确、更完整的病人照片的能力,并使提供者能够专注于病人护理而不是文书工作。”
通过这项投资,SmarterDx将增加新的临床和财务数据集成,并继续优化其专有算法,为客户识别新的收入和质量机会。SmarterDx每10,000名病人出院为客户发现平均每年200万美元的净新增收入,其客户包括美国一些最大的医院和健康系统。作为医疗保健收入周期解决方案市场的领导者,SmarterDx已经迅速确立了自己的地位,客户保留率为100%,投资回报率为5:1,KLAS客户满意度得分为98。
“在听到市场上极其积极的反馈后,我们希望与SmarterDx合作,”Transformation Capital的管理合伙人托德·科森斯(Todd Cozzens)说。“在与领导团队共度时光之后,我们知道我们想要参与他们的故事。这家公司不仅提供了解决医疗保健长期挣扎的复杂问题的解决方案,而且他们刚刚开始。他们的临床人工智能还能实现更多。我们相信,现代人工智能非常适合理解和自动化我们每年4.5万亿美元医疗支出的复杂报销和支付制度,我们认为收入周期管理是下一个重要的医疗科技类别。”。请先将这篇文章翻译为中文,Title部分内容需要翻译为中文。最后只需要输出为Makedown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

零一万物Yi-1.5来了,国产开源大模型排行榜再次刷新

在 OpenAI 发布会的前一天,来自中国的大模型公司零一万物,让开源大模型社区活跃了起来:Yi 大模型家族新成员「Yi-1.5」模型正式开源。

在项目主页可以看到,Yi-1.5 包括一系列预训练和微调模型,分为 6B、9B、34B 三个版本,采用 Apache 2.0 许可证。


图片来源:由GPTNB生成

据了解,Yi-1.5 是 Yi-1.0 的持续预训练版本,使用 500B 个 token 来提高编码、推理和指令执行能力,并在 300 万个指令调优样本上进行了精细调整。

Yi-1.5 模型进步图

与前序模型相比,Yi-1.5 系列模型进一步提升了编码、数学、推理和指令遵循能力。从下方多个基准测试结果可以看出,Yi-1.5 34B 型号的一些指标超过了 Qwen 的 72B,几乎与 Meta Llama 3 的 70B 相当。6B 和 9B 型号也成功超越了 Mistral 的 7B v0.2 版和 Gemma 的 7B 型号。

Yi-1.5 测试结果
Yi-1.5 测试结果2
Yi-1.5 测试结果3
Yi-1.5 测试结果4

在成立一周年之际,零一万物宣布面向国内市场一次性发布了包含 Yi-Large、Yi-Large-Turbo、Yi-Medium、Yi-Medium-200K、Yi-Vision、Yi-Spark 等多款模型 API 接口,保证客户能够在不同场景下都能找到最佳性能、最具性价比的方案,Yi API Platform 英文站同步对全球开发者开放试用申请。

Yi 大模型 API 开放平台

其中,千亿参数规模的 Yi-Large API 具备超强文本生成及推理性能,适用于复杂推理、预测,深度内容创作等场景,每百万 token 的价格是 20 元,是 GPT-4-turbo 的三分之一。

Yi-Large API

Yi-Large-Turbo API 则根据性能和推理速度、成本,进行了平衡性高精度调优,适用于全场景、高品质的推理及文本生成等场景。Yi-Medium API 优势在于指令遵循能力,适用于常规场景下的聊天、对话、翻译等场景;如果需要超长内容文档相关应用,也可以选用 Yi-Medium-200K API,一次性解读 20 万字不在话下;Yi-Vision API 具备高性能图片理解、分析能力,可服务基于图片的聊天、分析等场景;Yi-Spark API 则聚焦轻量化极速响应,适用于轻量化数学分析、代码生成、文本聊天等场景。

Yi 产品API

在发布会上,李开复还宣布,零一万物已启动下一代 Yi-XLarge MoE 模型训练,将冲击 GPT-5 的性能与创新性。从 MMLU、GPQA、HumanEval、MATH 等权威评测集中,仍在初期训练中的 Yi-XLarge MoE 已经与 Claude-3-Opus、GPT4-0409 等国际厂商的最新旗舰模型互有胜负。

Yi-XLarge 初期训练

至此,零一万物已经建立了「双轨模型策略」。

双轨模型策略

近期上线的一站式 AI 工作站「万知」(wanzhi.com/ 微信小程序「万知 AI」)则是零一万物基于世界领先的闭源模型 Yi-Large 所做出的「模应一体」生产力应用。

万知 AI工作站

而对于大众和行业最关心的「大模型落地如何产生价值」的命题,李开复指出,国内大模型赛道的竞跑从狂奔到长跑,终局发展将取决于各个选手如何有效达到「TC-PMF」(Product-Market-Technology-Cost Fit,技术成本 X 产品市场契合度)。大模型从训练到服务都很昂贵,算力紧缺是赛道的集体挑战,行业应当共同避免陷入不理性的 ofo 式流血烧钱打法,让大模型能够用健康良性的 ROI 蓄能长跑。

在李开复博士看来,自研 AI Infra 是零一万物必然要走的路,零一万物也自成立起便将 AI Infra 设立为重要方向,着力于实现计算效率的优化。AI Infra(AI Infrastructure 人工智能基础架构技术)主要涵盖大模型训练和部署提供各种底层技术设施。这也基于一个既定事实,很多大模型公司没有美国大厂的 GPU 数量,因此要采取更务实的战术和战略。

零一万物着力于实现计算效率的优化,经过多方面优化后,零一万物千亿参数模型的训练成本同比降幅达一倍之多。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Rackfinity展示EziBlank

Rackfinity,国际智能技术领军企业和合作伙伴,非常高兴展示EziBlank,一家全球市场领先的数据中心空气流管理解决方案提供商。图片{ width=60% }


Rackfinity致力于与数据中心解决方案领域的领军企业合作并进行推广。EziBlank为各尺寸和需求的公司提供创新、节能的服务器冷却产品。

EziBlank对服务器机柜的创新贡献

数据中心中的空置机架空间会导致热空气重新循环进入设备内部,导致昂贵且有价值的产品过热。这可能会增加能源消耗并有损设备。

EziBlank提供独特的服务器机柜填充面板,阻止热空气重新循环穿过服务器机柜。这些填充面板强制热空气从服务器柜的后部排出,以防止过热。

虽然许多填充面板可能笨重且安装困难,但EziBlank简化了这一过程,并使每个步骤变得简单。

他们的产品易于安装,无需工具,只需点击面板即可轻松冷却服务器机柜。这些面板可以轻松拆开,形成各种尺寸配置,以适应任何服务器机柜,提供额外便利和快速安装。

EziBlank的独特之处

能源成本占运营费用的25%至40%,EziBlank赋予企业提高服务器和水电费效率的权力。

EziBlank拥有广泛的产品选择,包括填充面板,EziBlank墙,刷子解决方案,地板砖等,这些产品可防止关键业务基础设施中的热点和过热现象。

EziBlank简单、经济实惠地优化任何设施的空气流动和能效,无需大量资本投入。这些产品重量轻、耐用,并提供卓越性能和可用性。

Rackfinity致力于向客户提供经过审查的数据中心解决方案推荐

Rackfinity致力于为客户提供最佳的智能技术环境。

EziBlank处于提供数据中心的尖端空气流管理的前沿。因此,Rackfinity自豪地向需要高效服务器机柜空气流解决方案的企业和个人推荐这些产品。

请浏览EziBlank的丰富产品目录,以获得最新的商用服务器机柜和数据中心智能空气流管理解决方案。

要了解有关Rackfinity的更多信息,请访问他们的网站,您可以浏览并找到出色的产品选择,并享受卓越的客户服务。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB