Cybernetix Ventures and PRN strategically partner

Cybernetix Ventures is participating in the Agriculture & Robotics Summit, where agriculture market leaders are meeting with robotics innovators to solve industry pain points.

Cybernetix Ventures, the leading early-stage venture capital firm focused on robotics, automation, and industrial AI, today announced a strategic partnership with the Pittsburgh Robotics Network (PRN), as part of the firm’s long-term robotics cluster engagement efforts. The partnership is a joint initiative to set Pittsburgh’s robotics startups up for success and bring more of the cluster’s investable robotics opportunities to global markets.

Founded in 2021, Cybernetix works with robotics clusters around the world to elevate the most promising robotics founders and startups to the global stage, connecting them to the firm’s diverse ecosystem of potential customers, later-stage investors, financial institutions, and acquirers. Cybernetix will join forces with the Pittsburgh Robotics Network as a Leader Premier Partner and provide their advisory to its startups.

“The Pittsburgh Robotics Network is one of the top robotics clusters in the U.S., with a powerhouse team and strong robotics innovators emerging,” said Fady Saad, Founder & GP of Cybernetix Ventures. “Like our firm, the PRN is focused on markets-driven, actionable, scalable use cases for robotics. We are excited to amplify their efforts and connect the cluster further with the larger investment community.”

“Cybernetix Ventures is a premier investment firm for robotics, and this partnership represents a unique opportunity for not only robotics companies but for accelerating the commercial adoption of robotics solutions overall,” said Jennifer Apicella, Executive Director of the Pittsburgh Robotics Network. “Both Cybernetix Ventures and the PRN share a set of aligned values that promise to bring significant benefits to robotics companies on the path to commercialization. We admire their unique expertise and understanding of how robotics will directly contribute to the advancement of specific industries, both now and into the future.”

The partnership announcement comes alongside The Agriculture & Robotics Summit, where the Pittsburgh Robotics Network is welcoming agriculture innovators, investors, and industry to the city to explore the future of smart agriculture. Cybernetix, which has focused on vertical robotics applications in manufacturing, logistics, construction, and healthcare since its inception, is participating in the event as a launchpad for their new expanded focus on agriculture and climate robotics.

“The new use cases and overall necessity for robotics innovation in agriculture have accelerated the sector’s investment potential, and we will explore investments in agriculture and climate robotics to add to our solid portfolio,” said Saad. “The work the Pittsburgh Robotics Network is doing to bring the industry’s largest customers together with the brightest minds in robotics is exactly in line with how we like to approach robotics business building at Cybernetix.”

Explore AITechPark for the latest advancements in AI, IoT, Cybersecurity, AITech News, and insightful updates from industry experts!


感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Core Solutions launches Symptom Tracking AI

新的人工智能解决方案评估数据集,以识别行为健康症状并将其与相关诊断联系起来。图片{ width=50% }


Core Solutions, Inc.(Core)很高兴宣布推出Core Clinician Assist: Symptom Tracking,这是Core创新行为健康人工智能(AI)解决方案的最新成员。Symptom Tracking工具利用AI评估大型数据集以识别行为健康症状,然后将这些症状与相关诊断联系起来,使提供者能够随时间衡量护理并执行基于证据的可行洞察。
Symptom Tracking旨在支持基于测量和价值的护理,在存在40%人口具有未满足的行为健康需求的医疗环境中尤为有帮助。Symptom Tracking为健康计划、健康信息交换、人口健康管理组织、综合传递系统、初级保健提供者以及任何其他专注于基于测量和价值付款安排的提供者提供了无与伦比的机会,以更好地满足行为健康需求并利用预防护理机会。使用Symptom Tracking,提供者做出更快、更明智的临床决策,从而挽救生命、减少不必要的服务,并显著改善卫生保健交付。
Symptom Tracking利用自然语言处理(NLP)扫描和数据挖掘治疗生态系统中的提供者和其他护理者备注。这款AI解决方案生成了症状趋势和潜在诊断的可视化表示,进一步帮助临床决策。Symptom Tracking的功能可以通过易于实施的应用程序编程接口(API)添加到任何电子健康记录(EHR)或护理管理平台中。
“我们知道,组织需要有效识别和与那些会从行为健康支持和治疗中受益的个体有效接触,这就是我们开发Core Clinician Assist: Symptom Tracking的原因,”,Core战略高级副总裁Michael Lardieri, LCSW说。“这是一个提供及时准确信息的强大工具。这加强了护理口径并支持预防干预,使组织能够更好地定位其行为健康参与方面的努力。Symptom Tracking的采用者取得了显著的投资回报,使解决方案的添加更加有益。”
要了解更多关于Symptom Tracking的信息,请与Core安排会议。
Symptom Tracking还集成在Cx360 EHR中,为Core高度可配置的EHR用户提供了另一个工具,以增强其护理生态系统中的表现。


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。


感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Microsoft投资15亿美元在阿布扎比的G42

在这项战略投资将增强阿联酋作为全球人工智能中心的地位,为合作伙伴和客户提供创新和增长的进一步机会。


G42和Microsoft将合作确保安全AI技术和云能力的好处得到负责任地与全球新兴经济共享。Microsoft的副主席兼总裁Brad Smith将加入G42董事会。两家公司将支持为开发人员建立10亿美元基金。该合作包括一项首创的政府间保障协议,因为双方承诺遵守AI安全和安全方面的世界领先标准。

总部位于阿联酋的领先人工智能(AI)技术控股公司G42今天宣布,Microsoft向G42投资15亿美元。这项投资将加强两家公司在将最新的Microsoft AI技术和培训计划引入阿联酋及全球其他国家方面的合作。作为这一扩展合作的一部分,Microsoft的副主席兼总裁Brad Smith将加入G42董事会。

这一扩大合作将使各类机构在新市场中利用AI和云的好处,并确保他们采用符合世界领先安全和安全标准的AI。

在两家组织长期合作进行AI和数字化转型计划的基础上,Microsoft的投资加深了双方对这一战略伙伴关系的相互承诺。G42将在Microsoft Azure上运行其AI应用和服务,并合作向全球公共部门客户和大型企业提供先进的AI解决方案。G42和Microsoft还将共同努力,将先进的AI和数字基础设施带到中东、中亚和非洲国家,为这些国家提供服务的公平获取以解决重要的政府和业务问题,同时确保最高标准的安全和隐私保护。

G42主席泰努恩·本·扎耶德·阿勒纳哈扬说:“Microsoft对G42的投资标志着我们公司增长和创新道路上的一个关键时刻,表明了两家组织在愿景和执行上的战略一致性,体现了对全球合作和共进的共享价值和愿景。”这一合作还将支持发展训练有素、具有多样性的AI人才队伍,这将推动阿联酋和更广泛地区的创新和竞争力,通过向开发人员投资10亿美元。

“我们两家公司不仅将在阿联酋合作,还将把人工智能和数字基础设施和服务带到服务不足的国家,”Microsoft副主席兼总裁Brad Smith说。“我们将结合世界一流技术和世界领先的安全、可信和负责任的AI标准,与阿联酋和美国政府密切协调。”此商业合作得到双方政府的保证,是通过协议来应用世界一流最佳实践,以确保AI的安全、可信和负责任的开发和部署。Microsoft和G42将紧密合作,提高其联合国际基础设施的安全性和合规性框架。双方公司将继续致力于遵守美国和国际贸易、安全、负责任的AI和商业诚信法律法规。这些领域的工作受G42和Microsoft之间的详细政府间保证协议(IGAA)的监管,该协议是在与阿联酋和美国政府的密切协商下制定的。

G42集团首席执行官肖捧说:“通过Microsoft的战略投资,我们正在推动规模化交付尖端AI技术的使命。这一合作极大地加强了我们的国际市场存在,将G42独特的AI能力与Microsoft强大的全球基础设施结合起来。我们一起不仅拓展了我们的运营视野,还为创新制定了新的行业标准。”

Microsoft公司企业副总裁兼中东、非洲和中东欧总裁Samer Abu-Ltaif补充说:“我们对G42的投资证明了阿联酋及更广泛地区蓬勃发展且充满活力的科技景观。这一战略合作伙伴关系定位良好,将激发我们的客户和合作伙伴的机遇,加速创新并推动经济增长。与G42一起,我们将引入尖端技术,以驱动国家和市场通过利用云和AI的力量推进其数字议程。”

G42和Microsoft之间的合作在过去一年中取得了几个里程碑。包括去年四月宣布的一项联合计划,旨在开发为公共部门和行业量身定制的AI解决方案,借助Microsoft广泛的合作伙伴生态系统和云能力。去年九月,两家公司达成协议,引入主权云产品,并合作解锁Azure公共云平台上先进人工智能功能的潜力。最后,在去年十一月,Microsoft宣布G42的Jais阿拉伯大语言模型已在新的Azure AI云模型即服务产品中提供。

探索AITechPark,了解人工智能、物联网、网络安全、人工智能新闻以及行业专家的深入见解!


感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Oracle and Reka collaborate to advance AI Innovation

Reka 的多模态和多语言语言模型将在 Oracle Cloud Marketplace 上提供
企业客户现在可以部署融合文本、图像和视频输入的生产就绪 AI 模型
人工智能研究和产品公司 Reka 选择了 Oracle Cloud Infrastructure (OCI) 来支持其推动科学进步并为人类和企业构建生成式 AI 模型的使命。图片{ width=50% }


与 Oracle 合作,Reka 还将在 Oracle Cloud Marketplace 上提供其多模态模型,支持超过 20 种语言,并在由 NVIDIA GPU 提供支持的 OCI AI 基础设施上训练。

“我们正在与 Oracle 合作,将生成式人工智能的威力带给世界各地更多的组织,”Reka 的首席执行官兼联合创始人 Dani Yogatama 表示。“OCI 的高性能 AI 基础设施能力、专门的工程支持和全球范围将继续使我们能够快速、高效地创新和发布新模型。”

由来自 DeepMind、Google Brain 和 FAIR 的一组经验丰富的科学家和工程师创立的 Reka 开发了领先的多模态 AI 模型,使组织能够使用来自多语言文本、代码、图像和视频的输入部署生成式 AI 应用程序。这些应用程序可以生成创意任务的概念,找到各种问题的答案,并从大型数据集中获取见解。此外,Reka 的模型还可以使 AI 代理的开发得以实现,并通过分析和直接操作开启各种新的业务用例。通过与 Oracle 的合作,Reka 计划继续扩大其全球影响力,并推进其对企业级 AI 产品和解决方案的关注。

“Reka 在 OCI Supercluster 上训练其多模态基础模型,推动了性能边界,”Oracle Cloud Infrastructure 的高级副总裁 AI 和数据管理服务 Greg Pavlik 表示。“我们期待与 Reka 团队合作,为世界各地的 Oracle 客户提供其多模态模型,具备超越文本的功能。”

Reka Core 和 Reka Flash 模型将通过 Oracle Cloud Marketplace 提供,Oracle Cloud Marketplace 是 Oracle 和 Oracle 合作伙伴提供的企业应用程序的集中存储库,通过私人提供。

模型建立者借助 OCI 的高性能力量,加速 AI 部署
与许多其他人工智能初创企业和企业一样,Reka 正在利用 OCI 的特定 AI 功能更快、更可靠地构建和训练模型。对于训练大型语言模型(LLM),OCI Supercluster 可以扩展到 4,096 个 OCI 计算裸金属实例,配备 32,768 个 NVIDIA H100 Tensor Core GPU,通过超低延迟 RDMA 集群网络和多种 HPC 存储进行连接。OCI 计算虚拟机和 OCI 裸金属 NVIDIA GPU 实例可以为生成式人工智能、计算机视觉、自然语言处理、推荐系统等应用程序提供动力。Oracle 的专门工程支持团队将与客户一起合作,从规划到发布,确保成功。




感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Kamal Ahluwalia, Ikigai Labs: How to take your business to the next level with generative AI

AI News采访了Ikigai Labs总裁Kamal Ahluwalia,讨论了有关生成AI的一切,包括采用和利用该技术的顶级建议,以及将伦理融入AI设计的重要性。图片{ width=50% }


您能告诉我们一些关于Ikigai Labs的情况以及它如何帮助企业吗?
Ikigai正在帮助组织将稀疏且孤立的企业数据转化为具有预测性和可操作性的见解,使用专门针对结构化表格数据设计的生成AI平台。
企业数据的一个重要部分是结构化的表格数据,驻留在诸如SAP和Salesforce之类的系统中。这些数据驱动整个业务的规划和预测。尽管围绕大型语言模型(LLMs)存在很多激动人心的内容,这些模型非常适用于文本等非结构化数据,但Ikigai专利的大型图形模型(LGMs)是专注于使用结构化数据解决问题的。这些模型是从MIT发展而来。

Ikigai的解决方案特别关注于时间序列数据集,因为企业运行涉及四个关键时间序列:销售、产品、员工和资本/现金。在关键时刻,例如推出新产品或进入新地理位置,了解这些时间序列如何相互关联对于做出推动最佳结果的更好决策至关重要。
您会如何描述当前的生成AI景观,以及您如何预见它将来发展?
吸引人们想象力的技术,如来自OpenAI、Anthropic等公司的LLMs,来自消费者背景。它们在互联网规模数据上进行训练,并且训练数据集只会变得更大,这需要大量的计算能力和存储。训练GPT4花费了1亿美元,预计GPT5将花费25亿美元。

这在消费者环境中运作良好,因为成本可以分摊到一个非常大的用户集合中,有些错误只是训练过程的一部分。但在企业中,无法容忍错误,幻觉不是选项,准确性至关重要。此外,在互联网规模数据上训练模型的成本简直无法承受,而利用基础模型的公司会面临知识产权等敏感数据的泄露风险。

虽然一些公司已经开始构建自己的技术堆栈,以便在安全环境中使用LLMs,但大多数组织缺乏构建自己技术堆栈所需的人才和资源。

尽管存在挑战,企业仍希望获得LLMs提供的体验。但结果必须准确 - 即使数据稀疏 - 还必须有一种方法让机密数据不进入基础模型。降低所有权总成本(包括训练和升级模型的成本、对GPU的依赖以及与治理和数据保留相关的其他问题)是至关重要的。所有这些导致了与我们目前拥有的解决方案非常不同的一套解决方案。
公司如何制定策略以最大程度地利用生成AI的好处?
尽管对大型语言模型(LLMs)及其潜在应用程…(此处省略部分内容)

您最近成立了一个AI伦理理事会。这个理事会上有什么人,其目的是什么?
我们的AI伦理理事会旨在确保我们正在构建的AI技术立足于伦理和负责任的设计。这是作为公司的核心部分,我很荣幸也很荣幸能够与一群如此杰出的个人一起参与其中。我们的理事会包括像Munther Dahleh博士等明显人士,他是麻省理工学院数据系统与社会研究所(IDSS)的创始主任和教授。Aram A. Gavoor是George Washington大学的副院长,也是行政法和国家安全的著名学者。Michael Kearns博士是宾夕法尼亚大学计算机与信息科学的国家中心主席;Michael I. Jordan博士是加州大学伯克利分校电气工程与计算机科学、统计学部门的杰出教授。我很荣幸能与这些尊敬的个人一起在理事会中任职。

我们的AI伦理理事会的目的是解决影响AI发展和使用的紧迫伦理和安全问题。随着AI迅速成为几乎每个行业的消费者和企业的核心,我们认为将负责任的发展置于优先位置是至关重要的,不能忽视伦理考虑的必要性。该理事会将每季度召开会议,讨论重要主题,如AI治理、数据最小化、保密性、合法性、准确性等。在每次会议结束后,理事会将发布关于组织应该考虑的行动和下一步行动的建议。作为Ikigai Labs致力于道德AI部署和创新的一部分,我们将执行理事会建议的行动。

Ikigai Labs去年8月获得了2500万美元的资金。这将如何帮助发展公司、其提供和最终客户?
我们的核心团队以麻省理工学院为基础,具有强大的研究和创新基础,因此这次的资金重点用于使解决方案更加稳固,并引入与客户和合作伙伴合作的团队。

我们可以解决许多问题,但专注于通过时间序列超级应用解决一些有意义的问题。我们知道每家公司都在运行四个时间序列,所以目标是深入而迅速地覆盖这些方面:例如销售预测、消费预测、折扣预测、产品淘汰、目录优化等。我们对将GenAI用于表格数据交付给尽可能多的客户充满期待。

Kamal 将于2024年6月5日参加在圣克拉拉举行的AI & Big Data博览会的“要克服的障碍:人员、流程和技术”专题讨论会。您可以在这里找到所有详细信息。

想要从行业领袖那里了解更多关于AI和大数据的信息?请查看将在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data博览会。这一综合性活动与其他领先活动共同举办,包括BlockX、Digital Transformation Week以及Cyber Security & Cloud Expo。探索由TechForge驱动的其他即将举行的企业技术活动和网络研讨会。

标签: 数据、伦理、生成AI、Ikigai Labs、LLM



感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Nasuni帮助客户通过Microsoft Copilot AI解锁数据洞见

组织可以在云中 consnosolidate 数据孤岛,并利用 Microsoft AI 助理与 Nasuni 文件数据平台
今日,领先的混合云存储解决方案提供商 Nasuni 发布了新指南,帮助客户加速集成 Microsoft 领先的 Copilot AI,用于与他们的 Nasuni 管理的数据存储库和操作流程一起使用。

Microsoft Copilot 是跨 Microsoft 应用组合集成的强大人工智能助手,它能理解自然语言,分析数据,并提供智能响应。Nasuni 教育客户,使他们能够创建定制的 Copilot 体验,利用客户的非结构化数据集来解锁更多的业务洞见和收入流。

McKim 和 Creed 的 IT 主管 Charles Douglass 表示:“Nasuni 教育了我们如何使用我们的 Nasuni 数据创建自定义 AI Copilots。我们现在已经创建了一个初始的 Copilot,并期待进一步了解如何优化它,以提供对我们业务中文件的自然语言交互。”

Nasuni 的首席创新官 Jim Liddle 表示:“尽管 Microsoft Copilot 是一个令人难以置信的通用 AI 助手,但当它融入组织特定领域的数据时,其真正的企业价值得以实现。文件数据通常被锁定在孤立的环境中,这使得 AI 成为不可能。通过 Nasuni,客户可以在云端整合他们的数据,然后利用 AI。我们创建了我们自己的 Copilot 聊天机器人,利用我们的 Nasuni 数据,称为 ‘Ask Nasuni’,部署在 Microsoft Teams 环境中供员工进行交互。我们的客户肯定也想要做类似的事情,以利用自己的企业信息。”

Nasuni 文件数据平台使公司可以 consnosolidate 分布在多个位置的数据孤岛到中央云中。然后,在 Nasuni 的指导下,客户可以:

  • 使用 Copilot AI 与 Nasuni 管理的非结构化数据集。
  • 通过教导它使用 Nasuni 数据来构建自定义 Copilot,用于关键工作流程,如销售和/或支持聊天机器人。
  • 通过利用 ‘锁定的’ 机构知识提高员工工作效率。
  • 部署定制化适合公司需求的安全私密 Copilot 实例。

RWDI 的信息技术主任 Marco Accardo 表示:“我们正致力于在 RWDI 中使用 Copilot AI 来进行机构知识的传承。Nasuni 在帮助我们探索这一用例,并期待利用我们 Nasuni 管理的数据中的知识。”

有关企业如何利用 Nasuni 和 Microsoft Copilot AI 的更多信息,请单击此处。您还可以在 4/23 参加即将举行的网络研讨会,

与 Microsoft 的云解决方案架构师 Melody Yin 一起,了解 AI 如何在 Microsoft 生态系统中工作,Copilot Studio 的基础知识,如何通过 Nasuni 等外部数据集提高生产力等。

欢迎浏览 AITechPark,获取 AI、IoT、网络安全、AITech 新闻以及来自行业专家的见解的最新进展!。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。要求输出为 Makedown 源文件格式内容。


感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Tesla asks shareholders to back $56bn pay for Elon Musk rejected by judge

Tesla on Wednesday asked its shareholders to once again approve CEO Elon Musk‘s record-breaking $56b
Tesla on Wednesday asked its shareholders to once again approve CEO Elon Musk‘s record-breaking $56bn pay that was set in 2018, but was rejected by a Delaware judge in January.Tesla to cut 14,000 jobs as Elon Musk aims to make carmaker ‘lean and hungry’Read moreThe compensation includes no salary or cash bonus, but sets rewards based on Tesla’s market value rising to as much as $650bn over the next 10 years. Tesla is now valued at over $500bn, according to LSEG data.Musk’s pay was rejected by Kathaleen McCormick of Delaware’s court of chancery, who termed the compensation granted by the board as “an unfathomable sum” that was unfair to shareholders.The January ruling, which can be appealed, had nullified the largest pay package in corporate America.“We do not agree with what the Delaware Court decided, and we do not think that what the Delaware Court said is how corporate law should or does work,” the board chairperson, Robyn Denholm, wrote in a letter included in the regulatory filing.Trader Joe’s and Starbucks are helping Elon Musk undermine the US government | Steven GreenhouseRead moreJudge McCormick also oversaw Twitter’s July 2022 lawsuit against the entrepreneur when he tried to break his $44bn contract to buy the social media platform.Musk’s compensation for 2023 was $0, the filing showed. The billionaire does not take a salary from the company and is compensated through stock options.“If it is legally advisable, we suggest simply subjecting the original 2018 package to a new shareholder vote,” Tesla said in its filing.The electric automaker also urged its investors in a regulatory filing to approve its decision to move the company’s state of incorporation from Delaware to Texas.Shares of the world’s most valuable automaker were up 1% before the bell.Explore more on these topicsElon MuskTeslanewsShareReuse this content



感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Tesla请求股东支持唐纳德法官驳回的对埃隆·马斯克的价值560亿美元的报酬要求

特斯拉周三要求股东再次批准首席执行官埃隆·马斯克于2018年设定的创纪录的560亿美元报酬,但该报酬被1月份一位特拉华州法官驳回。图片{ width=50% }


这份报酬包括没有薪水或现金奖金,而是基于特斯拉股票市值在未来10年内上升至6500亿美元的奖励。根据伦交所数据,特斯拉现在的市值超过5000亿美元。马斯克的报酬被特拉华州司法法院的凯瑟琳·麦考米克(Kathaleen McCormick)驳回,该法院称董事会授予的补偿“一个难以想象的金额”,对股东不公平。可以上诉1月份的裁决,宣告了美国企业历史上最大的薪酬包。董事会主席罗宾·丹霍姆(Robyn Denholm)在提交的一封信中写道:“我们不同意特拉华法院的决定,也不认为特拉华法院所说的是公司法应该或确实运作的方式。”麦考米克还主持了推特在2022年7月对这位企业家提起的诉讼,当时他试图打破其440亿美元收购这家社交媒体平台的合同。文件显示,马斯克2023年的报酬为零。这位亿万富翁没有从公司领取薪水,而是通过股票期权进行补偿。“如果在法律上是可行的,我们建议简单地让原始的2018年奖励方案重新接受股东投票,”特斯拉在其提交的文件中表示。这家电动汽车制造商还敦促其投资者在文件中批准其决定将公司的注册州从特拉华州迁至得克萨斯州。全球市值最高的汽车制造商的股价在开盘前上涨了1%。了解更多关于这些话题的信息埃隆·马斯克特斯拉新闻分享复用此内容。




感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Hugging Face launches Idefics2 vision-language model

Hugging Face has announced the release of Idefics2, a versatile model capable of understanding and g
图片{ width=50% }


图片
图片
图片
Hugging Face has announced the release of Idefics2, a versatile model capable of understanding and generating text responses based on both images and texts. The model sets a new benchmark for answering visual questions, describing visual content, story creation from images, document information extraction, and even performing arithmetic operations based on visual input.
Idefics2 leapfrogs its predecessor, Idefics1, with just eight billion parameters and the versatility afforded by its open license (Apache 2.0), along with remarkably enhanced Optical Character Recognition (OCR) capabilities.
The model not only showcases exceptional performance in visual question answering benchmarks but also holds its ground against far larger contemporaries such as LLava-Next-34B and MM1-30B-chat:

Central to Idefics2’s appeal is its integration with Hugging Face’s Transformers from the outset, ensuring ease of fine-tuning for a broad array of multimodal applications. For those eager to dive in, models are available for experimentation on the Hugging Face Hub.
A standout feature of Idefics2 is its comprehensive training philosophy, blending openly available datasets including web documents, image-caption pairs, and OCR data. Furthermore, it introduces an innovative fine-tuning dataset dubbed ‘The Cauldron,’ amalgamating 50 meticulously curated datasets for multifaceted conversational training.
Idefics2 exhibits a refined approach to image manipulation, maintaining native resolutions and aspect ratios—a notable deviation from conventional resizing norms in computer vision. Its architecture benefits significantly from advanced OCR capabilities, adeptly transcribing textual content within images and documents, and boasts improved performance in interpreting charts and figures.
Simplifying the integration of visual features into the language backbone marks a shift from its predecessor’s architecture, with the adoption of a learned Perceiver pooling and MLP modality projection enhancing Idefics2’s overall efficacy.
This advancement in vision-language models opens up new avenues for exploring multimodal interactions, with Idefics2 poised to serve as a foundational tool for the community. Its performance enhancements and technical innovations underscore the potential of combining visual and textual data in creating sophisticated, contextually-aware AI systems.
For enthusiasts and researchers looking to leverage Idefics2’s capabilities, Hugging Face provides a detailed fine-tuning tutorial.
See also: OpenAI makes GPT-4 Turbo with Vision API generally available

Want to learn more about AI and big data from industry leaders? Check out AI & Big Data Expo taking place in Amsterdam, California, and London. The comprehensive event is co-located with other leading events including BlockX, Digital Transformation Week, and Cyber Security & Cloud Expo.
Explore other upcoming enterprise technology events and webinars powered by TechForge here.
Tags: ai, artificial intelligence, benchmark, hugging face, idefics 2, idefics2, Model, vision-language


感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Hugging Face launches Idefics2 vision-language model

Hugging Face has announced the release of Idefics2, a versatile model capable of understanding and g
图片{ width=50% }


图片
图片
图片
Hugging Face has announced the release of Idefics2, a versatile model capable of understanding and generating text responses based on both images and texts. The model sets a new benchmark for answering visual questions, describing visual content, story creation from images, document information extraction, and even performing arithmetic operations based on visual input.
Idefics2 leapfrogs its predecessor, Idefics1, with just eight billion parameters and the versatility afforded by its open license (Apache 2.0), along with remarkably enhanced Optical Character Recognition (OCR) capabilities.
The model not only showcases exceptional performance in visual question answering benchmarks but also holds its ground against far larger contemporaries such as LLava-Next-34B and MM1-30B-chat:

Central to Idefics2’s appeal is its integration with Hugging Face’s Transformers from the outset, ensuring ease of fine-tuning for a broad array of multimodal applications. For those eager to dive in, models are available for experimentation on the Hugging Face Hub.
A standout feature of Idefics2 is its comprehensive training philosophy, blending openly available datasets including web documents, image-caption pairs, and OCR data. Furthermore, it introduces an innovative fine-tuning dataset dubbed ‘The Cauldron,’ amalgamating 50 meticulously curated datasets for multifaceted conversational training.
Idefics2 exhibits a refined approach to image manipulation, maintaining native resolutions and aspect ratios—a notable deviation from conventional resizing norms in computer vision. Its architecture benefits significantly from advanced OCR capabilities, adeptly transcribing textual content within images and documents, and boasts improved performance in interpreting charts and figures.
Simplifying the integration of visual features into the language backbone marks a shift from its predecessor’s architecture, with the adoption of a learned Perceiver pooling and MLP modality projection enhancing Idefics2’s overall efficacy.
This advancement in vision-language models opens up new avenues for exploring multimodal interactions, with Idefics2 poised to serve as a foundational tool for the community. Its performance enhancements and technical innovations underscore the potential of combining visual and textual data in creating sophisticated, contextually-aware AI systems.
For enthusiasts and researchers looking to leverage Idefics2’s capabilities, Hugging Face provides a detailed fine-tuning tutorial.
See also: OpenAI makes GPT-4 Turbo with Vision API generally available

Want to learn more about AI and big data from industry leaders? Check out AI & Big Data Expo taking place in Amsterdam, California, and London. The comprehensive event is co-located with other leading events including BlockX, Digital Transformation Week, and Cyber Security & Cloud Expo.
Explore other upcoming enterprise technology events and webinars powered by TechForge here.
Tags: ai, artificial intelligence, benchmark, hugging face, idefics 2, idefics2, Model, vision-language


感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB