李彦宏名下企业,被港投押宝

香港大基金再次出手,投向生命科学人工智能板块。

6月24日,香港投资管理公司(港投公司)与百图生科(BioMap)签订战略合作协议。


港投公司表示,将为百图生科后续在港发展提供全方位的资源配对和支持,推动香港发展成为国际生物计算港。这是港投公司两周内公布的第二家战略合作伙伴。此次领投也是港投公司首次公开宣布领投项目,具体投资金额和持股比例未披露。

香港投资管理有限公司行政总裁陈家齐(左)与百图生科联合创始人兼首席执行官刘维(右)签署战略合作协议,并由香港特区政府财政司司长陈茂波(中)鉴签。图源:政府新闻处

据悉,港投公司投资百图生科有两个关键人物:一个是港投公司行政总裁陈家齐——作为被称为“港版淡马锡”的港投公司第一任行政总裁;另一个则是前百度风险投资总裁刘维——驰骋风投界20年的“风投老手”。有学者评析称,港投公司问责机制不可或缺,须订立标的亏损上限与负责人撤换制度。

百图生科则承诺,未来优先在香港上市,口径与港投首宗投资的本地科创企业思谋集团一致。

百图生科同日宣布在香港设立旗下首个国际创新中心(BioMap InnoHub),冀望共同加速香港AI for Life Science的生态建设及发展。香港大学、香港科技大学、香港数码港、香港科技园公司作为百图生科的生态合作伙伴,共同出席了创新中心启动仪式。

百图生科

百图生科由百度创始人李彦宏和前百度风险投资总裁刘维于2020年创立,公司致力于结合前沿AI和生物技术,构建了以蛋白质语言为核心的生命科学基础大模型xTrimo平台。

目前已达到千亿参数水平,通过建模生物演化,解码生命规律,为生命科学产业的前沿发现问题带来生成能力。在创新药物设计、靶点发现、蛋白质的从头设计、绿色科技、工业创新、消费升级等领域实现系列突破性成果,从而助力人类健康和社会永续发展。

百图生科亦是特区政府引进重点企业办公室签约落户香港的第二批重点企业伙伴之一。

百图生科创新中心的首个落地项目是“生物计算创新加速计划”(BioMap BioX),该计划预计在未来5年支持50个以上的前沿生命科学早期研发项目,并会优先审核经由香港高等院校和生态合作伙伴推荐的项目。

对于入选项目,百图将利用自身的生命科学大模型xTrimo和AIGP平台技术,为研究者和创业者提供百图生科的技术支持,并帮助他们对接全球旗舰企业和投资者,探索更多应用场景,以加速将研发构想转化为市场化产品、工业化公司,从而令生命科学行业可以像互联网企业一样快速创业和成长。

港投公司

作为港府的开创性尝试,港投公司来头不小,一直备受业界关注。

资料显示,香港投资管理有限公司(HKIC)由香港特区政府全资拥有,由香港特区行政长官李家超在2022年度《施政报告》中宣布成立。按照李家超的阐释,港投的成立“属于破格决定”,其与“抢人才”“抢企业”等一系列政策相辅相成,最终目标不只是赚钱,也是为了香港整体产业发展增加机遇。

自筹备以来,港投公司就被赋予了重大使命——管理在“未来基金”下设立的220亿港元“香港增长组合”、50亿港元“大湾区投资基金”、50亿港元“策略性创科基金”,以及新成立的300亿港元“共同投资基金”,基金管理规模达620亿港元。

其中,300亿元“共同投资基金”被外界视为香港版“政府引导基金”,也是圈内关注的超级LP。这是香港借鉴内地引导基金模式,从“未来基金”拨出300亿元成立的基金,用以引进和投资落户香港的企业,而基金也将会按企业个别项目带动本地产业发展的潜力。

据悉,在香港投资管理有限公司运营初期,香港金融管理局向其提供投资、后勤和运营方面的支援,公司也会随业务发展逐步建立其管理团队。

这一政府主导的投资公司在香港还是首次出现,正因如此,港投公司也被称为“港版淡马锡”。

作为香港“正式进入产业政策年代”的标志之一,港投公司希望“每一元都可为香港买到机遇”,港投公司的意义,某种程度上,这也标志着香港进入“招商时代”。

一位base大湾区的投资人对香港招商感触颇深:相比内地城市,香港招商策略似乎温和一些,比如返投弹性很大,虽然双方签订的协议有保护性条款,但没那么严格,所有商业条款都相对市场化。

“他们对搬不搬总部、交多少税没有明确要求,更看重的是要在香港设有研发团队。”该投资人解释,港府会给研发人员一系列补贴,并不要求把公司迁过来,“他们更希望将CTO级别的人留在香港。”

整体而言,港投目前的投资核心主旨是“要精准、做得实、做得细”,其核心方向则为硬科技、生命科技和新能源或绿色科技。其中,硬科技领域包括AI、数据科学、半导体,以及RISC-V(第五代精简指令集)技术。

种种尝试,香港招商初显成效。去年底,已落户香港或正积极落实来港计划的内地企业中,就有创投圈熟悉的黑芝麻智能、壁仞科技、元化智能、地平线、多点等,有多家企业更计划将国际总部和境外研发中心落户香港。正如陈家齐所言:筛选出聚焦具备前沿技术、优秀团队、发展潜质的项目,然后培育造就产业链龙头企业,并助力其发挥头部效应。

香港立下目标,整体引进企业目标为1100家左右,包括龙头企业和科创企业。

换言之,港投的这场征途才刚刚起步。

AI+生命科学

人工智能已经改变了生命科学研究的方式,为科学家提供了更强大的工具来解决复杂的生物学问题。从2020年至今,“AI+生命科学”已经进入了快速发展期。

根据百度百科方面的介绍,百图生科是中国首家生物计算技术驱动的生命科学平台公司。

生命科学领域的AI运用,当前已覆盖从药物发现到商业化全流程的阶段,并且在药物发现与研究、临床前等方面发展较为成熟。

传统主流药企研发以人的假设和已有实验能力为主导,探索潜在的靶点空间或者制药空间就会受到已有研发积累的较大限制。

人可以考虑的方面,以及现在能够分析的维度复杂度,与今天快速增长的高维生物数据比起来实际上非常有限。作为辅助的AI工具,则可以把更加复杂的数据综合考虑,能够看到更高维度的信息。

基于此,百图生科也希望能够发挥 AI 模型和计算资源优势,结合自产的实验数据和医学、制药等的专业领域知识,发现新的药物靶点。

在与药企合作层面,也可以结合制药企业未被充分挖掘的某些专业数据,发现数据之间的更多关联,从而联合进行靶点发现和管线开发,成为传统药企非常有力的合作伙伴。

在商业模式上,百图生科将对传统的生命科学公司盈利模式进行创新。

未来,百图生科希望利用 AI 挖掘更多药物信息,也包括通过开放自有免疫图谱查询,为这方面的专家、生态企业提供更多有价值的工具。

但随着技术发展,数据隐私,数据质量和一致性,法规和伦理,精确模拟生物系统类技术限制,交叉创新科研新生态匮乏等问题依旧是AI+生命科学所面临的现实问题。

随着通用AI的进一步发展,生命科学研究将迎来AI自驱抽象新知识、新规律的“预人所未见,思人所未思”的科学新时代。

“人人都必须学会计算机的时代过去了,人类生物学才是未来”。此前,黄仁勋在被问及,如果站在科技的前沿,人们到底应该学习什么时,做出了这样的表示。他认为,掌握人类生物学的本质,将是未来科技发展的关键,而不是简单的依赖计算机。

毫无疑问,百图生科是百度生态的一个全新触角。

将AI引入医学的过程才刚刚开始,这个领域的前景广阔。我们将看到更多的AI赋能生命科学的产品和技术出现,改善人类的健康和生活质量。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

李彦宏名下企业,被港投押宝

文章来源: 头部科技
文丨俊俊

图片来源:由GPTNB生成

香港大基金再次出手,投向生命科学人工智能板块。
6月24日,香港投资管理公司(港投公司)与百图生科(BioMap)签订战略合作协议。


港投公司表示,将为百图生科后续在港发展提供全方位的资源配对和支持,推动香港发展成为国际生物计算港。这是港投公司两周内公布的第二家战略合作伙伴。此次领投也是港投公司首次公开宣布领投项目,具体投资金额和持股比例未披露。

图片

香港投资管理有限公司行政总裁陈家齐(左)与百图生科联合创始人兼首席执行官刘维(右)签署战略合作协议,并由香港特区政府财政司司长陈茂波(中)鉴签。图源:政府新闻处

据悉,港投公司投资百图生科有两个关键人物:一个是港投公司行政总裁陈家齐——作为被称为“港版淡马锡”的港投公司第一任行政总裁;另一个则是前百度风险投资总裁刘维——驰骋风投界20年的“风投老手”。有学者评析称,港投公司问责机制不可或缺,须订立标的亏损上限与负责人撤换制度。

百图生科则承诺,未来优先在香港上市,口径与港投首宗投资的本地科创企业思谋集团一致。

百图生科同日宣布在香港设立旗下首个国际创新中心(BioMap InnoHub),冀望共同加速香港AI for Life Science的生态建设及发展。香港大学、香港科技大学、香港数码港、香港科技园公司作为百图生科的生态合作伙伴,共同出席了创新中心启动仪式。

图片

百图生科

百图生科由百度创始人李彦宏和前百度风险投资总裁刘维于2020年创立,公司致力于结合前沿AI和生物技术,构建了以蛋白质语言为核心的生命科学基础大模型xTrimo平台。
目前已达到千亿参数水平,通过建模生物演化,解码生命规律,为生命科学产业的前沿发现问题带来生成能力。在创新药物设计、靶点发现、蛋白质的从头设计、绿色科技、工业创新、消费升级等领域实现系列突破性成果,从而助力人类健康和社会永续发展。
百图生科亦是特区政府引进重点企业办公室签约落户香港的第二批重点企业伙伴之一。

图片

百图生科创新中心的首个落地项目是“生物计算创新加速计划”(BioMap BioX),该计划预计在未来5年支持50个以上的前沿生命科学早期研发项目,并会优先审核经由香港高等院校和生态合作伙伴推荐的项目。
对于入选项目,百图将利用自身的生命科学大模型xTrimo和AIGP平台技术,为研究者和创业者提供百图生科的技术支持,并帮助他们对接全球旗舰企业和投资者,探索更多应用场景,以加速将研发构想转化为市场化产品、工业化公司,从而令生命科学行业可以像互联网企业一样快速创业和成长。

港投公司

作为港府的开创性尝试,港投公司来头不小,一直备受业界关注。
资料显示,香港投资管理有限公司(HKIC)由香港特区政府全资拥有,由香港特区行政长官李家超在2022年度《施政报告》中宣布成立。按照李家超的阐释,港投的成立“属于破格决定”,其与“抢人才”“抢企业”等一系列政策相辅相成,最终目标不只是赚钱,也是为了香港整体产业发展增加机遇。
自筹备以来,港投公司就被赋予了重大使命——管理在“未来基金”下设立的220亿港元“香港增长组合”、50亿港元“大湾区投资基金”、50亿港元“策略性创科基金”,以及新成立的300亿港元“共同投资基金”,基金管理规模达620亿港元。
其中,300亿元“共同投资基金”被外界视为香港版“政府引导基金”,也是圈内关注的超级LP。这是香港借鉴内地引导基金模式,从“未来基金”拨出300亿元成立的基金,用以引进和投资落户香港的企业,而基金也将会按企业个别项目带动本地产业发展的潜力。

图片

据悉,在香港投资管理有限公司运营初期,香港金融管理局向其提供投资、后勤和运营方面的支援,公司也会随业务发展逐步建立其管理团队。
这一政府主导的投资公司在香港还是首次出现,正因如此,港投公司也被称为“港版淡马锡”。
作为香港“正式进入产业政策年代”的标志之一,港投公司希望“每一元都可为香港买到机遇”,港投公司的意义,某种程度上,这也标志着香港进入“招商时代”。
一位base大湾区的投资人对香港招商感触颇深:相比内地城市,香港招商策略似乎温和一些,比如返投弹性很大,虽然双方签订的协议有保护性条款,但没那么严格,所有商业条款都相对市场化。
“他们对搬不搬总部、交多少税没有明确要求,更看重的是要在香港设有研发团队。”该投资人解释,港府会给研发人员一系列补贴,并不要求把公司迁过来,“他们更希望将CTO级别的人留在香港。”
整体而言,港投目前的投资核心主旨是“要精准、做得实、做得细”,其核心方向则为硬科技、生命科技和新能源或绿色科技。其中,硬科技领域包括AI、数据科学、半导体,以及RISC-V(第五代精简指令集)技术。
种种尝试,香港招商初显成效。去年底,已落户香港或正积极落实来港计划的内地企业中,就有创投圈熟悉的黑芝麻智能、壁仞科技、元化智能、地平线、多点等,有多家企业更计划将国际总部和境外研发中心落户香港。正如陈家齐所言:筛选出聚焦具备前沿技术、优秀团队、发展潜质的项目,然后培育造就产业链龙头企业,并助力其发挥头部效应。
香港立下目标,整体引进企业目标为1100家左右,包括龙头企业和科创企业。
换言之,港投的这场征途才刚刚起步。

AI+生命科学

人工智能已经改变了生命科学研究的方式,为科学家提供了更强大的工具来解决复杂的生物学问题。从2020年至今,“AI+生命科学”已经进入了快速发展期。
根据百度百科方面的介绍,百图生科是中国首家生物计算技术驱动的生命科学平台公司。

图片

生命科学领域的AI运用,当前已覆盖从药物发现到商业化全流程的阶段,并且在药物发现与研究、临床前等方面发展较为成熟。
传统主流药企研发以人的假设和已有实验能力为主导,探索潜在的靶点空间或者制药空间就会受到已有研发积累的较大限制。
人可以考虑的方面,以及现在能够分析的维度复杂度,与今天快速增长的高维生物数据比起来实际上非常有限。作为辅助的AI工具,则可以把更加复杂的数据综合考虑,能够看到更高维度的信息。
基于此,百图生科也希望能够发挥 AI 模型和计算资源优势,结合自产的实验数据和医学、制药等的专业领域知识,发现新的药物靶点。
在与药企合作层面,也可以结合制药企业未被充分挖掘的某些专业数据,发现数据之间的更多关联,从而联合进行靶点发现和管线开发,成为传统药企非常有力的合作伙伴。
在商业模式上,百图生科将对传统的生命科学公司盈利模式进行创新。
未来,百图生科希望利用 AI 挖掘更多药物信息,也包括通过开放自有免疫图谱查询,为这方面的专家、生态企业提供更多有价值的工具。
但随着技术发展,数据隐私,数据质量和一致性,法规和伦理,精确模拟生物系统类技术限制,交叉创新科研新生态匮乏等问题依旧是AI+生命科学所面临的现实问题。
随着通用AI的进一步发展,生命科学研究将迎来AI自驱抽象新知识、新规律的“预人所未见,思人所未思”的科学新时代。
“人人都必须学会计算机的时代过去了,人类生物学才是未来”。此前,黄仁勋在被问及,如果站在科技的前沿,人们到底应该学习什么时,做出了这样的表示。他认为,掌握人类生物学的本质,将是未来科技发展的关键,而不是简单的依赖计算机。
毫无疑问,百图生科是百度生态的一个全新触角。
将AI引入医学的过程才刚刚开始,这个领域的前景广阔。我们将看到更多的AI赋能生命科学的产品和技术出现,改善人类的健康和生活质量。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

英伟达劲敌?哈佛华人辍学生创办的 AI 芯片公司 Etched 完成 1.2 亿美元融资,性能是传统 GPU 140 倍!

周二,AI 芯片初创公司 Etched 宣布完成 1.2 亿美元,以扩大其专用芯片的制造,并与Nvidia产品展开竞争,同时提供一种更具成本效益和能源效率的选择。

▍两位哈佛辍学生创立

Etched 由两位哈佛辍学生 Gavin Uberti(前 OctoML 和前 Xnor.ai 员工)以及 Chris Zhu 创立。


作为 Etched.ai 联合创始人,Chris 目前正在开发下一代 LLM 加速器系统。在此之前,Chris 曾在哈佛大学担任各种计算机科学课程的教学研究员。Chris 还曾在亚马逊和 AvantStay 担任软件工程师实习,分别专注于后端物联网基础设施和 AWS 全球收入运营。

▍性能超传统 GPU 140 倍

Etched 的芯片名为 Sohu,是一款 ASIC,专为运行 Transformer 而设计。Uberti 声称,Sohu 采用台积电的 4nm 工艺制造,可以提供比 GPU 和其他通用 AI 芯片更好的推理性能,同时消耗更少的能源。

Etched 创始人Gavin Uberti 和 Chris Zhu 表示,由于其芯片的独特用途,他们的模拟结果显示其每美元性能是传统 GPU 的 140 倍。此外,Etched 希望在 2024 年第三季度将其 Sohu AI 芯片推向市场,并计划向主要云提供商销售。

▍订单累积数千万美元

此次融资由 Primary Venture Partners 和 Positive Sum Ventures 领投,知名天使投资者包括 Peter Thiel、Github CEO Thomas Dohmke 以及 Coinbase 前 CTO Balaji Srinivasan。

据悉,Ethced 在上月刚完成 Primary 536 万美元种子轮投资,其他投资者包括SparkAI CEO Michael Kohen 以及 eBay 前 CEO Devin Wenig ,种子轮估值 3400 万美元,两轮间隔仅一个月。

Etched 公司表示,Sohu AI 芯片支持 Google、Meta、Microsoft、OpenAI和 Anthropic 的所有模型,并能处理未来模型的优化调整,目前已累计数千万美元预订单。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI收购5人远程协作公司

刚刚,OpenAI又收购了一家创业公司——远程协作平台Multi。Multi支持10人以内团队通过屏幕共享实时协作,包括语音、视频通话以及标注等。


继4天前收购数据库初创公司Rockset后,此番动作似乎再一次印证了OpenAI正面向To B市场发力。上个月,OpenAI还与普华永道签署合作,由后者代销其工具,包括面向企业的定制AI模型优化与咨询计划。目前ChatGPT企业用户已接近60万,其中包括93%的财富500强企业。

对于这项合作,多数网友一致认为:感觉OpenAI要在企业生产力效率市场重投入。

回到Multi,这项合作具体金额尚未公布,不过Multi联合创始人已透露,公司的5名成员将在交易完成后加入OpenAI。同时,Multi将在7月24日后关闭,所有用户数据将被删除。

更多详情接下来一起扒一扒。

Multi是谁?

Multi成立于2019年,总部位于美国旧金山。公司开发了一个为macOS设计的多人协作应用程序,允许团队成员共享光标、绘图和键盘控制等。Multi已进行了两轮融资,总计筹集了1300万美元资金,最近一轮是在2020年。公开资料显示,Multi有6名投资者,最新投资者为Musha Ventures和Greylock。Multi(前身Remotion)的核心创始人有3位。

CEO Hamze Ghalebi曾就读于里昂商学院,目前还兼任Narrator(一家集成语音服务的初创公司)联合创始人。联创兼CTO Charley Ho是一位华人,目前在OpenAI担任技术团队成员,此前曾在Google担任软件工程师,拥有斯坦福大学电气工程硕士和学士学位,专注于软件系统和计算机硬件。联创兼CEO Alexander Embiricos毕业于斯坦福大学,曾任Dropbox产品经理。而且据Alexander Embiricos透露,他们将加入ChatGPT的桌面团队。

对于这一动向,网友们大胆猜测:GPT的“多人模式”即将到来?

OpenAI的用意?

收购消息一出,网友们立马想起了之前的传闻:OpenAI打算构建自己的操作系统。毕竟大佬们如卡帕西就曾反复提到过LLM操作系统愿景。而且有网友想起了苹果和Adobe曾经的例子。

不过也有人对此持怀疑态度:收购multi的感觉与此相反,因为它们的大部分技术和价值可能与现有操作系统集成。这也和开头提到的OpenAI的近期策略相契合,OpenAI似乎正在走解决方案的道路。一旦完成集成,新的ChatGPT可能如网友形容:我猜他们会让ChatGPT能够在你的屏幕上绘图、编辑代码等。

等等,这一设想是不是有点眼熟,难道这不就是GPT-4o的功能吗?距发布会已有1个月了,GPT-4o的视频及语音功能仍未上线。不过就在刚刚,GPT-4o也传出了好消息。GPT-4o的语音和视频功能已开启灰度测试,已经有网友被“灰度”到了。

飞奔,快去看看有没有你?

参考链接:
[1]https://x.com/kimmonismus/status/1805310208664641768
[2]https://x.com/TommyFalkowski/status/1792617195882615161
[3]https://x.com/itsandrewgao/status/1805264567548748151
[4]https://x.com/potatoarecool/status/1805266573172805632
[5]https://x.com/testingcatalog/status/1805288828938195319



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

这款AI神器一个月更新3次,我们用它搞了个动漫风《玫瑰的故事》

AI 视频圈子正卷生卷死。
前两周,快手可灵、Luma、Runway 互相扬大锤,让 AI 视频陷入「累死自己卷死同行」的胶着局面。


这周,AI 动漫转绘应用也发力了,无论是 Domo AI 推出融合风格功能,还是阿里巴巴开源类似项目 Diffutoon,均在社交媒体上引发关注。
截至目前,Diffutoon 项目已在 GitHub 上斩获 1.7k 颗星。
一个月更新3次,还上线了网页版
DomoAI 是一款 AI 动漫转绘工具,由映刻科技推出,主要用于将图片和视频转化为动漫风格。
整个 6 月份,DomoAI 都在马不停蹄地更新:
6 月 22 日上线融合风格,允许用户通过提示词自定义视频的风格、角色形象和环境;
6 月 14 日推出「Subject Only」功能,用户可根据需要仅改变主角风格;
视频链接:https://mp.weixin.qq.com/s/gmAM7rc4LpSzprmCp7O_Lg
6 月 7 日新增三种模型风格 —— 文艺复兴风格、素描动漫风格、故事书风格。
视频链接:https://mp.weixin.qq.com/s/gmAM7rc4LpSzprmCp7O_Lg
DomoAI 还提供多种其他功能,如文生图、动漫图像真人化等。
- 文生图:用户可以通过输入文本提示词快速生成绘画和艺术作品。
- 动漫图像真人化:一键将动漫图像转换为真人风格。
- 角色动态:上传一张人物图像和一个动作视频,DomoAI 可以让图像中的人物做出同样的动作。
- 口型同步:能够精确同步人物说话时的唇部动作,目前仅支持浮世绘、日式动漫、黏土卡通风以及 3D 卡通风格四种风格。
视频链接:https://mp.weixin.qq.com/s/gmAM7rc4LpSzprmCp7O_Lg
此外,5 月中旬,DomoAI 正式上线网页版,用户们再也不用趴在 Discord 社区中一遍遍呼唤小机器人了。
一手测评:效果还行,免费体验额度太少
目前,DomoAI 既可在网页上使用,也可以在 discord 社区中免费体验。
其玩法很简单,我们就以网页版为例。
第一步:访问 DomoAI 的官网,使用谷歌邮箱登录,然后点击「Try on website」。
链接:https://domoai.app/
DomoAI 主要有四大功能,包括 AI 转绘、图生视频、文生图以及角色动态。
第二步:我们点击「Video」图标,进入操作界面。
第三步:上传视频并输入提示词。
需要注意的是,上传的文件大小不超过 50MB,视频不超过 60 秒。
例如,我们上传了《玫瑰故事》里刘亦菲的一段视频,输入提示词「女孩边走边看」。
接着,选择 AI 模型并调整参数。
DomoAI 提供 34 种风格,涵盖素描风、日本动漫风、粘土风等。我们选择了文艺复兴风格。
影片长度选择默认的 3 秒、参考选择更偏原片,长宽比选择自动。
如果只想转绘画面主角、保留背景,则可以打开「只画主体」功能。
等待大约三分钟,即可生成一段3秒的视频。我们来看一下效果:
不过,不管是网页版还是 Discord 社区,新注册用户只有 15 个免费积分,生成一个 3 秒视频就用完了。如果需要更多服务,则需要付费。
卷起来!阿里开源 Diffutoon
实际上,阿里巴巴也悄咪咪的涉足该领域。
最近,阿里巴巴和华东师范大学联合开源了 Diffutoon。这是一种卡通渲染技术,可以将逼真的视频转换成动画风格,而且能够处理高分辨率、长时长的视频,还可以根据提示来编辑内容。
- 代码: https://github.com/modelscope/DiffSynth-Studio/tree/main/examples/Diffutoon
- 论文: https://arxiv.org/abs/2401.16224
- 地址:https://ecnu-cilab.github.io/DiffutoonProjectPage/
具体来说,它利用扩散模型将现实风格的视频转换成动画风。这种转换不仅包括颜色和纹理的变化,还涉及对光影、轮廓等元素的艺术化处理,以模仿手绘动画的视觉效果。
视频链接:https://mp.weixin.qq.com/s/gmAM7rc4LpSzprmCp7O_Lg
同时,它通过特定的算法和技术,确保视频序列中的每一帧在风格和内容上保持一致性,避免了视频播放时可能出现的闪烁、颜色突变或内容不连贯的问题。
视频链接:https://mp.weixin.qq.com/s/gmAM7rc4LpSzprmCp7O_Lg
此外,它还具备自动着色功能,能够根据视频内容和风格要求自动选择合适的颜色进行填充。
视频链接:https://mp.weixin.qq.com/s/gmAM7rc4LpSzprmCp7O_Lg
为了展示自家技术过硬,研发团队还将 Diffutoon 与市面上的竞品进行了对比,其中就包括 DomoAI。
真是「撞衫」不可怕,谁丑谁尴尬。
以后我们会通过新专栏带来更多 AIGC 案例演示,也欢迎大家进群交流。
图片

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI断供大陆市场,这家GPT-4的“国产平替”真香

6 月 25 日,有多名开发者收到了来自 OpenAI 的公告,公告中显示,OpenAI 将于 7 月 9 日开始封锁来自非支持国家和地区的 API 流量。在 OpenAI 给出的 “支持访问国家和地区” 名单上(https://platform.openai.com/docs/supported-countries),中国大陆、中国香港等地均未在列。


在审视 OpenAI 与中国大陆市场互动的历史脉络时,可以观察到其一贯持有的审慎姿态。早先,该公司对中国大陆地区的用户实行了注册门槛,限制了其对 ChatGPT 服务的访问权限。中国大陆的开发者群体在构建基于 OpenAI API 的衍生服务时,往往需要通过代理服务器或在海外部署反向代理机制。这不仅增加了运维成本,也无法保证服务的稳定性。

在发布上述公告后,可以预见的是,OpenAI 会进一步加强对非支持国家和地区的监管。对于基于 OpenAI API 进行应用创新的个人开发者和企业而言都会是巨大的冲击。

对此,由李开复博士创立的 AI 大模型独角兽公司零一万物发起 “Yi API 二折平替计划”,面向 OpenAI 用户推出了平滑迁移至 Yi 系列大模型的服务。针对接入 OpenAI 的不同模型的用户,零一万物一一对应地提供了高模型性能且极具性价比的替换方案。

Yi API 顶级性能平替 GPT

成本削减最高达 91%

据零一万物介绍,目前注册使用 Yi API 的新客户,零一万物立即赠送 100 元额度,帮助用户完成平稳过渡;平台充值还将赠送 50% 到账额度,上不封顶,为用户提供更长线的优惠;任意充值即可享受 RPM/TPM 限速直升 Tier3,直达高级别的服务质量和超快响应速度;此外,零一万物 API 还将提供 Prompt 兼容调优服务支持,陪伴用户又好又快地适配 Yi 系列大模型。

事实上,从模型评测成绩、API 价格等公开数据来看,对于原先接入 GPT-4o 的用户来说,无论是在模型性能、还是在使用成本方面,接入零一万物千亿参数旗舰模型 Yi-Large 都会是 “物美价廉” 的国产大模型平替方案。

伯克利大学公开盲测 LMSYS 综合排名中,Yi-Large 在中国大模型中排名第一,在中文榜单上 Yi-Large 超过 GPT-4,与 GPT4o 并列排名世界第一(2024.6.25);斯坦福评测机构 AlpacaEval 2.0 经官方认证的模型排行榜上,Yi-Large 的 LC Win Rate 也高于 GPT-4(2024.6.25);在 GPQA、HumanEval、MT-Bench、AlignBench 等权威评测集上,Yi-Large 的得分也高于 GPT-4(2024.5.12)。

LMSYS 总榜排名 2024.5.21

值得一提的是,模型性能相近的同时,Yi-Large 的定价远低于顶配模型 GPT-4o。以 GPT-4o 的定价计算(取 Input 和 Output 均值为 Open API 价格),接入 Yi-Large 后使用成本可下降 72%。

对于原先使用 GPT-4 Turbo 的用户,零一万物也给出了平滑迁移至 Yi-Large-Turbo 的方案。Yi-Large-Turbo 本身是一款具有超高性价比的模型,品质接近 Yi-Large,具有通用高精度推理能力,但是使用成本较 Yi-Large 大幅降低。

对比 GPT-4 Turbo 的价格,用户接入 Yi-Large-Turbo 后使用成本可下降九成以上。对于业务产品已经验证成立,需要降低成本的客户, Yi-Large-Turbo 会非常适用。此外,零一万物还可提供支持实时搜索的 Yi-Large-RAG,适用于需要结合实时信息进行推理的场景,以便用户基于自身需求选择更匹配的模型。

在 OpenAI API 中,GPT-3.5-Turbo-1106 聚焦于处理简单任务,主打快速、廉价。而零一万物提供了更高性价比的方案 —— 中等尺寸模型 Yi-Medium 来完美承接用户需求,使用成本较 GPT-3.5-Turbo-1106 下降 66%。虽然仅为中等尺寸模型,但是 Yi-Medium 深度优化了指令遵循能力,适用于日常聊天、翻译等通用场景,非常匹配大规模应用大模型的需求。

Yi-Large 满分达成测试任务:“使用四个不同的机器学习模型进行训练,然后评估出最优的 AI 模型作为最优方案”

详细信息,访问 Yi 大模型开放平台:https://platform.lingyiwanwu.com/

获多家头部企业用户认可

共同探索 TC-PMF

凭借着出色的模型性能和极具竞争力的价格, Yi 系列大模型已成为大量企业在中文环境下探索新业务、验证 AI-Native 产品 PMF 的最佳选择之一。目前,Yi 系列大模型已在全球范围内积累起了一批头部付费企业客户,涉及 AI 写作、AI 编程、医疗、消费 3C、生化环材等多个领域。

知料科技是一家深耕通用 AI 领域的头部企业,旗下已有多款 AIGC 应用,如知料万语、知料觅得 AI 搜索等应用已入驻联想 AIPC 产品。知料万语及知料觅得背后所接入的正是 Yi 系列 API。从数据来看,据知料科技创始合伙人、济南大学人工智能研究院副院长张世光教授透露,接入 Yi 系列大模型后,知料万语付费转化率高达 10%,售后退款率则大幅降低了 50%。

图片

在中国知名主流财经媒体《每日经济新闻》所发布的《每日经济新闻大模型评测报告》中,零一万物 Yi-Large 成为最大 “黑马”,在 “财经新闻标题创作”“微博新闻写作”“文章差错校对”“财务数据计算与分析” 四大应用场景的总分排名第一,高质量内容生成能力得到专业新闻机构认可。

此前凭借开源多智能体框架爆火的 MetaGPT 也选择接入 Yi-Large 模型。MetaGPT 联合创始人徐宗泽在 Yi-Large 发布后立即展开内部测试,在规划、任务分配、代码生成、反思等方面 Yi-Large 均表现出色。在比较了模型性能与 API 团队的服务质量后,MetaGPT 确定将 Yi-Large 整合入即将发布的自然语言编程产品配置中。

图片

除 AI 写作和 AI 编程外,医疗领域内某头部企业选择接入 Yi 系列大模型来进行患者病历的数据提取及标注,目前准确率近 100%,数据标注环节的工作效率提升了近八成;消费 3C 领域,某头部手机厂商在横向对比多家国内头部大模型后,最终选择接入 Yi 系列大模型,与零一万物共创通话摘要、AI 智能体等应用。

零一万物坚信只有通过共建生态的合作模式,才能够最大程度地释放 Yi 系列大模型的潜在价值。后续零一万物会持续推进模型性能升级、推动模型推理成本下降,让合作伙伴能够在 Yi 系列大模型的基础上更加灵活地进行创新和实验,共同构建起繁荣的大模型应用生态,为企业、为个人、为社会带来更多价值,真正做到让通用人工智能普惠各地、人人受益。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

史上最快AI芯片「Sohu」,速度10倍于B200,哈佛辍学生打造

生成式 AI 推理性价比是 GPU 的 140 倍。
大模型时代,全球都缺算力,买铲子的英伟达市值被炒上了天。


现在,终于有一家公司带着自己的 AI 芯片来叫板了。
今天凌晨,科技圈迎来了一个重要新闻。美国芯片创业公司 Etched 推出了自己的第一块 AI 芯片 Sohu,它运行大模型的速度比英伟达 H100 要快 20 倍,比今年 3 月才推出的顶配芯片 B200 也要快上超过 10 倍。
一台 Sohu 的服务器运行 Llama 70B 每秒可输出超过 50 万个 token,比 H100 服务器(23,000 个 token / 秒)多20倍,比 B200 服务器(约45,000个token / 秒)多10倍。
Sohu 是世界第一款专用于 Transformer 计算的芯片,历时两年打造。
作为一块 ASIC(专用集成电路),Sohu 把对于 transformer 架构的优化硬化在芯片中,无法运行大多数传统的 AI 模型:如为 Instagram 广告提供支持的 DLRM、AlphaFold 2等蛋白质折叠模型或 Stable Diffusion 2等较旧的图像生成模型。我们也无法运行 CNN、RNN或LSTM。
但另一方面,对于 transformer 来说,Sohu 就是有史以来最快的芯片,与其他产品之间是量级的区别。如今的每款主流 AI 产品如 ChatGPT、Claude、Gemini和Sora都是由 transformer 驱动的。
最近一段时间,由于摩尔定律放缓,GPU性能的提升很大程度上需要依赖于增加芯片面积和功耗。不论是英伟达B200、AMD MI300X还是Intel Gaudi 3,都不约而同的使用「二合一」的方式提升性能,功耗也翻倍了。
但如果大模型广泛使用Transformer架构,追求专业化或许是提高性能的好方向。‍
作为一个新兴领域,AI模型的架构过去变化很大。但自GPT-2以来,最先进的模型几乎都在使用Transformer,从OpenAI的GPT系列、谷歌的PaLM、Facebook的LLaMa,再到特斯拉FSD自动驾驶所需的模型。
Etched给我们算了一笔账:芯片项目的成本为5000万至1亿美元,需要数年时间才能投入生产。另一方面,当模型训练成本超过10亿美元、推理成本超过100亿美元时,使用专用芯片是不可避免的。在这种产业规模下,1%的改进就能撬动硬件架构的更新。
速度超H100 20倍,FLOPS利用率超90%
作为世界上首款transformer ASIC(应用型专用集成电路)芯片,一台集成了8块Sohu的服务器可以匹敌160块H100 GPU。也即,Sohu的运行速度是H100的20多倍。
具体来讲,通过专门化,Sohu具备了前所未有的性能。一台集成8块Sohu芯片的服务器每秒可以处理50万的Llama 7B tokens。
针对Llama 3 70B的FP8精度基准测试显示:无稀疏性、8倍模型并行、2048输入或128输出长度。
此外,对于Llama、Stable Diffusion 3,Sohu仅支持transformer推理。Sohu支持了当前谷歌、Meta、微软、OpenAI、Anthropic等各家的模型,未来还会适配模型调整。
由于Sohu仅能运行一种算法,因此可以删除绝大多数控制流逻辑,从而允许拥有更多数学块。也因此,Sohu实现了90%以上的FLOPS利用率,而使用TRT-LLM的GPU约为30%。
Sohu为何能输出更多FLOPS?
英伟达H200支持989 TFLOPS的FP16/BF16计算能力,并且没有稀疏性。这是当前最先进的芯片,而2025年推出的GB200将在计算能力上提升25%,支持1250 TFLOPS。
由于GPU的绝大部分区域都是可编程的,因此专注于transformer会容纳更多的计算。这可以从第一性原理中证明:
构建单个FP16/BF16/FP8乘加电路需要10000个晶体管,这是所有矩阵数学的基石。H100 SXM拥有528个张量核心,每个核心拥有4×8×16 FMA电路。乘法告诉我们:H100有27亿个晶体管用于张量核心。
但是,H100却有800亿个晶体管。这意味着H100 GPU上只有3.3%的晶体管用于矩阵乘法。这是英伟达和其他芯片厂商经过深思熟虑的设计决定。如果你想支持所有类型的模型(CNN、LSTM、SSM等…
而通过仅运行transformer,Etched可以让Sohu芯片输出更多的FLOPS,且需要降低精度或稀疏性。
内存带宽也不是瓶颈
实际上,对于像Llama 3这样的模型,情况并非如此。
我们以英伟达和AMD的标准基准为例:2048个输入token和128个输出token。大多数AI产品的prompt更长,比如最新的Claude聊天机器人在系统prompt中拥有1000+tokens。
在Sohu上,推理是分batch运行的。每个batch都需要加载所有模型权重一次,并在batch的每个token中重复使用。通常来说,LLM输入是计算密集型的,而LLM输出是内存密集型的。当我们将输入和输出token与连续batch结合时,工作负载变成了高度计算密集型。
以下为LLM连续batching处理的示例,这里运行具有四个输入token和四个输出token的序列。每种颜色代表不同的序列。
我们可以扩展相同的技巧,从而运行具有2048个输入token和128个输出token的Llama 3 70B。每个batch中包含用于一个序列的2048个输入token,以及用于127个不同序列的127个输出token。
如果这样做了,则每个batch需要大约(2048+127)×70B参数×每个参数2字节=304 TFLOP,而仅需要加载70B参数×每个参数2字节=140 GB的模型权重和大约127×64×8×128×(2048+127)×2×2=72GB的KV缓存权重。这比内存带宽需要的计算量多得多:H200需要6.8PFLOPS的计算才能最大化其内存带宽。这还是利用率为100%的情况,如果利用率仅为30%,则需要3倍以上的内存。
Sohu拥有了更多的计算能力且利用率非常高,因此可以运行巨大的吞吐量,而不会出现内存带宽瓶颈。
软件如何工作
在GPU和TPU上,软件是一场噩梦。处理任意CUDA和PyTorch代码需要极其复杂的编译器。第三方AI芯片(如AMD、Intel、AWS等)在软件上总共花费了数十亿美元,但收效甚微。
而Sohu只运行transformer,因此只需要为transformer编写软件。
大多数运行开源或内部模型的公司都使用特定于transformer的推理库,比如TensorRT-LLM、vLLM或HuggingFace的TGI。
这些框架非常僵化,虽然你可以进行模型超参数调优,但实际上不支持更改底层模型代码。但这没关系,因为所有transformer模型都非常相似(甚至是文本/图像/视频模型),所以超参数调优就是你真正需要的。
虽然95%的AI公司是这样,但一些最大的AI实验室采用定制方式。他们有工程师团队来手动调整GPU核心以实现更高的利用率,并进行逆向工程以将寄存器对每个张量核心的延迟将至最低。
Etched让我们不需要再进行逆向工程,他们的软件(从驱动程序、内核到服务堆栈)都将是开源的。如果你想实现自定义transformer层,则内核向导可以自由地这样做。
创业团队:哈佛辍学生领衔
Etched的CEO Gavin Uberti告诉记者:「如果未来Transformer不再是主流,那我们就会灭亡。但如果它继续存在,我们就会成为有史以来最大的公司。」
打造Sohu芯片的Etched位于加州库比蒂诺,公司成立仅两年,目前团队只有35人,创始人是一对哈佛辍学生Gavin Uberti(前OctoML和前Xnor.ai员工)和Chris Zhu,他们与Robert Wachen和前赛普拉斯半导体公司首席技术官Mark Ross一起,一直致力于打造专用于AI大模型的芯片。
在Sohu芯片发布的同时,Etched也宣布已完成了1.2亿美元的A轮融资,由Primary Venture Partners和Positive Sum Ventures共同领投。Etched的总融资额已达到1.2536亿美元,本轮融资的重要投资者包括Peter Thiel、GitHub首席执行官Thomas Dohmke、Cruise联合创始人Kyle Vogt和Quora联合创始人Charlie Cheever。
不过对于占据超过80% AI芯片市场份额的英伟达来说,1.2亿美元只相当于它半天的收入。
「我们如此兴奋的原因,选择辍学的原因,以及我们召集团队,投身芯片项目的原因在于 —— 这是最重要的工作,」Etched运营主管Robert Wachen说道。「整个技术的未来将取决于算力基础设施能否实现大规模。」
Uberti声称到目前为止,已有匿名客户预订了「数千万美元」的硬件,预计在今年三季度,Sohu将推向市场。
未来真的如Uberti所说,只有在Sohu这样的芯片上,视频生成、音频生成、具身智能等技术才能真正落地吗?

参考内容:
https://www.etched.com/announcing-etched
https://twitter.com/Etched/status/1805625693113663834
https://www.cnbc.com/2024/06/25/etched-raises-120-million-to-build-chip-to-take-on-nvidia-in-ai.html
https://techcrunch.com/2024/06/25/etched-is-building-an-ai-chip-that-only-runs-transformer-models/

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

旷视开源的AI人像视频生成太炸了!输入照片即可模仿任意表情包

日前,旷视科技发布了一项新的开源 AI 人像视频生成框架 ——MegActor。基于该框架,用户只需输入一张静态的肖像图片,以及一段视频(演讲、表情包、rap)文件,即可生成一段表情丰富、动作一致的 AI 人像视频。


MegActor 所生成的视频长度,取决于给定的驱动视频的长度。与阿里 EMO、微软 VASA 等最新涌现的 AI 视频模型不同,旷视 MegActor 将采用开源的方式,提供给开发者社区使用。MegActor 能够呈现出丝毫毕现的效果,面部细节更加丰富自然,画质更出色。

为了进一步展示其泛化性,MegActor 甚至可以让 VASA 里面的人物肖像和它们的视频彼此组合生成,得到表情生动的视频生成结果。

即使是对比阿里 EMO 的官方 Case,MegActor 也能生成近似的结果。

总的来说,不管是让肖像开口说话,让肖像进行唱歌 Rap,还是让肖像模仿各种搞怪的表情包,MegActor 都可以得到非常逼真的生成效果。

论文:https://arxiv.org/abs/2405.20851

代码地址:https://github.com/megvii-research/megactor

项目地址:https://megactor.github.io/

MegActor 是旷视研究院的最新研究成果。旷视研究院,是旷视打造的公司级研究机构。旷视研究院旨在通过基础创新突破 AI 技术边界,以工程创新实现技术到产品的快速转化。经过多年发展,旷视研究院已成为全球规模领先的人工智能研究院。

在目前的人像视频生成领域,许多工作通常使用高质量的闭源自采数据进行训练,以追求更好的效果。而旷视研究院始终坚持全面开源,确保实际效果的可复现性。MegActor 的训练数据全部来自公开可获取的开源数据集,配合开源代码,使得感兴趣的从业者可以从头开始完整复现这些令人惊艳的效果。

为了完全复刻原始视频的表情和动作,MegActor 采用了原始图像进行驱动,这与多数厂商使用 sketch、pose、landmark 的中间表示皆然不同,能够捕捉到细致的表情和运动信息。

旷视科技研究总经理范浩强表示,在 AI 视频生成领域,我们发现目前主流的骨骼关键点控制方式不仅要求用户提供难以获取的专业控制信号,同时生成视频相较于原肖像的保真程度也不尽如人意。通过一系列研究发现,使用原视频进行驱动,不仅将帮助用户降低控制信号的门槛,更能生成更加保真且动作一致的视频。

具体来说,MegActor 主要由两个阶段构成:

  • 使用了一个 ReferenceNet 对参考图像进行特征提取,负责得到参考图像的外观和背景等信息;
  • 使用了一个 PoseGuider,对输入的视频进行运动和表情信息提取,负责将运动和表情信息迁移到参考图像上。

尽管相较于使用音频或 landmark 等表示方式,使用原始视频进行驱动能带来更加丰富的表情细节和运动信息。然而,使用原始视频进行驱动依然存在两大核心技术挑战:一是 ID 泄露问题;二是原始视频中的背景和人物皱纹等无关信息会干扰影响合成表现。

为此,MegActor 开创性地采用了条件扩散模型。首先,它引入了一个合成数据生成框架,用于创建具有一致动作和表情但不一致身份 ID 的视频,以减轻身份泄露的问题。其次,MegActor 分割了参考图像的前景和背景,并使用 CLIP 对背景细节进行编码。这些编码的信息随后通过文本嵌入模块集成到网络中,从而确保了背景的稳定性。

在数据训练方面,旷视研究院团队仅使用公开的数据集进行训练,处理了 VFHQ 和 CeleV 数据集进行训练,总时长超过 700 小时。同时,为了避免 ID 泄露问题,MegActor 还使用换脸和风格化方法 1:1 生成合成数据,实现表情和动作一致、但 ID 不一致的数据。此外,为了提高对大范围动作和夸张表情的模仿能力,团队使用注视检测模型对数据进行处理,获取大约 5% 的高质量数据进行 Finetune 训练。

通过采用一系列新的模型框架和训练方法,旷视研究院团队仅使用了不到 200 块 V100 显卡小时的训练时长,最终实现的具体特性包括:

  • 可以根据输入的视频生成任意持续时间的模仿视频,同时保证角色身份的一致性
  • 支持各种驱动视频,如演讲、唱歌、表情包等
  • 支持不同的画风(照片、传统绘画、漫画、AI 数字人等)

与音频生成的方法相比,MegActor 生成的视频,不仅能确保表情和动作一致,更能达到同样的自然程度。

目前,MegActor 已经完全开源,供广大开发者和用户即开即用。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

微软因Teams应用受到巨额反垄断罚款

欧洲委员会指责科技公司非法将聊天和视频应用Teams与包括Word在内的Office 365产品捆绑在一起,微软面临巨额反垄断罚款。


这些指控是自2013年以来微软面临的最严重指控,当时曾因未推广IE浏览器的竞争对手而被罚款5.61亿欧元(4.74亿英镑)。数据平台Statista显示,2023年之前,这家科技公司拥有约2千万Teams客户,但在疫情期间使用Teams视频平台的情况爆发,截至2023年,用户数量激增至3亿。

委员会于周二告知微软其初步反垄断调查结果。委员会认为微软在专业“软件即服务”(SaaS)市场上全球占主导地位,担忧微软将Teams与其核心产品捆绑在一起,给那些单独销售竞争对手产品的公司带来了不利。今年早些时候,微软试图通过宣布计划将Teams与欧洲某些软件包拆分来避免监管行动。然而,监管机构称这些改变“不够充分”,认为需要进一步调整。

微软副董事长兼总裁Brad Smith表示:“拆分Teams并采取初始的互操作性措施后,我们感谢今天提供的额外明确信息,并将努力找到解决方案以解决委员会尚未解决的问题。”委员会的调查始于去年7月,当时收到了加拿大Slack Technologies和后来被Salesforce收购的德国视频会议软件提供商Alfaview的投诉。

Alfaview首席执行官Niko Fostiropoulos对委员会的初步调查结果表示欢迎,称赞微软采取的对策“不够,因为它们在关键部分维持了捆绑”。他补充说,微软和alfaview之间的直接对话也未能就解决竞争担忧达成解决方案。

在这些话题上深入探讨:Microsoft、Computing、Technology sector、European Commission、news。

Share此内容。Reuse this content。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

“这是地狱一样的经历”:受伤的亚马逊员工转向GoFundMe支付账单

亚马逊承诺要创建“地球上最安全的工作场所”。


三名在亚马逊仓库工作的员工讲述了他们的经历。

亚马逊员工因工作受伤而无法工作,不得不求助于在线筹款活动来支付账单,同时他们在争取赔偿和残疾福利时遭遇了“一场官僚、可怕的过程”。其中一名员工甚至变得无家可归。在接受英国《卫报》采访时,他们声称亚马逊忽视了工人工作中的压力,忽略了工人在受伤后索取赔偿或福利的请求,并把生产力置于一切之上。亚马逊回应称,他们发现了“一些”问题,但声称员工提供了“很多不准确的信息”。公司没有具体说明他们认为账目中哪些部分是不准确的。亚马逊是全球最大的雇主之一,拥有全球150万员工。多年来,亚马逊一直面临着对其仓库内工作和安全条件的批评。尽管声称公司致力于在安全方面成为“最佳榜样”作为其宣布意图的一部分,打造“地球上最安全的工作场所”,但是多年来,许多员工陆续讲述了在工作中受伤的令人不安的故事;被亚马逊现场医疗治疗单位Amcare送回工作,并在接下来的几个月甚至几年里为争取工人赔偿、医疗护理、住宿和残疾福利而经历漫长的争议和延迟。

“这就是我们无家可归的原因”
2023年8月,Keith Williams在纽约Rock Tavern的亚马逊SWF1仓库的装运码头上独自装货柜。一张电脑桌掉到他身上,击中他的后脑。受到打击后感到头晕和恶心的Williams去了Amcare,那里给了他阿司匹林和冰。他去了急诊,因为他说Amcare不知道该怎么帮他。第二天回到工作岗位后,Williams说他被安排轻体力劳动,但领班不断打扰他,问他坐在那里干嘛,尽管他因受伤而被安排到这个岗位。“他们只关心你能为他们赚多少钱,他们能从你身上挤取多少,他们给你多少,他们从你身上能获取多少。”不过,仅仅五个月后,即2023年2月,Williams在工作中再次受伤,因被要求反复搬运重箱子而未被调到轻松一些的部门。当他尝试搬运一个包裹时,突然感到手腕和肘部一阵剧痛,无法搬起来。他去了Amcare,在等了一个小时后自行前往急诊。无法工作并受伤的Williams至今尚未收到残疾福利。“我与工人赔偿保险公司争论不休,他们总是不停地拖延。”他说。“因为我在2月受伤时还没有在那里工作满一年,所以我无法获得我的全部福利,这就是我们无家可归的原因——因为我们无法承担住房费用。”2024年4月,Williams和他的家人因与房东发生争执而被驱逐。他们无法筹集新的租金,被迫搬进了一家汽车旅馆。在Williams从重复性运动损伤中康复的过程中,一场GoFundMe筹款活动为他家人发起,帮助他们应对他工作中受伤的财政影响。“我握力没有了。”他说。“我不能很长时间携带东西。甚至一加仑的牛奶也让人感到疲惫……我的日常生活受到极大影响,现在一切都变得更加困难。”“他们根本没有考虑到身体会承受怎样的负荷,尽管我们经常向他们抱怨。”

“我已经花光了我的储蓄、401K和信用卡”
Christine Manno在于2021年8月开始在位于密苏里州圣路易斯之外的亚马逊STL8仓库担任拣选员和装载员两年后,开始出现因工作中重复动作导致的严重腕管症状。她于次年10月和12月进行了两次手术,并在第二次手术后数天恢复到全职工作。在一个12小时的班次中,我会进行三次12小时的班次。” Manno说。“我会在班次中搬运成千上万磅的重物,而我的手还是明显肿胀的,所以我的手开始变得更糟了。”2022年5月,在伸手够高的一个箱子时,她感到背部、双臂和下肢出现了疼痛。在初始的残疾福利索赔遭遇阻力后,Manno聘请了律师。最终,她的案件获得了批准。2023年1月,受伤八个月后,她去看了一个脊椎外科医生。“他同意说这些伤害是在我工作时导致的。”Manno说。“在那时之前,我没有接受过任何治疗。他们不允许任何治疗。”在继续工作同时受伤期间,Manno被安排限制工作。她开始物理治疗,但称治疗未能缓解她的疼痛。在这段时间里,当她在亚马逊仓库驾驶转向卡车时,并不需要搬运时,Manno感到头晕和眩晕,于是她停下并通知主管。她说,她被告知坐下,但20分钟后又被命令回到车上完成工作。2023年7月,亚马逊通知她他们不再能容忍她的限制,尽管医生建议永久控制限制。医生要求转介到疼痛管理专家,Manno说,但亚马逊也拒绝了。在短期残疾福利补贴耗尽后,最近她在等待决定关于福利的消息时努力说服公司给予她长期福利。“他们不断告诉我他们需要更多文件,然而,工人赔偿并不允许我看医生获取更多文件,但当他们知道这是工伤时,他们不会通过健康保险授权治疗。”Manno说。“我已经花光了我的储蓄、401K和信用卡。“我的多家账单收集机构一天打20、30次电话。这真是地狱,所有的压力直接影响到我的颈部受伤,我患有严重坐骨神经痛,手的使用非常有限,我会失去感觉,最终东西掉在地上。我的手功能不如应该。”

“安全是次要的”
回到纽约Rock Tavern的SWF1仓库,拣选员Nik Moran在去年8月手指受伤。他自己开车去急诊室,那里给他的伤口缝了针。“我马上就回到工作岗位上”,因为亚马逊的工人赔偿单位“第一周不给你工资”,他说。“这只是一场官僚、可怕的过程。”受伤后不久,他找到了一位工人赔偿律师,因为他知道同事在尝试让医疗费用得到报销以及获得工伤补偿时遇到的问题,他指出亚马逊否认支付他的受伤医疗费。“亚马逊大谈安全,但他们的主要优先事项是生产力,” Moran声称。“安全是次要的。”被《卫报》联系询问这三名工人的故事时,亚马逊发言人Maureen Lynch Vogel表示:“我们员工的安全和健康是我们的头等大事。虽然我们通常不会评论员工的个人情况,但这些个人不幸地选择分享了很多不准确的信息。“我们已经全面调查了每一个指控,在我们发现问题的几个案例中,我们的团队已经努力解决他们的关切,并根据需要做出合理的调整。”亚马逊没有就他们认为的信息不准确或发现和解决了哪些问题做出澄清。

“地球上最安全的工作场所”
三年前承诺要成为“地球上最安全的工作场所”的亚马逊表示,他们正在采取措施,将其工作场所受伤率在2025年前减半。但劳工倡导团体和工人安全团体声称其受伤率仍然危险地高。Strategic Organizing Center是一个由工会组成的联盟,过去四年每年发布亚马逊的受伤率报告。其最新报告发现2023年亚马逊的受伤率为每100名工人6.5起。SOC表示,2020年,即该公司首次宣布计划将其受伤率减半的前一年,其受伤率为每100名工人6.6起。亚马逊的受伤率仍然“非常高”,Strategic Organizing Center战略研究和活动副主任David Rosenblatt辩称。“在过去的一年中,它几乎没有下降,仅下降了几个百分点。”在另一份上个月发布的报告中,国家就业法项目声称,亚马逊的仓储设施受伤率“是TJX公司的1.5倍以上”,后者是TJ Maxx和TK Maxx的所有者,几乎是沃尔玛的三倍。亚马逊否认了这些报告中的指控。“这些文件中充满了误导性和错误信息,是由拒绝接受我们已经取得实质进展的团体制作的,因为这样做会削弱他们的议程。”发言人Vogel表示,声称其在美国的总体受伤率下降了28%。在纽约SWF1工作的Williams最近有了一些好消息。在他的在线筹款活动筹集了数千美元后,他的家人的租赁申请被接受了。他们希望下个月搬进新公寓。“有很多眼泪,”他告诉《卫报》。“在黑暗的时刻里有了一丝阳光。”他仍在争取从亚马逊获得残疾福利。“这家公司的利润和对员工的付出之间的差距太大了,太大了,”Williams说。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB