2024智源大会议程公开丨人工智能人才发展交流会

2024年6月14日-15日,第6届北京智源大会将以线下与线上结合的形式召开,线下会场设在中关村国家自主创新示范区会议中心。2024智源大会再次以全球视野,汇聚年度杰出工作研究者,交流新思想,探讨新思路,引领新前沿。


目前已正式开放报名渠道。

人工智能人才发展交流会丨6月14日下午
2024北京智源大会将举办人工智能人才发展交流闭门会, 诚邀您共同探讨人工智能人才发展的关键议题。论坛将围绕具身智能领域、自然语言领域、机器视觉领域、多模态领域、强化学习领域、AI for Science等方向进行讨论,为您提供与智源科研专家面对面交流的机会,探讨职业发展规划,共同开启思想碰撞,引领前沿发展。

时间
2024年6月14日 17:30–19:30
地点
中关村国际自主创新示范区展示中心
会议中心 B206会议室(二层阳山厅)
面向对象
1、国内外知名大学或科研机构博士学位获得者
2、目前在国内外知名高校、科研机构、企业,或从事博士后研究科研人员;或学术成绩突出的国内外知名高校在读博士生/应届博士生
3、研究方向:具身智能、自然语言、机器视觉、多模态、强化学习、AI for Science等人工智能领域

你将收获
深度交流,共创未来
提供一个开放的平台,让青年学者共同探讨人工智能领域技术创新和人才发展的趋势。

借鉴经验,拓展视野
倾听青年学者分享他们的科研成果、职业规划,从中汲取灵感、借鉴经验,拓展自己的学术视野和职业发展路径。

建立合作,共谋发展
提供一个理想的合作平台,促进跨领域的学术交流与合作。

即刻报名


图片

扫描二维码即刻投递
申请时间:即日起——2024年6月10日 18:00
扫描二维码即刻投递
与全球青年学者
一起探索人工智能人才发展的未来之路!
```

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

2024北京智源大会开启注册!

北京智源大会是人工智能领域综合性内行盛会,自2019年10月首度亮相,已成功举办五届。大会以鲜明的特色,邀请海内外研究者开展精彩演讲与深入对话,共有11位图灵奖得主曾参与大会,每年有200位顶尖专家出席,来自30多个国家和地区的50万观众汇聚一堂,分享研究成果、探寻前沿知识、交流实践经验、建立紧密合作。


大会特色
全球视野: 与世界顶尖专家面对面交流,体验技术无国界的魅力
思想碰撞: 年度杰出研究者齐聚一堂,交流新思想,探讨新思路
前沿引领: 探讨AI领域关键问题,发布重要概念,指引未来方向

过往五年的璀璨篇章,
点亮AI领域新概念、新工作、新方向
2023年 Geoffrey Hinton、Sam Altman、Yann LeCun等首次与中国专家同台,“AI安全”自此引起广泛重视
2022年 国际先锋机构齐聚,论坛数量创历史新高,专家和观众数量规模空前
2021年 首次提出“大模型”概念,这个在当时超前的术语如今已经融入千行百业
2020年 新十年伊始,五位图灵奖得主,共议人工智能技术如何发展、创新怎样延续
2019年 首届“内行AI盛会”亮相,向世界展示北京人工智能开放、活跃及致力可持续发展的风采

过去一年,人工智能技术加速发展,诸多里程碑横空出世——Sora视频生成模型惊艳世人,昭示了多模态模型理解世界、模拟世界的惊人潜能;开源大模型百花齐放迸发强大技术生命力;Mamba等模型新架构的出现屡屡向Transformer发起挑战;具身与人形机器人、自动驾驶等前沿技术持续蓬勃发展,AI产业应用落地进一步提速,促进千行百业智能化转型。随着模型训练不断吸纳海量数据,数据隐私日益凸显,AI安全问题愈发紧迫。

围绕着这些当下AI领域的关键问题,2024北京智源大会如约而至。

2024年6月14-15日,第6届北京智源大会将以线下与线上结合的形式召开,线下会场设在中关村国家自主创新示范区会议中心。大会共同主席由智源学术顾问委员、加州大学伯克利分校教授Michael I. Jordan,智源学术顾问委员、清华大学智能产业研究院(AIR)院长张亚勤,以及智源研究院理事长黄铁军担任。共同程序主席由智源首席科学家、人民大学高瓴人工智能学院执行院长文继荣,智源学者、昆仑万维2050全球研究院院长颜水成,以及智源研究院院长王仲远担任。

Image

2024智源大会再次以全球视野,汇聚年度杰出工作研究者,交流新思想,探讨新思路,引领新前沿。本次大会将有4大亮点:

亮点一:国际顶尖机构与团队汇聚
不仅邀请国内顶尖技术团队代表,还将汇聚OpenAI、Google DeepMind、Mila、Meta、微软、斯坦福、UC Berkeley、MIT、Boston Dynamics等国际明星机构、企业与科研团队。

亮点二:重要工作完成人面对面
邀请过去一年,海内外AI领域重要工作的主要贡献者参与交流讨论,包括Sora、GPT、Llama、Gemini、Phi-3、Claude等项目作者,以及大语言模型、视觉模型、多模态模型、生成模型、安全对齐、Agent、具身智能、认知神经、医疗和生物、智能驾驶、AI for Science、基础系统、开源、基建等十余个重要方向的里程碑工作。

亮点三: AGI关键问题尖峰对话
大会围绕AGI实现过程中的技术路径,局限与挑战,开放与封闭研究,安全,经济与社会影响等对人工智能未来发展至关重要的问题邀请大师展开尖峰对话。

亮点四: 首次设立产业大会,聚焦创新发展
汇聚AI领军企业与创业先锋,探讨人工智能技术如何驱动产业变革与创新。与会者将分享最新的研究成果和应用案例,深入讨论各领域的实际应用与未来趋势,推动跨行业合作与技术进步。

即刻扫码注册,参与大会报名
本届大会采用线下与线上模式融合,报名通道已开启,欢迎扫码免费注册。由于线下席位有限,请尽早完成注册,组委会将根据注册次序审核,并在会前发送审核结果通知。公开环节将向注册用户全程线上直播。

Image

大会合作、咨询、赞助欢迎联系:press@baai.ac.cn
大会官网 https://2024.baai.ac.cn



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

国产大模型被抄袭事件告终 斯坦福团队致歉并撤下模型 面壁:知错能改,善莫大焉

斯坦福Llama3-V团队的终于向面壁智能团队正式道歉。

事情缘起于5月29日,斯坦福大学的一个研究团队发布了一个名为Llama3V的模型,号称只要500美元就能训练出一个 SOTA 多模态模型,且效果比肩 GPT-4V、Gemini Ultra 与 Claude Opus。


一时间备受关注,该AI团队背景豪华。3名作者拥有斯坦福大学、特斯拉、SpaceX的名校和企业背景。

但让人大跌眼镜的是,Llama3V与中国AI企业面壁智能在5月发布的8B多模态开源小模型MiniCPM-Llama3-V 2.59高度重合。

6月2日,有人在 Llama3-V的 Github 项目下提出质疑,但留言很快被删除。而后,事件引起面壁智能团队注意。

面壁团队通过测试,发现斯坦福大模型项目Llama3-V与MiniCPM一样,可以识别出“清华简”战国古文字,“不仅对得一模一样、连错得都一模一样”。

最后,斯坦福Llama3-V团队的两位作者Siddharth Sharma和 Aksh Garg在X上就抄袭行为向面壁智能团队正式道歉,并表示会将Llama3-V模型撤下。


事件各方表态

面壁智能CEO李大海针对斯坦福团队的Llama3V项目与面壁小钢炮的相似案例谈到,这项工作是团队同学耗时数个月,从卷帙浩繁的清华简中一个字一个字扫描下来,并逐一进行数据标注,融合进模型中的。更加tricky的是,两个模型在高斯扰动验证后,在正确和错误表现方面都高度相似。

李大海无奈的说道,技术创新不易,每一项工作都是团队夜以继日的奋斗结果,也是以有限算力对全世界技术进步与创新发展作出的真诚奉献。我们希望团队的好工作被更多人关注与认可,但不是以这种方式。

“我们对这件事深表遗憾!一方面感慨这也是一种受到国际团队认可的方式,另一方面也呼吁大家共建开放、合作、有信任的社区环境。一起加油合作,让世界因AGI的到来变得更好!”

对此,面壁智能联合创始人、首席科学家刘知远也作出回应。

刘知远表示,已经比较确信Llama3-V是对我们MiniCPM-Llama3-V 2.5套壳,比较有意思的证据是MiniCPM-Llama3-V 2.5研发时内置了一个彩蛋,就是对清华简的识别能力。这是我们从清华简逐字扫描并标注的数据集,并未公开,而Llama3-V展现出了一模一样的清华简识别能力,连做错的样例都一样。

“人工智能的飞速发展离不开全球算法、数据与模型的开源共享,让人们始终可以站在SOTA的肩上持续前进。我们这次开源的 MiniCPM-Llama3-V 2.5就用到了最新的Llama3作为语言模型基座。而开源共享的基石是对开源协议的遵守,对其他贡献者的信任,对前人成果的尊重和致敬。”

刘知远指出,Llama3-V团队无疑严重破坏了这一点。他们在受到质疑后已在Huggingface删库,该团队三人中的两位也只是斯坦福大学本科生,未来还有很长的路,如果知错能改,善莫大焉。

刘知远谈到,这次事件还让我感慨的是过去十几年科研经历的斗转星移。回想2006年我读博时,大家的主要目标还是能不能在国际顶级会议上发篇论文;到2014年我开始做老师时,就只有获得国际著名会议的最佳论文等重要成果,才有机会登上系里的新闻主页;2018年BERT出来时,我们马上看到了它的变革意义,做出了知识增强的预训练模型ERNIE发在ACL 2019上,当时以为已经站到国际前沿了;2020年OpenAI发布了1700+亿参数GPT-3,让我们清醒认识到与国际顶尖成果的差距,知耻而后勇…


何为面壁小钢炮

今年5月,面壁小钢炮 MiniCPM 系列,再次推出最强端侧多模态模型 MiniCPM-Llama3-V 2.5,且支持30+ 多种语言。

MiniCPM 是以「以小博大」著称的旗舰端侧模型,也不断推新端侧多模态能力天花板—— MiniCPM-Llama3-V 2.5实现了「以最小参数,撬动最强性能」的最佳平衡点。

从评测结果看,MiniCPM-Llama3-V 2.5以8B 端侧模型参数量级,贡献了惊艳的 OCR(光学字符识别)SOTA 成绩,以及端侧模型中的最佳多模态综合成绩与幻觉能力水平。

在综合评测权威平台 OpenCompass 上,MiniCPM-Llama3-V 2.5以小博大,综合性能超越多模态“巨无霸” GPT-4V 和 Gemini Pro。

OCR(光学字符识别)是多模态大模型最重要的能力之一,也是考察多模态识别与推理能力的硬核指标。新一代 MiniCPM-Llama3-V 2.5在 OCR 综合能力权威榜单 OCRBench 上,越级超越了 GPT-4o、GPT-4V、Claude 3V Opus、Gemini Pro 等标杆模型,实现了性能 SOTA。

在评估多模态大模型性能可靠性的重要指标——幻觉能力上,MiniCPM-Llama3-V 2.5在 Object HalBench 榜单上超越了 GPT-4V 等众多模型(注:目标幻觉率应为0)。

在旨在评估多模态模型的基本现实世界空间理解能力的 RealWorldQA 榜单上,MiniCPM-Llama3-V 2.5再次超越 GPT-4V 和 Gemini Pro,这对8B 模型而言难能可贵。

值得注意的是,该模型首次进行端侧系统加速,MiniCPM-Llama3-V 2.5已高效部署手机。

在图像编码方面,面壁首次整合 NPU 和 CPU 加速框架,并结合显存管理、编译优化技术,在 MiniCPM-Llama3-V 2.5图像编码方面实现了150倍加速提升。

在语言模型推理方面,目前开源社区的报告结果中,Llama 3语言模型在手机端侧的解码速度在0.5 token/s 上下,相比之下…

有别于常见的中英双语模型,MiniCPM-Llama3-V2.5可支持30+ 多种语言,包括德语、法语、西班牙语、意大利语、俄语等主流语言,基本覆盖一带一路国家。

总结起来就是,通过…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

中国产品Motiff妙多与国际巨头Figma展开竞争 企业级AI应用全球首秀

今年以来,Sora、GPT-4o等模型的相继亮相,让社会各界对AI发展的想象力进一步提升。随着基础模型能力增强,如何通过AI应用实现对各个行业的变革成为备受关注的焦点。


2024年6月5日,定位“AI时代设计工具”的Motiff妙多面向全球发布并公布定价。Motiff妙多由看云软件研发,AI能力的加持使其开创了界面设计行业的多个“第一”,不仅首创AI复制、AI布局、AI设计系统创建、AI设计系统维护、AI一致性检查等多个AI功能,也是国内首个自研图形渲染引擎的界面设计软件;还基于AI带来的升级打破了当今SaaS行业的定价规则:未来AI应用的核心价值在于AI能力,基础功能价格将回归“标配”水平。

本次发布在新加坡SuperAI峰会进行,除了Motiff妙多,谷歌、微软等全球顶尖AI企业也带来了各自在AI领域的最新产品,共同探讨AI前沿议题。Motiff妙多运营副总裁张昊然表示,“Motiff妙多将精细的设计软件与高效智慧的AI能力完美融合,优化设计流程,大幅提高生产力,为用户带来前所未有的设计体验。我们相信,Motiff妙多将成为AI时代界面设计的引领者。”

打造企业级AI应用,Motiff妙多重新定义界面设计工具

当下,界面设计行业仍然处在低效能产出时代,在生产流程中还存在大量琐碎但创意价值感低的工作,制约了设计师的生产效率。此前,Figma通过在线编辑器提升了设计师的协同效率,但如何真正解放设计师的生产力,Motiff妙多用AI给出了解决方案。

如何打造一个好的企业级AI应用?张昊然认为有三个关键因素,一是关键的用户场景提效,二是实现生产力和生产工具之间的关系变革,三是通过AI生成进一步解放生产力。基于此,Motiff妙多的AI工具箱、AI设计系统和AI实验室从界面设计流程中的实际痛点出发,有效提升界面设计行业的生产力。

AI工具箱包含AI复制和AI布局两个功能,AI复制针对设计师工作中大量重复性的“复制-粘贴-逐一修改”操作,省去了繁琐的调整步骤,让“十步变一步”。AI布局解决了过去设计师必须在自由设计和结构设计中“二选一”的难题,自由设计的灵活和结构设计的便利能“鱼和熊掌兼得”。

设计系统是每个设计团队绕不开的话题,它是数量庞大的组件、设计规范和协作指南的集合,作用是保证设计团队成品的一致性,让设计风格统一。以行业里著名的开源设计系统Ant Design(蚂蚁集团设计系统)为例,有着几十种不同的组件,每种组件又有上百种不同的变体,如按钮就有近300个不同变体。

维护设计系统是一项复杂且耗时的工作,以某互联网大厂设计团队为例,10%的设计师在全职维护设计系统;一些中小型设计团队则根本没有精力搭建设计系统。针对这些问题,Motiff妙多的AI设计系统在创建、维护和一致性检查等方面能够显著提效。AI可以在创建和维护场景下一键找出需要的组件和样式;也可根据设计系统,一键进行设计稿一致性检查。这让设计师仅需花费几分钟就能完成过去至少几周才能做出的成果。

发布会首次亮相的AI生成UI功能吸引了诸多关注,它与AI魔法框功能所组成的AI实验室将触达最前沿的AI应用成果,为用户提供新奇的AI设计体验。通过AI生成UI功能,用户只需要文字输入一段话,Motiff妙多就能呈现一版设计图稿。该功能采用了多模态大模型技术,以保证能生成符合用户意图的、美观的UI界面。

颠覆定价规则:AI价值为核心,基础功能价格低80%以上

基于强大的原创AI功能,Motiff妙多在定价上采取了以AI价值为核心、基础功能回归“标配”的策略。目前界面设计行业的收费逻辑仍然围绕基础功能展开,但在张昊然看来,未来,UI设计工具的核心价值在于AI功能,基础功能将成为“标配”,因此Motiff妙多的基础功能定价将率先回归“标配”价格。

据了解,Motiff妙多面向全球市场统一定价,基础功能收费分为三档:除了免费版之外,专业版基础功能价格为24元/月(国际版4美元/月),研发模式6元/月(国际版1美元/月);企业版基础功能价格为90元/月(国际版15美元/月),研发模式18元/月(国际版3美元/月)。以此计算,企业采购的综合价格相比Figma低80%以上。

Motiff妙多在基础功能极具价格竞争力的同时,还带来了更好的产品能力。发布会上,Motiff妙多展示了自研的图形渲染引擎。这是继Figma之后全球第二家、也是国内首家自研Web端图形渲染引擎的产品。测试数据显示,Motiff妙多在流畅性和速度…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

GLM-4开源版本终于来了:超越Llama3,多模态比肩GPT4V,MaaS平台也大升级

最新版本大模型,6 分钱 100 万 Token。

今天上午,在 AI 开放日上,备受关注的大模型公司智谱 AI 公布了一系列行业落地数字:

图片

根据最新的统计数据,智谱 AI 大模型开放平台目前已经获得 30 万注册用户,日均调用量达到 400 亿 Tokens,其中,过去 6 个月 API 每日消费量增长达 50 倍以上,性能最强的 GLM-4 模型在过去 4 个月中有超过 90 倍的增长。


在近清言 App 中,已有超过 30 万个智能体活跃在智能体中心,包括许多出色的生产力工具,如思维导图、文档助手、日程安排等等。

而在新技术一侧,GLM-4 的最新版本 GLM-4-9B 全方位超越 Llama 3 8B,多模态模型 GLM-4V-9B 也已上线,所有大模型全部保持开源。

一系列商业化成果、技术突破让人眼前一亮。

MaaS 平台升级 2.0 版

打下大模型应用门槛 

最近,国产大模型正在掀起新一轮的竞争。

5 月初,智谱 AI 率先将大模型 GLM-3-Turbo 服务的价格降低到了原来的 1/5,也激起了众多大模型领域玩家「参战」。从争相成立创业公司、「百模大战」再到价格战,大模型赛道的竞争螺旋攀升。

而降低大模型服务的成本,能够让更多的企业和开发者获得新技术,进而催生足够大的使用量,这不仅能加速技术的突破,也能让大模型在各行各业快速渗透,铺开商业化的布局。

值得一提的是,到了目前的节点,大模型的价格已被压的很低,但智谱表示自己不怕打价格战。

「相信大家对于最近的大模型价格战有所了解,也很关心智谱的商业化策略。我们可以很自豪地说,我们是通过模型核心技术迭代和效率提升,通过技术创新,实现应用成本的持续降低,同时保证了客户价值的持续升级,」智谱 AI CEO 张鹏说道。

根据企业的不同应用规模,智谱宣布了一系列最新的调整价格。API 最高折扣达到 6 折,使用 GLM-4-9B 版本可以只需要 6 分钱 / 100 万 token。回想去年年初,GLM 系列大模型的价格已经降低了 1 万倍。

图片

作为率先投入生成式 AI 的创业公司,智谱 AI 的商业化速度快过一众竞争对手。基于千亿级多模态预训练模型构建产品矩阵。其面向 C…


---
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:[GPTNB](https://gptnb.com)。

大会发布|WAIC 2024倒计时30天发布会顺利召开,主视觉及主题发布!

6月5日,2024世界人工智能大会暨人工智能全球治理高级别会议(以下简称“WAIC 2024”)倒计时30天发布会在上海世博展览馆举行,WAIC 2024媒体注册及团组报名通道同步开启。大会组委会办公室、承办单位、合作伙伴、重要参展商代表、人工智能相关企业代表和新闻媒体界记者出席发布会。


图为东浩兰生会展集团股份有限公司党委副书记、总裁毕培文介绍WAIC 2024整体情况

本次发布会上,东浩兰生会展集团股份有限公司党委副书记、总裁毕培文对WAIC 2024筹备情况进行整体介绍,并发布WAIC 2024的主视觉及主题。

图为WAIC 2024主视觉

据介绍,WAIC 2024将于7月在上海举行,论坛时间7月4日-6日,展览时间7月4日-7日。WAIC 2024将围绕“以共商促共享 以善治促善智”的主题,打造“会议论坛、展览展示、评奖赛事、智能体验”四大核心内容。

内容方面,大会亮点如下:

会:十大议题汇聚行业洞见,五洲齐聚构筑AI盛会。

本次大会的会议论坛将以创新的“1+3+10+X”层级架构焕新呈现,以一场开幕式和三场全体会议——全球治理、产业发展、科学前沿为引领,全面覆盖AI伦理治理、大模型、数据、算力、具身智能、AI for Science、智慧工业、自动驾驶、投融资、教育与人才共十大重点话题。本届世界人工智能大会将汇聚超过1000位全球领军人物,包括图灵奖、马尔奖、菲尔兹奖得主,国内外院士,国内外学术代表,世界500强企业代表等,他们将共同分享深刻的见解,为人工智能技术的创新与发展注入新的活力。

展:五百余家参展群星荟聚,共塑AI+科技新纪元。

本届世界人工智能大会展览面积扩大至52,000平方米,参展企业数量突破500家,预计展出的展品数量将超过1,500项,更有超过50款创新产品将在此次大会上首次亮相。展览内容聚焦核心技术、智能终端、应用赋能三大板块,汇聚一批海内外领军企业、互联网巨头、中央企业和地方国企,展示在技术更新迭代及创新应用方面的最新探索成果,并首次展示一系列备受瞩目的新品。

赛:“三奖三赛”擦亮WAIC品牌,点燃领域内创新激情。

2024年“SAIL奖”广泛发动国内外合作机构推荐优质创新项目成果,国际项目比例达历年最高。“青年优秀论文奖”本年度共征集到五十多所国内外高校院所成果参评。“云帆奖”遴选人工智能领域最具潜力青年技术人才,今年招才引智效应进一步加强。另外,BPAA第四届全球应用算法模型典范大赛、团市委青少年人工智能创新大赛、浦源大模型挑战赛(夏季赛)三大品牌赛事,为进一步打造高品质人才生态赋能。

用:探秘“三维一体”AI奇域,开启未来之城智能体验。

WAIC 2024再次升级智能化应用体验,“模力奇域”将以大模型应用、机器人场景、元宇宙场景为三大主线,以文生文、文生图、文生视频AIGC 等技术打造了奇域电视台、奇妙音乐棚、奇客餐厅、奇缘酒吧等一系列沉浸式体验场景。机器人矩阵将展现机器人集群的震撼场面,让观众感受到机器人技术的力量和魅力;而虚实融合的元宇宙场景更将带来虚拟城市漫游、与数字人物互动等新奇体验,为观众带来一场跨越现实与虚拟、传统与现代的奇妙之旅。

才:筑巢引凤聚集AI人才,建立全年发展长效机制。

本届世界人工智能大会继续致力于“以会引才”。其中将以人才培养平台建设为核心,以人才发展测评、青少年人工智能创新发展、女性菁英交流、青年科学家座谈交流、优秀论文路演等为支干开展相关论坛活动。此外,大会还设有不间断的新秀开放麦、创新项目路演等环节,为青年新势力提供展示舞台,激发创新活力。“全球智选:WAIC千岗直招”活动搭建起产业界与人才之间的直接对话桥梁,截至目前已征集到首批1600余个岗位需求。

生态:WAIC生态全域链接,开启创新生态与AI赋能新篇章。

今年的世界人工智能大会还将在展览馆H3馆设立一个6000平方米的“全域链接馆”,这一独特的空间将集创新孵化、投资路演、场景发布、供需接洽、人才招聘等全域生态功能于一体,为参展各方提供全方位的交流与合作平台。

其中,特别设立《Future Tech 100未来之星创新孵化展区》,挖掘100个全球最具创新前瞻性…..



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

BPAA 第四届全球应用算法模型典范大赛启动

5月15日,世界人工智能大会品牌赛事BPAA第四届全球应用算法模型典范大赛(简称“BPAA大赛”)在第四届上海数字创新大会上正式启动。第四届上海数字创新大会是上海市经济和信息化委员会、上海市科学技术委员会、上海市数据局、上海市普陀区人民政府联合主办的市级产业大会,以“沪领数字新动能,共融新质生产力”为主题,汇聚各方力量共同擘画数字中国建设蓝图,探索新质生产力的数实交融之道。


上海市相关委办领导、普陀区主要领导等在大会现场见证了第四届BPAA大赛的启动。

图片

BPAA大赛作为世界人工智能大会四大品牌赛事之一,已连续举办三届。在过去三年,大赛共汇集全球15个国家60多个城市700多支团队参与大赛角逐,大赛每年发布应用算法典范TOP50榜单,涉及公共、工业、金融、医疗、商业等多个领域,形成了应用算法先进案例库。作为每年各主流媒体关注的焦点,BPAA大赛共计获人民日报、人民网、新华网、光明网、中国新闻网、环球网等国内权威媒体报道近1500篇,海外媒体关注并报道超600篇。去年在第三届BPAA大赛上,顺应GPT时代背景,以大、中、小模型为切入,特设通用大模型和垂直行业大模型算法应用赛道(X赛道),亦是走在了关注大模型创业项目的赛事前列。

往届获奖项目

今年第四届BPAA大赛再度升级,增添三大亮点。首先,为加强区域合作,BPAA大赛将联合长三角地区的企业、高校和研究机构,组建长三角算法模型应用产业联盟,深入探索产业生态构建与市场供需两侧对接,共同推动算法技术的研发和应用。该联盟将汇聚区域内重点产业龙头企业作为联盟成员,实现产业发展与招商引资的双赢。其次,BPAA大赛将引入“揭榜挂帅”机制,立足于上海市及普陀区,紧密结合区域发展的实际需求,聚焦行业大模型的产业化落地,鼓励企业和团队挑战具有重大社会意义和产业价值的算法难题。通过揭榜挂帅,将汇聚各方智慧和力量,共同攻克技术难题,推动算法产业集群的打造和算法生态的完善。再次,今年大赛新增设可持续发展赛道(AI4SDG),为可持续发展贡献智慧力量。联合国在2015年通过了17个可持续发展目标(SDGs),旨在2030年实现一个包容、可持续且不让任何人掉队的社会,同时今年世界人工智能大会的主题为“以共商促共享 以善治促善智”,该赛道围绕可持续发展目标和大会主题,鼓励参赛者关注环保、能源、智慧城市等领域,利用AI技术解决SDGs提出的挑战。

报名通道

图片

为鼓励算法模型企业落地聚集、助力算法孵化,在今年大赛启动的同时,普陀区与零点有数、360智脑等企业进行算法谷落成拟签约仪式,旨在打造创新项目集聚的载体。未来,作为数字经济集中区的载体,算法谷将在全国各地陆续落地,形成有全国影响力的算法模型产业集聚生态。本届BPAA大赛由上海市经济和信息化委员会、上海市普陀区人民政府指导,上海市人工智能行业协会、零点有数主办,上海人工智能研究院、飞马旅、彬复资本等单位联合承办,将在5月15日至6月中旬进行初赛征集,并拟于7月初在上海普陀区举办线下总决赛及峰会。零点有数作为中国前沿的数据分析与决策智能服务机构,是算法模型产业早期创导者,也是算法产业化的重要推动者。从2021起,率先倡导并助推算法产业化进程,多年赛事经验让零点有数与众多算法强队建立友好关系,这些团队是中国本土算法模型的先行者,是在中、小模型已有成就的建设者,也是未来大模型建设重要的支持力量。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Amazon将利用计算机视觉在发货前发现缺陷

Amazon将利用计算机视觉和人工智能确保客户收到的产品状况良好,并进一步推动其可持续发展工作。图片{ width=50% }


该举措被称为“P.I. 项目”(代表“private investigator”),在北美的亚马逊履行中心进行,将每天扫描数百万个产品以检测缺陷。

P.I. 项目利用生成式人工智能和计算机视觉技术来检测损坏的产品或不正确的颜色和尺寸等问题在产品到达客户之前。该AI模型不仅能够识别缺陷,还有助于发现根本原因,使亚马逊能够在上游实施预防措施。该系统在部署的站点中已被证明非常有效,能够准确识别每月处理的大量产品中的问题。

在任何物品发货之前,它都会通过一个成像隧道,P.I.项目评估其状态。如果检测到有缺陷,物品将被隔离并进行进一步调查,以确定是否有类似产品受到影响。

亚马逊的员工将审查被标记的物品,并决定是否通过亚马逊的“Second Chance”网站以折扣价转售,捐赠或找到替代用途。这项技术旨在充当额外的视觉帮助,增强了在数个北美履行中心进行的手动检查,计划在2024年进一步扩展。

亚马逊全球卖家服务副总裁Dharmesh Mehta表示:“我们希望每次顾客在我们商店购物时都能获得良好的体验。
“通过在我们的运营设施中利用人工智能和产品成像,我们能够有效检测潜在的损坏产品,并在它们到达客户之前更好地解决这些问题,这对客户、我们的销售伙伴和环境都是一个胜利。”

P.I. 项目在亚马逊的可持续发展工作中发挥着至关重要的作用。通过防止受损或有缺陷的物品到达客户,该系统有助于减少不必要的退货,浪费的包装以及由于附加运输而产生的不必要的碳排放量。

亚马逊全球可持续性副总裁Kara Hurst评论说:“人工智能正在帮助亚马逊确保我们不仅通过高质量的物品让顾客满意,而且我们通过防止不完美的物品离开我们的设施并帮助我们避免由于运输、包装和退货流程中的其他步骤而产生的不必要碳排放,将这种顾客执着延伸到我们的可持续发展工作上”。

与此同时,亚马逊正在利用一个配备Multi-Modal LLM(MLLM)的生成式人工智能系统来调查负面顾客体验的根本原因。
当顾客报告的缺陷通过初步检查时的,该系统会审查顾客反馈并分析来自履行中心的图片,以了解出了什么问题。例如,如果顾客收到了产品的错误尺寸,系统会检查履行中心图像中的产品标签以准确定位错误。

这项技术对亚马逊的销售伙伴特别有利,尤其是占亚马逊销售的60%以上的中小型企业。通过更易于获取的缺陷数据,亚马逊帮助这些卖家快速纠正问题,并减少未来的错误。

(图片来源:Andrew Stickelman)
另请参阅:X现在允许AI生成的成人内容

想从行业领袖那里了解有关人工智能和大数据的更多信息吗?查看在阿姆斯特丹、加利福尼亚和伦敦举行的人工智能与大数据博览会。这一全面的活动与其他领先活动同时举办,包括智能自动化会议、BlockX、数字转型周和网络安全与云博览会。
浏览由TechForge提供的其他即将举行的企业技术活动和网络研讨会。

Tags: ai, Amazon, artificial intelligence, computer vision, generative ai, mllm, multi-modal, project p.i.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

如何利用人工智能提升5G容量

30% 更高的无线网络容量来自于人工智能优化
今天,Mobile Experts发布了一份开创性的技术市场报告,阐明移动运营商将如何在其5G网络中利用人工智能/机器学习技术增加容量,而无需购买额外设备。图片{ width=60% }


美国移动运营商面临着艰难的未来。他们在密集城市市场的容量如今已足够,并且甚至将一些这种容量用于固定无线接入和其他应用。但在2027年至2029年,Mobile Experts预测,在密集城市热点地区的容量将不足,这是由于5G网络中视频流量持续增长而导致的。
人工智能是未来提高5G数据需求的一个原因。如今,AI在驱动网络流量方面的作用仅占很小比例,但随着基于云的AI引擎越来越多地修改照片和视频,我们预计将看到持续的数据增长,将超过网络的容量。
Mobile Experts的首席分析师Joe Madden评论说:“这份新报告研究了AI/ML如何增加现有5G基础设施的容量。我们已经能够审查所有主要网络供应商的现场试验,并综合了这一功能将如何被使用,以及如何被引入市场。”
这份新报告《2024年RAN的人工智能》包括对网络中软件升级的未来五年展望,以及支持网络中AI/ML的基带芯片组和GPU/SoC模块的影响。
该报告还着重关注了AI/ML在开放 RAN 网络中使用的困难。尽管开放 RAN 联盟和其他组织做出了良好的工作,但Mobile Experts指出了AI使用的原始数据和训练模型可能会让现任供应商对开放 RAN 竞争对手占据优势的一些方面。
Mobile Experts研究的订阅者将获得:
40页全文《2024年RAN的人工智能》完整访问;20张全面的图表和数据;一份包含五年预测细节(2024-2029年)的 Excel 文件;可以与报告背后的分析人员交流。
浏览 AITechPark 以获取人工智能、物联网、网络安全、人工智能科技新闻以及行业专家见解的最新进展!。请先将这篇文章翻译为中文,Title部分内容需要翻译为中文。最后只需要输出为Makedown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

利用生成式人工智能进行先进的网络安全防御

查看保护您的组织免受人工智能威胁的简便方法。图片{ width=60% }


获取有关利用人工智能实现更安全网络安全的专家建议。2024年已经全面展开,我们已经看到生成式人工智能(GenAI)如何推动组织之间的网络安全竞赛。随着防御和进攻方都采用并操作精心调整的大型语言模型(LLM)和专家混合(MoE)模型增强工具,组织在网络安全方面的方法必须迅速演变。例如,GenAI驱动的能力,如自动代码生成、逆向工程、深度伪造增强的网络钓鱼和社会工程学,正达到以前难以想象的复杂度和速度水平。

迅速采用和部署这些人工智能增强的网络安全工具的紧迫性正在增加,对于不愿投资和采用这些工具的组织来说,它们不可避免地会落后,从而将自己置于极高的妥协风险之中。虽然对组织来说迅速跟上这种快速发展步伐至关重要,但同样重要的是要认识到生成式人工智能及其成为双刃剑的潜力。为了避免人工智能的危险,并利用其益处,组织必须理解跟进其进展的重要性,认识到这项技术固有的开展良好和有害容量,并实施内部流程来弥合知识差距并处理与人工智能相关的风险。为了对抗已知和新兴的人工智能相关威胁,如数据泄露、模型污染、偏见和模型幻觉,确立额外的安全控制和防范措施是必不可少的,然后再将这些人工智能技术操作化。

跟上对手的步伐
人工智能威胁所带来的挑战在于其快速演变和适应能力,这可能使传统的签名和基于模式的检测方法失效。为了对抗这些基于人工智能的威胁,组织将需要实施人工智能驱动的对策。未来的网络安全可能会被一个网络人工智能竞赛所定义,其中进攻和防守力量都会相互利用人工智能。

众所周知,网络攻击者越来越多地使用GenAI工具和LLM来以前所未有的速度和规模进行复杂的网络攻击。推迟实施AI驱动的网络防御解决方案的组织将发现自己处于明显劣势。他们不仅将难以充分保护其系统免受人工智能驱动的网络攻击,还会无意中将自己定位为主要目标,因为攻击者可能认为他们未受AI保护的系统极其脆弱。

优点与潜在的风险
当恰当实施,保障和利用时,诸如GenAI之类的技术有望显著增强组织的网络防御能力。例如,基础和精调的LLM可以加快网络威胁检测、分析和响应的过程,从而实现更有效的决策和威胁消除。与人类不同,LLM增强系统可以快速识别庞大数据集中的新模式和细微相关性。通过帮助快速发现、封锁和响应威胁,LLM可以减轻网络安全分析人员的负担,并减少人为错误的可能性。额外的好处包括提高运行效率和潜在降低成本。

毫无疑问,如GenAI这类技术在适当情况下使用时能够提供巨大的好处。然而,重要的是不要忽视相关的风险。例如,基于GenAI的系统,尤其是LLM,是在各种来源的非常庞大数据集上训练的。为了降低数据篡改、模型偏见或漂移等风险,组织需要建立严格的流程来解决数据质量、安全性、完整性和治理问题。此外,结果模型必须安全实施、优化和维护以保持相关性,并且其使用应受到密切监督以确保道德使用。从网络安全的角度看,用于开发、训练和部署这些人工智能模型所需的额外计算和数据存储基础设施和服务代表了另一个网络攻击矢量。为了最好地保护这些人工智能系统和服务不受内部或外部威胁行为者的威胁,应采用全面的基于零信任安全的方法。

采用人工智能取得网络安全成功
考虑到人工智能正在横扫技术和网络安全领域的速度快,组织可能感到有必要在数据和安全功能领域投入时间、劳动力和专业知识的投资,而不是在适当理解的情况下应用GenAI解决方案的压力。

这可能看起来有些反直觉,但在整合人工智能时采用明智的策略(表面上,人工智能似乎可以减少人力的需求)需要相当多的人类投入和智慧。因为他们采用这些新工具,首席技术官和技术领导将需要考虑:

  • 人工智能的发展 - 可以确定GenAI将继续成为一种流动、不断发展的工具是毫无疑问的。工程师和技术人员将需要跟上它不断变化的进攻和防御能力。
  • 培训和技能提升 - 由于人工智能永远不会是一项静态技术,组织必须支持那些与重要人工智能和网络安全系统密切相关的人员的持续学习和技能发展。
  • 数据质量和安全性 - 为网络安全部署的人工智能的效果只取决于支持其学习和运行的数据的好坏。组织将需要一个强大的操作,支持安全的数据存储、处理和交付,从而为人工智能提供数据。

毫无疑问,领导者们感受到了迫切性部署人工智能的紧迫性,尤其是在坏人已经开始利用这项技术的环境中。然而,对将人工智能纳入网络安全运营的深思熟虑和战略性方法可以成为建立坚实计划的支柱,大大减少漏洞,并在未来远处了保护信息系统。

探索AITechPark,获取人工智能、物联网、网络安全、AITech新闻以及行业专家的见解更新最新进展!。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB