全球人工智能领域最具影响力的大会CVPR近日宣布,将2022年“最佳学生论文”奖颁给同济大学研二学生陈涵晟等人,这是二十多年来首次有中国高校学生获此殊荣。该论文是陈涵晟在阿里达摩院实习期间的成果,融合了传统几何推理和深度学习,提出了计算3D物体位姿的新方法,能从单张图片计算出3D物体在真实世界里的位置和朝向,有望成为自动驾驶、机器人等技术发展的理论动力。
CVPR(国际计算机视觉与模式识别会议)是人工智能领域的顶级学术会议,今年共收到8161篇论文投稿,最终录取2064篇,只评出最佳论文和最佳学生论文各1篇。CVPR的最佳论文和最佳学生论文常被视作AI技术风向标,诞生了ResNet等一系列标志成果。
CVPR早在2001年就设立最佳学生论文奖,今年首次发给中国高校学生。获奖论文《EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monocular Object Pose Estimation 》来自同济大学汽车学院和阿里巴巴达摩院,作者分别是陈涵晟、王丕超、王帆、田炜、熊璐、李昊。

获奖证书
论文研究的是3D视觉领域经典问题,通过单张图像求解3D物体在真实世界里的位姿(位置和朝向)。这一技术方向应用前景广阔,是自动驾驶、机器人等行业的基础技术。比如在自动驾驶中,只有先计算出周边车辆的位姿,判断对方究竟是要加速、刹车还是变道,己方车辆才能做出对应操作,计算不准或者过慢都有可能引发事故。

3D物体的位姿计算示意
通过单张图像定位3D物体极具挑战性。一般有两类解决方法:一类是基于几何推理,例如PnP算法,可解释性好、泛化能力强,但需要提前知道物体的尺寸和形状,具有较大的局限性;另一类是深度学习方法,可预测3D物体的位置坐标和朝向角度,但在小规模数据集上容易过拟合。
获奖论文提出的新方法EPro-PnP,创造性地引入概率分布,将几何推理和深度学习两种方法无缝衔接,形成了一个端到端的易用模型,可以快速估算3D物体的位姿。实验证明,新模型通用性强、定位准确,不需要提前知道物体的几何形状;更要重的是非常简洁,效率较高,且具有较好的可解释性,有望用于自动驾驶、机器人、无人机、AR等诸多需要通过视觉来估算物体位姿的场景。

EPro-PnP方法示意
据了解,论文第一作者陈涵晟本硕都就读于同济大学汽车学院,目前研究生二年级在读,导师为熊璐教授,副导师为田炜助理教授,达摩院导师为王丕超博士。他的研究方向是计算机视觉中的3D物体位姿估计,研一就已在CVPR发表论文。2021年到阿里达摩院做研究型实习生后,在达摩院日常研究讨论中碰撞出灵感,尝试去构造统一的理论框架。“我原来以为这篇论文可能比较冷门,因为太偏数学,没想到能够获奖。”陈涵晟说。

达摩院研究型实习生、同济大学研究生陈涵晟
论文第一通讯作者、达摩院算法专家王丕超博士表示,这篇论文特别之处在于,用数学的方式解决AI底层问题,带来了基础理论上的突破,对3D视觉领域的研究和应用都将产生积极影响。“核心创新是转换数学视角,引入概率密度,把不可导的函数变成可导,所以能通过反向传播来训练深度网络,最终实现稳定收敛,提升3D物体的定位精度。”
据悉,研究型实习生是阿里巴巴在2017年创立的科研项目,已为全球200多所顶尖高校的1000多名学子提供科研岗位。
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。