最新文章
像你一样思考:链式推理让计算机更好地理解我们的指令

像你一样思考:链式推理让计算机更好地理解我们的指令

这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。

动态分层剪枝:让大型语言模型"减肥"更聪明

动态分层剪枝:让大型语言模型"减肥"更聪明

这项研究提出了动态分层剪枝(DLP)方法,通过自动确定大型语言模型中各层的相对重要性来分配不同的剪枝率。与传统均匀剪枝方法相比,DLP在高稀疏度条件下表现优异,在70%稀疏度时可将LLaMA2-7B的困惑度降低7.79并提高平均准确率2.7%。DLP与多种模型压缩技术兼容,在CPU上可实现2.8x-3.7x的推理加速,为资源受限设备上部署大型语言模型提供了新方案。

跟随流程:神经符号代理助力流程图精细归因

跟随流程:神经符号代理助力流程图精细归因

这项研究介绍了一种名为FlowPathAgent的神经符号代理系统,用于解决流程图归因问题。研究团队提出了流程图精细归因这一新任务,构建了FlowExplainBench评估基准,并开发了结合视觉分割、符号图构建和基于代理的图形推理的方法。实验表明,该方法在归因准确性上比现有基线提高了10-14%,特别在处理复杂流程图时表现出色,为提升人工智能系统在处理结构化视觉-文本信息时的可靠性和可解释性提供了新途径。

大型语言模型的可信评估新方法:揭秘"捷径神经元"如何影响AI真实能力测评

大型语言模型的可信评估新方法:揭秘"捷径神经元"如何影响AI真实能力测评

这项研究首次从神经元层面揭示了大型语言模型(LLM)评估中的"数据污染"机制。研究团队发现当模型在训练中接触过测试数据时,会形成特定的"捷径神经元",使模型无需真正理解问题就能给出正确答案。他们提出了一种新方法,通过识别并抑制这些神经元(仅占模型总神经元的约1%),成功恢复了模型的真实能力表现。实验证明,该方法与权威可信基准测试结果高度一致(相关系数>0.95),并在不同基准和参数设置下都表现出色,为解决LLM评估可信度问题提供了低成本且有效的解决方案。

安全与可信的智能代理时代:向量研究所发布LLM多智能体系统信任、风险与安全管理全面综述

安全与可信的智能代理时代:向量研究所发布LLM多智能体系统信任、风险与安全管理全面综述

这份来自向量研究所、康奈尔大学和格罗宁根大学研究团队的综述分析了基于大语言模型的代理型多智能体系统中的信任、风险和安全管理框架(TRiSM)。研究系统地探讨了代理型AI从概念基础到安全挑战,提出了包含治理、可解释性、模型运营和隐私/安全四大支柱的TRiSM框架。文章还详细分析了威胁向量、风险分类,并通过真实案例研究展示了潜在脆弱性。

通过"置信引导型数据增强"解决知识蒸馏中的协变量偏移问题

通过"置信引导型数据增强"解决知识蒸馏中的协变量偏移问题

这项研究提出了一种名为ConfiG的创新方法,通过生成针对性的数据增强样本来解决知识蒸馏中的协变量偏移问题。研究团队利用教师模型和学生模型之间的预测差异,引导扩散模型生成那些能挑战学生模型的样本,从而减少模型对训练数据中欺骗性特征的依赖。实验表明,该方法在CelebA、SpuCo Birds和Spurious ImageNet数据集上显著提升了模型在缺失组别上的性能,为资源受限环境下的AI应用提供了实用解决方案。

用程序分析反馈训练大型语言模型生成高质量代码:加州大学圣地亚哥分校和微软的突破性研究

用程序分析反馈训练大型语言模型生成高质量代码:加州大学圣地亚哥分校和微软的突破性研究

这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。

自我挑战型大语言模型:让AI通过自创问题提升能力

自我挑战型大语言模型:让AI通过自创问题提升能力

加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。

打破僵硬动作!南洋理工大学团队为人类视频补帧注入3D控制能力

打破僵硬动作!南洋理工大学团队为人类视频补帧注入3D控制能力

南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。

超越上下文学习:通过任务内在属性指导对齐大型语言模型的长文本生成能力

超越上下文学习:通过任务内在属性指导对齐大型语言模型的长文本生成能力

这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。

Ctrl-Crash:可控制的真实车祸场景生成——蒙特利尔理工学院与蒙特利尔人工智能研究所联合研发突破性技术

这项由蒙特利尔理工学院与多家研究机构合作的研究开发出Ctrl-Crash系统,该系统能从单一图像生成逼真的车祸视频。系统通过三种控制信号工作:初始图像、车辆边界框序列和碰撞类型。利用扩散模型技术和创新的无分类器引导方法,Ctrl-Crash能生成多种可能的车祸场景,包括反事实情境,为自动驾驶安全测试提供宝贵工具。研究显示该方法在各项视频质量评估中显著优于现有技术,用户研究也证实其生成内容在物理真实感和视觉质量方面均优于竞争方法。

大脑的双模思考:如何让AI像人类一样灵活切换快慢思维模式

大脑的双模思考:如何让AI像人类一样灵活切换快慢思维模式

这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。

SHARE:一种基于小型语言模型的分层行动修正助手,助力文本到SQL转换

SHARE:一种基于小型语言模型的分层行动修正助手,助力文本到SQL转换

这项研究提出了SHARE,一种新型文本到SQL修正框架,它利用三个小型语言模型(SLM)协同工作,实现高效精准的SQL错误修正。SHARE首先通过基础行动模型将SQL转换为行动轨迹,再经过模式增强模型和逻辑优化模型的层次化精细化修正。研究团队还创新性地提出了层次化自演化训练策略,大大提高了训练数据效率。实验结果表明,SHARE在多个基准测试上显著提升了SQL生成准确率,计算成本仅为传统方法的十分之一,并展现出强大的泛化能力,适用于各种生成器模型和SQL方言。

双专家一致性模型:高效高质量视频生成的解决方案 - 香港大学和南京大学联合研究突破

双专家一致性模型:高效高质量视频生成的解决方案 - 香港大学和南京大学联合研究突破

这项由香港大学和南京大学等机构研究人员联合开发的双专家一致性模型(DCM)解决了高质量视频生成中的效率难题。研究团队发现扩散模型蒸馏过程中存在优化冲突:早期阶段负责语义布局与运动,后期阶段关注细节精修,两者学习动态差异显著。DCM创新性地将这两个任务分配给不同的专家模型,通过参数高效的实现方式,使模型仅需4步即可生成接近50步原始模型质量的视频,大幅提升生成速度,为实用化AI视频创作铺平道路。

QARI-OCR:阿拉伯文字识别新突破——如何让计算机轻松读懂阿拉伯文字的曲线与变化

QARI-OCR:阿拉伯文字识别新突破——如何让计算机轻松读懂阿拉伯文字的曲线与变化

这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。

CSVQA:中国团队打造超全面科学测评基准,挑战视觉语言模型的STEM推理能力

CSVQA:中国团队打造超全面科学测评基准,挑战视觉语言模型的STEM推理能力

这篇研究介绍了CSVQA,一个专为评估视觉语言模型在STEM领域推理能力的中文多模态基准测试。该数据集包含1,378道涵盖物理、化学、生物和数学的问题,每题都要求模型分析科学图表并进行专业推理。实验评估了15种VLM,结果显示即使最强大的模型o1也仅达到49.6%的准确率,揭示了当前AI在科学推理方面的明显局限。研究还发现模型在不同学科表现不一,思维链提示效果因模型而异,为未来改进指明了方向。

OmniSpatial:清华、北大等团队联手打造全面评估视觉语言模型空间推理能力的综合基准

OmniSpatial是由清华、北大等多所顶尖高校联合开发的首个全面评估视觉语言模型空间推理能力的基准测试。研究团队将空间推理分为动态推理、复杂空间逻辑、空间交互和视角转换四大维度,涵盖50个细分任务类别,构建了1500多个高质量问答对。实验结果显示,即使最先进的AI模型在复杂空间推理方面仍存在显著局限,最高准确率仅为57%,远低于人类表现。研究还提出了PointGraph和SpatialCoT两种方法来增强模型的空间理解能力。

ReFoCUS:KAIST研究团队开创视频理解新方法,让AI更懂你想问什么

ReFoCUS:KAIST研究团队开创视频理解新方法,让AI更懂你想问什么

这篇来自韩国科学技术院(KAIST)的研究介绍了ReFoCUS,一种创新的视频理解方法。不同于传统视频AI模型使用固定的帧采样策略,ReFoCUS通过强化学习教会模型选择最相关的视频帧来回答特定问题。研究团队巧妙地将策略优化从输出文本转向输入视觉层面,让AI能够像人类一样识别关键视觉证据。实验结果表明,这种方法在多个视频问答基准测试中显著提升了性能,特别是在处理复杂的长视频内容时。ReFoCUS代表了视频AI的一个重要范式转变,未来有望应用于更智能的视频内容理解系统。

ORV:4D占用中心机器人视频生成——北京人工智能研究院打造精准可控的机器人世界

ORV:4D占用中心机器人视频生成——北京人工智能研究院打造精准可控的机器人世界

这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。

自我反思助力AI成长:Writer团队提出强化学习优化模型自我纠错能力的突破性研究

自我反思助力AI成长:Writer团队提出强化学习优化模型自我纠错能力的突破性研究

这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。