Snapchat 推出全新 watchOS 应用,支持 Apple Watch 用户预览及通过键盘、手写、语音或表情快速回复消息,打造便捷的多平台通讯体验。
6月5日,由中国移动研究院与中国光网络研讨会(OptiNet China)联合主办的首届“卫星光通信与智能组网技术”专项研讨会在北京召开。
Amazon旗下秘密研发机构Lab126新成立团队,专注在机器人上嵌入自主代理AI,实现通过自然语言完成复杂任务,从而提升仓储物流与配送效率,同时开发高精度地图技术。
本文介绍了 Anthropic 开源的电路追踪工具,通过生成归因图和介入实验全面揭示大语言模型内部机制,助力企业高效调试和优化。
三星与 Glance 合作推出 AI 购物体验,通过自拍生成个性化时尚广告,并在三星手机上陆续推出,用户可自主选择接入,但涉及位置追踪及数据存储问题。
本文探讨了达成人工通用智能(AGI)七大路线中的线性进阶路径,预测了从2025年至2040年 AI 技术与社会效应的关键年度节点。
这项研究介绍了一种新型多模态扩散模型,能够同时生成量子电路的离散结构和连续参数。由因斯布鲁克大学和NVIDIA公司研究人员开发,该模型利用两个独立但协同工作的扩散过程处理门类型选择和参数预测,克服了传统量子电路编译方法的效率瓶颈。研究证明了该模型在不同量子比特数量、电路深度和参数化门比例下的有效性,并通过快速电路生成创建了数据集,从中提取出有价值的结构见解,为量子电路合成提供了新方向。
SenseFlow是香港科技大学等机构联合开发的文本到图像蒸馏技术,解决了大型流匹配模型蒸馏的三大难题。研究团队提出隐式分布对齐(IDA)稳定训练过程,段内引导(ISG)优化时间步重要性分配,并设计基于视觉基础模型的判别器提升生成质量。实验表明,SenseFlow能将SD 3.5和FLUX等12B参数级模型成功蒸馏为仅需4步生成的高效版本,同时保持甚至超越原模型在多项指标上的表现,代表了AI图像生成效率提升的重要突破。
MASKSEARCH是阿里巴巴集团同义实验室开发的新型预训练框架,通过创新的"检索增强掩码预测"任务,训练大型语言模型像人类一样主动使用搜索工具获取信息。这项框架包含两个阶段:首先在掩码预测任务上预训练,然后在下游任务上微调,大幅提升模型在开放域问答中的表现。研究采用监督微调和强化学习两种方法,结合多代理系统和课程学习策略,使AI能够自主分解问题、使用搜索工具并基于搜索结果进行推理。
SmolVLA是由Hugging Face、巴黎索邦大学等机构联合开发的小型视觉-语言-动作模型,专为低成本机器人设计。与现有模型相比,它仅有4.5亿参数(小10倍),却能达到相当性能。SmolVLA采用精巧架构设计,可在单GPU训练、CPU部署,并使用社区收集的数据集训练。研究还引入异步推理策略,提高了机器人的响应速度和适应性。实验证明,它在模拟和真实环境中的表现均超越许多资源密集型模型,为机器人技术的普及开辟了新途径。
AREAL是一个由清华大学和蚂蚁研究院开发的全新异步强化学习系统,专为提升大语言模型的推理能力而设计。与传统同步系统不同,AREAL完全解耦了生成和训练过程,推理工作器持续生成新输出,训练工作器则在收集到足够数据时更新模型。通过创新的过时性感知训练和解耦PPO目标函数,AREAL成功解决了异步训练中的数据过时和策略不一致问题。实验表明,AREAL在数学和代码推理任务上实现了高达2.57倍的训练加速,同时保持或提高了模型性能。
EarthMind是一个创新的视觉-语言框架,专为解决地球观测领域的多尺度和多传感器理解挑战而设计。由多所国际知名大学联合开发的这一系统引入了两项关键技术:空间注意力提示(SAP)机制重新分配大型语言模型内部的注意力,增强像素级理解;跨模态融合机制则将异构模态如光学和雷达数据对齐并智能融合。
CodeV-R1是中科院计算所团队开发的专用于Verilog硬件描述语言自动生成的推理增强型大语言模型框架。该研究克服了三大关键挑战:缺乏自动化验证环境、高质量数据稀缺和计算成本高昂。研究团队通过开发自动测试台生成框架、设计往返数据合成方法和实施两阶段训练流程解决了这些问题。基于此框架训练的CodeV-R1-7B模型在VerilogEval v2和RTLLM基准测试上取得了68.6%和72.9%的pass@1成绩,超越同类模型12~20%,甚至在某些指标上超过了671B参数的DeepSeek-R1。
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。
OmniResponse是由KAUST和埃克塞特大学研究团队开发的创新系统,首次实现了在线多模态对话响应生成(OMCRG)任务。该系统能够实时处理说话者的视频和音频输入,并生成与之同步的听众面部表情和语音反馈,通过引入文本作为中间模态并利用Chrono-Text和TempoVoice两个关键模块解决了多模态同步生成的难题。研究团队还构建了ResponseNet数据集作为评估基准,实验表明OmniResponse在语义内容、音视频同步和生成质量方面显著优于基线模型,为人机交互、元宇宙体验和心理健康干预等应用领域开辟了新可能。
IBM研究院AI团队开发的POBs基准测试揭示了大型语言模型在主观话题上表现出明显偏好,尤其倾向于进步-集体主义观点。研究发现,增加测试时计算(思考时间)对减少模型偏见效果有限,且更新版本的模型反而表现出更强烈的立场和更低的一致性。这项研究提供了评估AI系统意识形态倾向的工具,帮助用户和企业做出更明智的选择。