12月2日,华为正式上线《迈向智能世界》计算白皮书(以下简称计算白皮书),计算白皮书指出,数字经济已经成为全球经济增长的主引擎,数字经济的快速发展,为数字化、智能化带来巨大的发展机遇。为此,华为提出了六大发展趋势和行动建议,聚焦计算产业根技术创新,持续升级鲲鹏、昇腾AI基础软硬件平台,繁荣产业生态。
趋势一:ARM成为多样性计算的重要选择
随着自动驾驶、云游戏、VR/AR等应用的兴起,以及物联网、移动应用、短视频、个人娱乐、人工智能的爆炸式增长,应用越来越多样化;应用的多样化驱动算力多样性发展。海量多样性的算力需求,加速了算力格局转换,ARM算力从嵌入式场景快速延伸至服务器场景。同时,在中国,服务器侧ARM生态已逐步成熟,并全面应用于国计民生行业。建议企业基于业务需求,识别适合ARM架构的业务场景,主动规划部署ARM架构服务器;有节奏地开展现有应用适配、迁移,并基于ARM架构,持续开发原生应用;通过全栈软硬件优化,充分释放多样算力,发挥极致性能。
趋势二:数字化走向深入,操作系统走向多样性算力和全场景的协同
操作系统作为计算产业中最基础的软件,承担着抽象底层硬件,向上层应用提供统一接口的核心功能,是计算产业的关键环节。面向多样性计算和海量应用场景,操作系统应支持多样算力和多种应用的协同,成为数字产业的可靠软件底座。建议规划部署支持数字基础设施多样算力的操作系统,使能全场景应用协同创新;分析应用迁移策略,制定应用迁移计划,完成应用高效迁移;加入开源操作系统社区,积极拥抱开源、回馈开源。
趋势三:数字经济发展引发算力需求爆炸式增长,人工智能算力增长是主要增量
当前,数字经济正在成为全球经济的主要增长点,算力作为数字经济时代新的生产力,是支撑数字经济发展的坚实基础,其中人工智能算力需求一直是指数级增长。同时,人工智能正日益快速渗透行业应用的核心场景。建议产业加速AI基础设施建设,让AI算力成为像水和电一样的公共资源;加速人工智能进入行业关键场景,使能行业智能化升级;产学研携手,共筑人工智能产业生态。
趋势四:大模型成为AI规模应用重要途径,科学计算正在进入科学智能新阶段
当前人工智能领域,“大算力+大数据”正在催生大模型的快速发展,孵化系列行业新应用。而科学计算是继大模型之后,AI发展的另一重要方向,科学计算正在从传统HPC进入科学智能新阶段。建议产学研各界汇聚大模型发展要素,使能大模型从规划到落地;打造科学智能基础平台、携手构筑科学智能生态,加速产业闭环。
趋势五:绿色高效成为算力基础设施建设的关键诉求
在双碳目标下,算力基础设施的建设更加注重能耗,需要通过从单领域创新走向系统级创新,实现绿色高效。建议建设模式从传统的部件堆叠逐步走向集群全栈一体化;散热方式逐步从传统风冷走向风液混合或全液冷;算力评估逐步从面向硬件的裸算力,走向面向业务的有效算力。
趋势六:算力网络将成为重要的算力供给方式
在“东数西算”“网络强国”等战略的牵引下,以人工智能计算中心、超算中心、一体化大数据中心等为代表的算力基础设施,成为国家新基建的重要组成,算力建设从分散化走向集约化。随着各地算力中心/算力基础设施陆续建成后,人工智能算力从算力中心,走向算力网络。建议各地加速算力基础设施建设;积极加入中国算力网,实现算力汇聚共享。
从数字化到智能化,未来,华为将坚持围绕鲲鹏和昇腾AI,携手产业伙伴共建计算产业生态,共筑坚实的算力底座,共赢数智时代!
了解更多详情,请点击下载《迈向智能世界》计算白皮书:
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。