阿贡国家实验室和英特尔于近日宣布,Aurora超级计算机的 10,624 个刀片的安装已经完成,该系统将于 2023 年晚些时候上线。该机器使用数万个 Xeon Max“Sapphire Rapids”处理器,配备 HBM2E 内存以及数以万计的数据中心 GPU Max“Ponte Vecchio”计算 GPU 可实现超过 2 FP64 ExaFLOPS 的性能。
这个由HPE 制造的 Aurora 超级计算机由 166 个机架组成,每个机架有 64 个刀片,总共 10,624 个刀片。每个 Aurora 刀片均基于两个 Xeon Max CPU(具有 64 GB 封装 HBM2E 内存)以及六个 Intel Data Center Max“Ponte Vecchio”计算 GPU。这些 CPU 和 GPU 将通过定制的液体冷却系统进行冷却。
(图片来源:英特尔)
Aurora 超级计算机总共配备了 21,248 个通用 CPU,拥有超过 110 万个高性能核心、19.9 PB 的 DDR5 内存、连接到 CPU 的 1.36 PB HBM2E 内存以及 63,744 个专为大规模并行 AI 和 HPC 工作负载而设计的计算 GPU,板载 8.16 PB HBM2E 内存。这些刀片使用专为超级计算机设计的 HPE Slingshot 结构进行互连。
英特尔公司副总裁兼超级计算事业部总经理 Jeff McVeigh 表示:“Aurora 是英特尔 Max 系列 GPU 的首次部署、最大的基于 Xeon Max CPU 的系统以及全球最大的 GPU 集群。” “我们很自豪能够成为这个历史性系统的一部分,并对 Aurora 将实现的突破性人工智能、科学和工程感到兴奋。”
Aurora超级计算机采用由1024个固态存储设备组成的存储节点阵列,提供220PB的容量以及31TB/s的总带宽,这将有助于处理涉及海量数据集的工作负载,例如核聚变研究、科学工程、物理模拟、治疗研究、天气预报和其他任务。
(图片来源:阿贡国家实验室)
虽然 Aurora 刀片的安装已经完成,但超级计算机尚未通过验收测试。当它在今年晚些时候上线时,它有望达到超过 2 ExaFLOPS 的理论峰值性能,使其成为进入 Top500 列表时第一台达到这一性能水平的超级计算机。
阿贡国家实验室副实验室主任 Rick Stevens 表示:“在我们努力进行验收测试的同时,我们将使用 Aurora 来训练一些大规模的开源生成人工智能模型用于科学。” “Aurora 拥有超过 60,000 个 Intel Max GPU、非常快的 I/O 系统和全固态大容量存储系统,是训练这些模型的完美环境。”
(图片来源:阿贡国家实验室)
虽然 Aurora 超级计算机尚未通过测试,ANL 尚未向 Top500.org 提交其性能结果,但英特尔借此机会分享了其硬件相对于 AMD 和 Nvidia 的竞争解决方案的性能优势。
据英特尔称,Max 系列 GPU 的初步测试表明,它们在“现实世界的科学和工程工作负载”方面表现出色,在 OpenMC 上提供的性能是 AMD Instinct MI250X GPU 的两倍,并且几乎可以完美地跨数百个节点进行扩展。此外,英特尔表示,其英特尔至强 Max 系列 CPU 在众多实际 HPC 应用中比竞争对手的性能优势高出 40%,这些应用包括 HPCG、NEMO-GYRE、Anerlastic Wave Propagation、BlackScholes 和 OpenFOAM。
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。