
图1 Phoenix超级计算机标识
Phoenix超级计算机是东方超算与北京三轴空间科技共同合作研发的水冷超级计算机,部署于中国科学院大学雁西湖校区,服务于物理科学学院张余洋课题组,用于基于密度泛函理论的量子力学计算研究。
Phoenix具备56个双路英特尔至强铂金级9282处理器的计算节点,共有6272个计算核心,Linpack峰值521TFlops(每秒521万亿次双精度浮点计算能力)。

图2 Phoenix超级计算机部署实景
整套超级计算机部署在2套机柜空间内,全部计算节点部署于单机柜空间;管理网络、计算网络、管理节点、登录节点、存储节点、液冷控制单元(CDU)、环控设备集中部署于另一个机柜空间内。
集群架构介绍:
根据基于密度泛函理论的量子力学计算的应用运行特征,计算节点配置双路英特尔至强铂金级9282处理器(单颗处理器56核心/基础频率2.6GHz/最大睿频3.8GHz)、24条32GB内存、1块Omni-Path 100Gb网卡;系统管理网络与硬件管理网络共享板载千兆网卡,降低高密度部署中的网线密度;计算与存储网络配置2台48口Omni-Path 100Gb交换机,2台交换机之间1/3阻塞,在满足大规模计算网络通信需求的基础上将更多的预算用于提升计算能力。

图3 集群计算网络架构
散热制冷介绍:


图4 散热系统整机架构
计算节点采用冷板式与风冷双散热系统设计,散热系统分为三部分:1.一次侧干冷式冷塔2.二次侧液冷控制单元3.环境精密空调。
工作原理:
一次侧干冷式冷塔:采用自然风冷+压缩机补冷方案,冬季采用自然风冷散热、当自然风冷无法满足冷塔控制箱设定的供水温度时,压缩器启动补冷;
二次侧冷却分配单元:通过与一次侧换热,实现供应32摄氏度水给计算节点;
环境精密空调:计算节点运行中处理器与内存之外的热量通过机箱风扇散发至机房环境,需按照整机功耗20%来配置恒温恒湿精密空调。
冷板贴附在处理器和内存散热面,依靠流经冷板的液体将热量带走实现高效换热,主板、网卡、电源供应器等部件依靠冗余风扇实现风冷散热。

图5 计算节点机箱前/后视图

图6 节点冷却管路/冷却节点
使用Intel电源散热实用程序PTU查看节点满负载运行的状态,32摄氏度供水的情况下CPU核心温度为50-65摄氏度,相对于最高运行温度85摄氏度,供水温度仍具有较大升温空间。

图7 计算节点满负载运行状态
一次侧干冷式冷塔介绍:

图8 一次侧干冷式冷塔

图9 安装于机房内的冷塔控制箱和一次侧供回水管路

图10 一次侧干冷式冷塔控制箱界面
二次侧液冷控制单元介绍:
二次侧液冷控制单元采用CoolTera RM100机型,换热量100KW,4U高度内集成了双循环泵和换热器,提供了一次侧进回水口和二次侧进回水口,节省了机柜部署空间。

图11 CDU RM100冷量分配控制器

图12 CDU运行状态界面

图13 CDU供回水管路
北京东方超算科技有限公司是全球先进的超级计算机研发、制造和运营商,基于大数据、人工智能和超级计算应用的融合计算平台,提供超级计算机应用和服务。作为英特尔HPC数据中心专家,与英特尔、三轴空间和用户合作研发超级计算机Phoenix。
北京三轴空间科技有限公司是一流的高性能计算集群建设、运维团队,公司自有5000余套高性能计算节点,为科研、人工智能、影视特效等行业提供专业服务。三轴空间团队有丰富的高性能计算集群设计、运维、行业应用经验,旗下星海超算平台、RenderG云渲染平台在业内享有盛誉。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。