【2022年9月21日美国加州圣何塞讯】Super Micro Computer, Inc. (SMCI) 为企业级计算、GPU、储存、网络解决方案和绿色计算技术等领域的全球领导者,宣布NEC Corporation已选用超过116台Supermicro GPU服务器,该系统搭载双路第3代Intel Xeon可扩充处理器,每个处理器配备8个NVIDIA A100 80GB GPU。Supermicro GPU服务器产品系列将容纳最新且高性能的Intel Xeon可扩充处理器和NVIDIA最先进的AI GPU。
Supermicro总裁暨首席执行官梁见后(Charles Liang)表示:“Supermicro很高兴能为NEC的全球人工智能装置提供额外580 PFLOPS的AI训练性能。Supermicro GPU服务器已经安装在NEC公司,用于进行尖端AI研究。我们的服务器专为使用最高性能的CPU和GPU高需求AI工作负载所设计。我们将持续与领先全球的客户合作,客户能运用我们先进的机柜级服务器解决方案,以更快且更有效率的方式实现业务目标。”
NEC以这台用于人工智能研究的超级计算机维持并提升其在人工智能开发领域的声誉。这台AI超级计算机将成为日本业界性能超过580 PFLOPS的最大规模的计算机。目前,NEC已有数百名AI研究人员正在使用其部分系统。加入Supermicro的580 PFLOPS系统将使其成为日本领先的AI研发环境,有助于加速开发更先进的AI算法。此解决方案以NVIDIA HGX AI超级运算平台为基础,提供包含NVIDIA NVLink和NVIDIA NVSwitch等功能。
“NEC公司选用Supermicro GPU服务器进行先进研究,持续引领AI革命。”NEC资深人工智能平台架构师Takatoshi Kitano表示,“Supermicro GPU服务器具有高可扩充性且可定制化,让系统能随著日后AI研究的发展而灵活进化。我们将继续与Supermicro密切合作,进一步推动AI研究的发展。”
具体来说,Supermicro的新系统包含SYS-420GP-TNAR服务器,已针对大规模分布式学习应用进行了优化。每台服务器包含两个Intel Xeon Platinum 8358处理器(32核,2.6GHz)、1TB内存和8个NVIDIA A100 80GB Tensor Core GPU。每台服务器的本地储存由一个1.9TB NVMe SSD和四个7.6TB NVMe SSD组成,用于储存数据。服务器之间的互连由五个NVIDIA ConnectX-6单端口接口和一个用于储存的NVIDIA ConnectX-6双端口接口组成。

深入了解NEC如何使用Supermicro GPU服务器,访问:NEC AI采用Supermicro服务器加速AI研究
了解更多关于Supermicro GPU服务器的资讯,请访问:https://www.supermicro.com/en/products/gpu
关于Super Micro Computer, Inc.
Supermicro (NASDAQ:SMCI) 是应用优化全方位IT解决方案的全球领导者。成立于美国加州圣何塞,Supermicro致力于为企业、云计算、人工智能和5G 电信/边缘IT 基础架构提供领先市场的创新技术。Supermicro正转型为全方位IT 解决方案提供商,完整提供服务器、人工智能、储存、物联网和交换机系统、软件和服务,同时继续提供先进的大容量主板、电源和机箱产品。Supermicro 的产品皆由企业内部设计和制造,通过全球化营运展现规模和效率,并优化以提高 TCO及减少对环境的影响(绿色计算)。屡获殊荣的Server Building Block Solutions 产品组合能让客户从灵活且可重复使用的构建区块所打造的广泛系统系列中选择,支持各种规格、处理器、内存、GPU、储存、网络、电源和散热解决方案(空调、自然气冷或液冷),进而针对客户实际的工作负载和应用实现最佳性能。
Supermicro、Server Building Block Solutions 和 We Keep IT Green 皆为Super Micro Computer, Inc. 的商标和/或注册商标。
所有其他品牌、名称和商标皆为其各自所有者之财产。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。