9月13-14日,被誉为行业风向标的“2023开放数据中心大会”在北京隆重举办。大会由开放数据中心委员会(ODCC)主办,宁畅受邀出席,分享服务器冷却之道与未来形态,并带来液冷及AI领域重量级服务器产品,与行业共话数据中心产业高质量发展。
打通最后一公里!液冷商业布局全面落地
宁畅副总裁兼首席技术官赵雷在主论坛演讲中表示,“预计到2026年,第三代服务器将主要基于以太+CXL交换机,采用集CPU计算节点、GPU计算节点、内存池和存储节点为一体的融合架构。目前,供电、散热、解耦都还剩‘最后一公里’亟待打通。”
赵雷演讲
为解决“最后一公里”问题,宁畅在高功率电源模块、无风扇冷板式散热、CXL内存池化三大技术层面实现突破,首次全新推出基于下一代整机柜服务器基础架构的B8000液冷整机柜服务器。该服务器功率密度高,具备高功率上限以及高传输速率,支持水+电+网三路盲插,配置多重漏液检测+漏液引流功能,运维难度低,帮助实现更低的PUE,为用户带来更加安全、放心的使用体验。
为筑牢算力底座,宁畅全面发力液冷,现已形成液冷产品研发、测试、生产、交付全链条,实现冷板式液冷到浸没式液冷全形态覆盖。伴随B8000的成功面市,宁畅液冷产品矩阵得到进一步扩充,实现从服务器、机柜、机房,到数据中心的液冷商业布局全面落地。
AI旗舰王者首秀!智慧算力多场景渗透
在大会展区,宁畅带来AI旗舰王者服务器X680 G55新品首秀。X680 G55是一款强大的GPU人工智能服务器产品,主要面向训练、推理、虚拟化、视频渲染、云游戏、编解码等业务领域。作为专为大模型集群训练场景研发的旗舰级智算算力计算平台,X680 G55计算密度更高、算力更强,适用于庞大数据集、复杂模型等AI场景需求。
展位现场人气火爆
宁畅积极参与AI服务器研究项目,参与编写的《AI服务器白皮书》入选“ODCC十周年卓越项目”在大会现场展出。白皮书针对人工智能产业发展创新需求,梳理作为AI算力基础设施的AI服务器核心技术体系,提出AI服务器发展趋势,被业界广泛参考。
白皮书登上ODCC十周年卓越项目
基于不断完善的产品矩阵,宁畅还致力于提升整体解决方案能力,持续突破更多业务场景应用。例如,数据中心“无忧焕液”计划能够满足不同用户液冷需求,“2+6+N”智慧汽车全生命周期解决方案则为自动驾驶和智慧汽车制造提供强大的算力支撑。
从单个产品的创新到系统性解决方案的落地,宁畅面向未来的战略布局精准匹配用户需求,市场占有率达到行业领先地位,在短短几年内,从服务器领域“独角兽”成功跃升为行业实力派“猛兽”。
好文章,需要你的鼓励
Capital One推出了生产级多智能体AI系统来增强购车体验。该系统包含四个协作的AI智能体:一个与客户沟通,一个基于业务规则创建行动计划,一个评估前两者的准确性,一个向用户解释和验证计划。系统设计时考虑了金融机构的严格要求,采用动态迭代方法,并融入了风险管理框架。技术上使用开源权重模型和NVIDIA推理堆栈。首个应用Chat Concierge已在汽车业务中部署,客户参与度提升达55%。
杜克大学研究团队开发了MOG-DFM技术,这是首个能够同时优化生物分子多种特性的AI系统。该方法成功解决了传统药物设计中"顾此失彼"的难题,能够设计出既安全又有效的治疗性分子。实验证明,MOG-DFM在肽类药物和DNA序列设计中都表现优异,有望显著加速药物发现进程并推动个性化医疗发展。
Graid公司专注于英伟达GPU驱动的RAID卡技术,推出包括企业级和工作站版本在内的SupremeRAID产品线。该公司2024年营收翻倍,出货约5000张卡片,预计2025年增长60%。产品路线图涵盖桌面简化版、AI版本、HPC版本等五个组件,支持NVMe RAID并提供企业级数据保护。AI版本支持GPUDirect直接传输,HPC版本针对BeeGFS等环境优化。
印度理工学院团队开发REFINE-AF框架,让小型AI模型通过强化学习自动生成训练指令,无需大量人工标注。该方法在119项测试任务中,63-66%的表现超越传统方法,证明了小模型也能通过巧妙设计获得优异效果,为降低AI训练成本提供了新思路。