9月13-14日,被誉为行业风向标的“2023开放数据中心大会”在北京隆重举办。大会由开放数据中心委员会(ODCC)主办,宁畅受邀出席,分享服务器冷却之道与未来形态,并带来液冷及AI领域重量级服务器产品,与行业共话数据中心产业高质量发展。
打通最后一公里!液冷商业布局全面落地
宁畅副总裁兼首席技术官赵雷在主论坛演讲中表示,“预计到2026年,第三代服务器将主要基于以太+CXL交换机,采用集CPU计算节点、GPU计算节点、内存池和存储节点为一体的融合架构。目前,供电、散热、解耦都还剩‘最后一公里’亟待打通。”
赵雷演讲
为解决“最后一公里”问题,宁畅在高功率电源模块、无风扇冷板式散热、CXL内存池化三大技术层面实现突破,首次全新推出基于下一代整机柜服务器基础架构的B8000液冷整机柜服务器。该服务器功率密度高,具备高功率上限以及高传输速率,支持水+电+网三路盲插,配置多重漏液检测+漏液引流功能,运维难度低,帮助实现更低的PUE,为用户带来更加安全、放心的使用体验。
为筑牢算力底座,宁畅全面发力液冷,现已形成液冷产品研发、测试、生产、交付全链条,实现冷板式液冷到浸没式液冷全形态覆盖。伴随B8000的成功面市,宁畅液冷产品矩阵得到进一步扩充,实现从服务器、机柜、机房,到数据中心的液冷商业布局全面落地。
AI旗舰王者首秀!智慧算力多场景渗透
在大会展区,宁畅带来AI旗舰王者服务器X680 G55新品首秀。X680 G55是一款强大的GPU人工智能服务器产品,主要面向训练、推理、虚拟化、视频渲染、云游戏、编解码等业务领域。作为专为大模型集群训练场景研发的旗舰级智算算力计算平台,X680 G55计算密度更高、算力更强,适用于庞大数据集、复杂模型等AI场景需求。
展位现场人气火爆
宁畅积极参与AI服务器研究项目,参与编写的《AI服务器白皮书》入选“ODCC十周年卓越项目”在大会现场展出。白皮书针对人工智能产业发展创新需求,梳理作为AI算力基础设施的AI服务器核心技术体系,提出AI服务器发展趋势,被业界广泛参考。
白皮书登上ODCC十周年卓越项目
基于不断完善的产品矩阵,宁畅还致力于提升整体解决方案能力,持续突破更多业务场景应用。例如,数据中心“无忧焕液”计划能够满足不同用户液冷需求,“2+6+N”智慧汽车全生命周期解决方案则为自动驾驶和智慧汽车制造提供强大的算力支撑。
从单个产品的创新到系统性解决方案的落地,宁畅面向未来的战略布局精准匹配用户需求,市场占有率达到行业领先地位,在短短几年内,从服务器领域“独角兽”成功跃升为行业实力派“猛兽”。
好文章,需要你的鼓励
卢森堡大学研究团队开发的RLDP框架首次将强化学习应用于差分隐私优化,创造性地解决了AI训练中隐私保护与模型效果的矛盾。该方法如同智能教练,能动态调整隐私保护策略,在四种语言模型上实现平均5.6%的性能提升和71%的训练时间缩短,同时增强了抗隐私攻击能力,为敏感数据的AI应用开辟了新路径。
这项由北京大学人工智能研究院完成的研究,首次从数据压缩理论角度揭示了大型语言模型存在"弹性"现象——即使经过精心安全对齐,模型仍倾向于保持预训练时的行为分布。
腾讯混元团队联合北京大学提出MixGRPO技术,通过混合ODE-SDE采样策略和滑动窗口机制,将AI图像生成训练效率提升50%-71%,同时在多项人类偏好评估指标上超越现有方法。该技术采用"从难到易"的渐进优化策略,专注于图像生成早期阶段的重点优化,并引入高阶求解器进一步加速训练过程,为AI图像生成的产业化应用提供了更高效可行的解决方案。