1月20日,以“智启冬奥、慧聚雄安、强基赋能、创赢未来”为主题的中国联通IPv6+创新实践暨规模部署推进会在联通主会场和雄安分会场同时召开。推进IPv6规模部署专家委主任/中国工程院院士邬贺铨、中央网信办信息化发展局副局长温锐松、工业和信息化部信息通信发展司副司长刘郁林、河北雄安新区党工委委员/管委会副主任吴海军、河北雄安新区首席信息官张强、国资委办公厅电子政务与信息化处长朱占军、中国信息通信研究院副院长王志勤、中国联通集团公司副总经理买彦州、华为公司副总裁高翔等出席会议,共同分享“IPv6+”技术创新成果,宣传“IPv6+”产业政策。
中国联通作为IPv6规模部署的国家队、主力军、排头兵,以“IPv6+”技术为底座,倾心打造的“冬奥智慧专网、雄安创新之城”已取得阶段性进展,并率先通过“IPv6+”测试评估,全国首获“IPv6+”Ready1.0证书。会上,中国联通IPv6+ 1.0运营服务正式启动,标志着中国联通正式进入“IPv6+”时代。

中国联通IPv6+ 1.0运营服务启动仪式
买彦州指出,中国联通党组高度重视IPv6规模部署工作,通过聚力网络、聚力服务、聚力产业展现了中国联通在IPv6规模部署推进工作中的重点、方向及取得的成效,中国联通将坚持“强基固本、守正创新、融合开放”新战略,持续深化网络基础设施IPv6改造,提供覆盖全国、性能优良的IPv6承载能力,做深大联接、做优大应用,将冬奥智慧网络、雄安新城“IPv6+”的成功实践进行全国推广,努力构建“IPv6+”新一代高质量网络,有力支撑千行百业数字化转型,为网络强国建设、壮大数字经济注入强劲动力。
温锐松在致辞中充分肯定了中国联通在推动IPv6规模部署与应用方面取得的成绩,并从积极探索创新、展现技术优势,打造应用标杆、培育产业生态,突破瓶颈制约、提升网络性能,完善基础保障、确保网络安全等四个方面提出了工作要求。
刘郁林认为,“IPv6+”对推动网络演进升级,加速技术和应用创新具有重要意义。“聚焦短板夯实基础、深化应用协同创新、加强合作完善生态”是下一步各方需合力推动的重点。
吴海军在会上充分肯定了中国联通在雄安新区推动IPv6规模部署方面所做的工作,并表示未来雄安新区将以深化IPv6应用为基础,推动数字经济更好更快地发展,希望中国联通为高质量建设“未来之城”贡献出更多更大的智慧力量。
邬贺铨在会上详细阐述了“IPv6+” 1.0/2.0/3.0的技术发展方向,将对加速“IPv6+”创新发展、推进IPv6规模部署起到重要指引作用。
中国联通网络部总经理傅强介绍了中国联通IPv6规模部署推进工作的全景和取得的创新成效,提出要以终为始,增强加快推进IPv6规模部署和应用的紧迫感和责任感,持续构建“IPv6+”新型数字信息基础设施。
王志勤在“助力IPv6+行业融合升级,打造Ready权威测试品牌”主题演讲中指出,中国联通冬奥专网、雄安新城网络率先通过“IPv6+”测试评估,全国首获“IPv6+”ready1.0证书具有标志性的意义。


IETF互联网架构委员会(IAB)委员、华为首席IP协议专家李振斌在会上指出,华为坚持以“IPv6+”为核心技术打造下一代互联网解决方案,与中国联通持续开展网络技术创新深度合作,共同推进“IPv6+”网络演进,打造新型数字信息基础设施。
本次大会的成功举行,标志着中国联通响应国家号召携手行业伙伴推进IPv6发展进入新阶段。未来,中国联通将紧抓全球互联网演进升级的重要机遇,充分发挥“IPv6+”等新一代信息技术的作用,持续推进其技术标准化、应用规模化发展,加快打造“物联、数联、智联”的数字底座,助力数字经济高质量发展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。