“保稳定、保通畅、保安全、保健康”,这是中国联通服务2022年全国两会提出的目标。经历了两个多月的筹备、演练,再到大会开幕、闭幕,在一以贯之的高标准、严要求下,中国联通的服务工作得到了大会高度肯定。与往年不同的是,除了传统通信保障外,本届全国两会的信息化系统服务与支撑保障工作几乎全量由中国联通承担,充分验证了中国联通5G、云计算等数字技术及创新应用方面的强大实力。
中国联通集团公司党组高度重视全国两会通信保障工作。全国两会召开前夕,集团公司党组书记、董事长刘烈宏连线保障团队,指导指挥保障工作。集团公司党组副书记、总经理陈忠岳专门听取两会保障工作准备情况的汇报,并提出明确要求。集团公司党组成员、副总经理梁宝俊挂帅成立全国两会信息化服务保障总体协调组和工作推进组,连续召开多次会议对保障服务工作进行部署督导,并亲赴保障现场检查工作落实情况。
联通云,云视频为民心“牵线”
在大会的3场“委员通道”采访活动中,一端是人民大会堂以及各委员驻地设立的视频采访间,另一端是网络接入的中外记者,在其中“搭桥”的是中国联通5G专网承载的联通云云视频服务,可谓是“委员通道”通民心,5G云视频来“牵线”。
联通云云视频为中国联通旗下联通数字科技有限公司自研推出的SaaS级云视频会议解决方案,可以满足赛事直播、产品发布、远程医疗、在线教育等多种场景。流畅、清晰、稳定的连线体验,不仅将委员们尽责为民的心声第一时间传到了屏幕前,也为媒体记者们远程采访创造了便利。据统计,今年全国两会期间,联通云云视频共完成主会场、新闻发布厅、新闻中心召开的共11场会议直播支撑。

为了确保本次工作的圆满收官,中国联通成立了横跨产品、技术、安全、运维等多个部门的工作小组,抽调130余名业务骨干组成现场保障团队,同时在外围组建超100人的远程应急保障团队,执行7x24小时应急值守,闭环和快速处置会议过程中全部问题。
信创服务,中国联通值得信赖
中国联通依托自主创新体系,构建了以云大物智安链业务核心能力为基座的信创+综合数字化服务能力并首次全面服务两会,服务范围不仅涵盖了信创终端、网络、服务器与虚拟化等新型基础设施类工作,还包括信创中间件、数据库和应用系统等大会业务系统。大会前期,信创保障团队详细制定基础设施与业务系统的保障方案和应急预案,部署实操式的应急演练。大会期间,实时监控系统运行情况,及时发现问题解决问题,全力以赴保障两会取得圆满成功。
护安全,联通云盾抗DDoS护航
两会期间,网络信息安全保障是重中之重。中国联通为两会搭建统一的安全运营管理平台,同时基于联通云盾运营商级强大的网络监测、感知及处置能力,对重要网站进行安全防护,一旦发现异常,系统便立即完成上报处置,快速形成漏洞及安全事件的闭环,从源头阻断威胁。
稳提质,联通服务永远在线
据了解,本届两会中国联通共支撑了大会发言系统、无纸化电子阅文系统、智能客服服务台等6个数字化应用,为委员代表们提供了更为便捷的参会体验。

负责本次两会重保工作的中国联通现场工作人员谈到:“身为联通人,我们自觉责任重大,为了能按时保质保量完成两会重保任务,工作组的同事从春节前就投入到了准备工作中,春节期间也随时在北京待命,2月26日即开始现场封闭工作状态,各项内容一遍遍进行细致梳理、排查,包括每一项应急预案都经过多次的演练,确保零失误。”
国之大事,必有联通。在刚刚结束的北京2022年冬奥会上,中国联通作为“双奥企业”,切实发挥“国家队、主力军、排头兵”作用,出色完成了冬奥会通信保障任务。在本届全国两会期间,中国联通更是将服务保障工作作为重要政治任务,吸收借鉴了连续十二年为全国两会提供服务保障的实战经验,打造科技应用、创新服务理念,在冬奥保障取得优异成绩的基础上,再一次向党和人民交出了满意答卷。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。