
9月21日,2022年华为品质服务精英荟走进合肥,来自政府、电力、金融、教育等行业客户和伙伴齐聚一堂,围绕“云数据中心运维实践”、“华为数字化运维实践”、“灾备专业服务方案与实践”以及“IPV6升级改造方案与实践”等话题,入会嘉宾们踊跃发言,与华为专家们进行了互动与交流。

华为安徽政企业务副总经理 林健
开场致辞
云数据中心运维是建立 基于组织、流程和工具的体系
云数据中心运维面临诸多挑战,从体系、流程、工具到安全。云数据中心运维场景下,日志分析,帮助用户快速创建采集、清洗、检索、报表和展示一体化的端到端日志分析服务,深入洞察数据,充分发掘日志的业务价值,将隐患消除于萌芽之中;容量管理服务,准确预测容量趋势,让资源科学利用;性能管理服务,基于用户体验,从业务流向逐点优化;应急演练&重大保障服务,故障快速恢复,保障安全。
云数据中心运维最终目标是通过建立统一的运维数据底座,实现从业务感知、智能分析、辅助决策到高效执行。

华为专家分享云数据中心运维实践
运维数据帮助 建立“价值”与“能力”基线
要实现运维价值闭环,关键一点就是通过不停的业务实践,建立运维数据,从而不断梳理“价值基线”和“能力基线”,这也是华为与客户一起去完成的目标之一。
从效益出发,以经营指标为目标;从效果出发,提高业务连续保障水平、提升业务交付效率、辅助提升用户体验和提升IT运维服务质量等维度出发,真实衡量运维效果;从效率出发,则是基础设施运维效率提升;从效能出发,包括规划设计能力、平台技术能力、全栈管理和问题定界定位等。以业务价值为导向,效果、效益、效能和效率为四大维度,综合考量,助力运维管理决策。
数字化离不开场景,需要从资产管理、流程管理、资源管理和业务管理四大方面去进行场景探索和实践。目前,面向智慧机场、智慧城市等场景,华为都已经进行了很多项目的实践,并逐步孵化“价值基线”和“能力基线”。

华为专家分享运维数字化转型实践
灾备服务保障客户业务连续性
数据存储、IT基础架构、灾备建设等是灾备专业服务主要的场景。数据基础设施咨询规划服务,使能数字化转型和未来演进;IT基础架构评估服务,全生命周期主动评估,持续优化基础设施;灾备服务,全栈灾备能力、保障客户业务连续性,提高业务韧性。
咨询规划阶段,包括现状调研、灾备策略设计、灾备概要设计、BIA/RA分析、灾备架构设计和关键技术验证;集成实施阶段,包括方案深化设计、方案集成验证、容灾方案实施、管理平台实施、灾难恢复计划、计划性恢复预案和非计划性恢复预案;容灾演练阶段,包括演练方案、演练计划、方案优化和演练总结。

华为专家分享灾备专业服务方案与实践
IPV6+构筑端到端高质量网络底座
“IPv6+”加速网络与业务融合,助力千行百业数字化转型。数字政府,集约化建设,一网通达;智能制造,多网融合,确定性体验;智慧金融,流量灵活调度,一跳入云;智慧能源,一网承载,智能管控…
IPv6+是IPv6下一代互联网升级,打造高质量网络底座。IPV6+的技术底座包括网络分片、分段路由、新型组播、确定性IP、随流检测等。面向园区网络,IPV6+云园区,以体验为中心全无线园区;面向广域网,IPv6+智能广域,加速企业上云;面向数据中心网络,IPv6+智能无损,全面释放算力;面向网络安全,IPv6+网络安全,构建可信一张网。

华为专家分享IPV6改造方案与实践
在“品质服务精英荟合肥站”中,与会嘉宾们积极发言,与华为专家们积极互动,现场进行了本站技术精英奖的颁奖。

合肥站技术精英奖颁奖

“品质服务精英荟”,面对面技术交流平台,期待与您相约。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。