“服务合作促发展,绿色创新迎未来”,2022年服贸会开幕在即,绿色发展、数字经济再度成为热点议题。如何以服务为抓手,助推双转型,如何以绿色创新的数字化技术赋能,形成明确的路线图,有力、有序、有效地部署减碳、实现可持续发展?顺应数字化、低碳双转型趋势,深入探索可持续,全球能源管理和自动化领域数字化转型专家施耐德电气,将连续第三年亮相服贸会,重磅发布可持续“一体两翼”成果,分享如何以服务和数字化,满足关键场景需求,助力企业全产业链减碳,实现可持续发展。
当下,气候危机愈演愈烈,可持续发展已成全球“热”题,在中国,从“1+N”双碳政策体系的逐步完善到“能源双控”向“碳排放双控”的目标转变,加快绿色发展和低碳转型已成企业共识,可持续发展正从理念走向实践。
双碳目标下,企业面临来自上游供应链和下游客户的双重压力,只有与产业链一起行动才能更好推进碳中和。施耐德电气认为,实现产业链可持续,需要专业的工具和人,解决客户在电气安全、电能质量、能效双碳和综能微网四大关键场景的需求,而服务和数字化正是实现这一目标的两翼。
服务赋能全生命周期管理,是推动数字化低碳转型落地的关键。施耐德电气依托自身长期的可持续发展实践和庞大生态圈,以咨询先行,聚焦用户关键场景需求,提供涵盖改造、调试、培训、验收、维护、维修、循环利用的全生命周期服务闭环,帮助企业应对低碳化和数字化转型所带来的挑战,实现可持续的发展。
以软件为核心的数字化技术是当前最佳的减碳工具:碳足迹广泛存在于产品生产和资产管理的各个环节,减碳的关键在于全生命周期的碳排放管理,借助数字化与软件,能够实现对数据全生命周期内的“可视、可管、可控、可用”,从而促进整个产业链实现从设计、建造、运营到维护的协同管理和全程优化。
本次发布会上,施耐德电气将带来围绕电气安全、电能质量、能效双碳和综能微网四大场景下的服务与数字化解决方案和案例分享,展示从供给侧到需求侧的能源管理软件,如微网能源顾问(EcoStruxure Microgrid Advisor)、智能配电一体化运管维系统(EcoStruxure Power Advanced)、电力监管控系统(EcoStruxure Power Operation)及智能配电站控终端(EcoStruxure Power Terminal)在内的施耐德电气新一代智能配电软件。
同时,施耐德电气将亮相“2022中国智能产业论坛”,并带来“数字赋能 全程减碳”的主题演讲。9月3日,施耐德电气商业价值研究院还将携手阿里能耗云、阿里云研究院、工业和信息化部国际经济技术合作中心、中国信息通信研究院联合发布《数字化与碳中和 园区篇》白皮书,就数字化碳中和如何助力园区双碳目标落地,给出从形式、机遇、挑战到落地解决方案的全面分析。
在当前疫情持续、供应链受阻的背景下,作为全球服务贸易领域规模最大的综合性展会和服务贸易领域的龙头展会,服贸会不仅是企业交流展示的重要窗口,更是服务行业蓬勃发展的动力引擎。企业、社会的高质量发展都离不开服务的支撑,施耐德电气始终关注服务市场,并连续三年出展服贸会,渐进深入,从2020年“以绿色智能制造服务中国工业”,到2021年推出“碳中和五大服务成果”,再到今年的可持续“一体两翼”成果发布,施耐德电气在服务和数字化领域不断创新,取得了诸多突破和成果,得到了越来越多的关注。
施耐德电气可持续“一体两翼”成果发布会将于9月1日下午15:30分准时开始,欢迎观看现场直播。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。