11月9日,操作系统产业峰会2021在北京国家会议中心线上线下同步举办。大会期间,华为携手社区全体伙伴共同将欧拉开源操作系统(openEuler,简称“欧拉”)正式捐赠给开放原子开源基金会。
这标志着欧拉从创始企业主导的开源项目演进到产业共建、社区自治,未来将快速汇聚更多创新力量,以更加开放的模式整合全球参与者的贡献,从开放治理走向自治繁荣,加速操作系统产业发展,进一步推动行业数字化转型深入。

华为副总裁、计算产品线总裁邓泰华在大会主题演讲中承诺欧拉捐赠之后,华为仍将从技术创新、生态构建、商业推广、开源建设、人才发展五个方面持续投入和推动欧拉发展。“这是欧拉发展的一个重要里程碑,欧拉成为全产业共同拥有的开源生态。”邓泰华说。
产业链呼吁统一操作系统
2019年底欧拉正式开源以来,得到产业界的积极响应和支持,欧拉生态快速发展,目前社区已有近万名开发者,超过300家企业加入,合作伙伴基于欧拉推出的商业发行版操作系统,已经应用于政府、金融、运营商、能源等行业核心系统。欧拉商用突破60万套,有望明年实现中国服务器领域新增市场份额第一。
在邓泰华看来,面向数字基础设施,操作系统依然碎片化。在云管边端、ICT、OT领域,不同的操作系统打造了一个又一个软烟囱,带来生态割裂、应用重复开发、难以有效协同的挑战,未来数字世界,需要统一的操作系统。
今年9月,华为将欧拉从服务器操作系统,升级为统一的面向数字基础设施的开源操作系统,通过一套操作系统架构,南向支持多样性设备,北向覆盖全场景应用,横向对接鸿蒙通过能力共享实现生态互通。
首先,南向一套架构支持多样性设备。欧拉创造性的实现全量组件原子化,支持内核灵活组合,服务按需构建,可以根据设备不同的资源能力和业务需求,灵活构建不同的操作系统版本,来满足不同设备对于操作系统的要求。
同时,欧拉支持构建服务自助化,支持“菜单式”配置内核和系统服务,可以针对软件包级、文件级、函数级的不同层级分级灵活组合,自动化、简化版本构建。
其次,北向支持应用一次开发,覆盖全场景。欧拉通过一套标准API,支持ICT和OT,实现操作系统与应用之间交互语言的统一。欧拉SDK,把各种应用所需的基础能力统一封装,使能极简开发,欧拉Devkit开发插件,方便集成各种主流应用开发平台,横向对接鸿蒙。
邓泰华指出,目前欧拉和鸿蒙已经实现了内核技术共享,事实上内核是在一个大的研发团队在开发。华为也计划将鸿蒙的分布式软总线能力移植到欧拉,让搭载欧拉操作系统的设备可以自动识别和连接鸿蒙终端。
在工业场景中,欧拉适用于高可靠性、强确定性的工业设备;鸿蒙适用于强交互性的工业终端,欧拉和鸿蒙对接可以更好的提供全栈式工业场景化解决方案。“欧拉是面向数字基础设施的操作系统,鸿蒙是面向万物互联的智能终端操作系统,欧拉和鸿蒙进一步打通,就可以更好地服务数字全场景。”邓泰华说。
技术驱动服务未来全场景数字世界
目前,华为首个支持数字基础设施全场景的openEuler创新版本21.09已经正式上线,明年3月还将发布支持全场景融合的社区LTS版本,实现五个统一,使能合作伙伴面向不同场景,发布最终的商业发行版。
邓泰华指出,中国是开源大国,要走向开源强国,借助欧拉,我们会全力支持开放原子开源基金会,与开源伙伴一起,构建中国开源基础能力并持续增强。
技术创新上,华为将聚焦在技术领域持续创新,并将创新成果持续开源开放出来。
第一、在内核领域持续加大投入,内核要成为硬核,构建欧拉的核心竞争力。华为在内核的创新,后续会持续贡献在欧拉开源社区。
第二、面向OSV,通过开源自助化构建平台以及系列场景化套件,使能OSV面向多设备全场景推出商业发行版。
第三、面向ISV,通过开放北冥多样性计算融合架构,通过北冥的基础加速库、领域加速库和应用加速库,来实现基于欧拉的全栈性能最优。
第四、面向开发者,后续将开源毕昇C++多样性算力统一编程语言,支持欧拉面向多算力多设备统一编程。华为将持续优化毕昇编译器,提升算力性能。
生态构建助推迈向开源强国
华为希望和伙伴共同构建起三层欧拉生态发展平台,持续发展壮大社区生态、OSV生态和基于欧拉的全行业应用软件生态。
生态构建上,首先是欧拉开源社区,持续升级。其次,和软协合作,成立欧拉生态推进组。最后,成立欧拉生态创新中心,打通生态落地的最后一公里。通过欧拉创新中心,为欧拉南向和北向的适配、调优和应用创新提供平台、技术、资金和政策支持。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。