在不久前召开的华为开发者大会2023(HDC.Together)上,来自全球的开发者汇聚一堂,共同探索鸿蒙生态的最新进展,体验HarmonyOS最新技术。通过主题演讲、丰富的现场活动以及案例分享等,“云开发”的降本增效、创新体验被频繁提及,受到更多开发者的关注和认同。
在大会的技术论坛环节,母婴行业知名品牌“孩子王”的CTO用实践案例分享了“‘孩子王’元服务使用端云一体化·云开发的创新体验”。云开发为“孩子王”元服务提供了助力,其云端Serverless免运维、弹性伸缩等特性,使得“孩子王”元服务的开发效率提升60%,资源成本节省40%。

云开发是(高码)端云一体化开发,主要针对广大开发者在产品开发过程中可能遇到的端云割裂、开发效率低、沟通成本高等问题给出解决方案。开发者只需在HUAWEI DevEco Studio内选择云开发模板,一个开发团队、一套开发工具、一种开发语言,即可完成HarmonyOS应用/元服务端侧与云侧的开发。
端云协同开发,助力开发者低成本学习快速上手
通常来讲,同时完成端云两侧的开发要求开发者具备较高的专业技能,这对于不少初创团队及个人开发者而言是存在一定难度的。云开发则降低了对开发者的技能要求,学习成本低,一种开发语言即可同时支撑端云两侧的开发,帮助有基础知识储备的开发者快速上手。
元服务“随手计数”是一款个人开发者的作品。开发者之前对云开发并不了解,但其在通过文档自学和对云开发工具的探索后,顺利完成了第一款元服务作品的开发和上架。开发者表示,虽然是第一次使用云开发模板,但前期准备过程非常简单,仅需在HUAWEI AppGallery Connect(以下简称“AGC”)管理端花点时间新建项目,后续开发时无需任何配置便能直接使用,学习成本低,上手快。

端云统一技术栈,促进开发效率显著提升
传统开发模式端云割裂,需要较高的人力投入和持续的沟通成本,对很多开发者而言,在有限的资源内高效完成产品需求是有难度的。云开发端云统一技术栈,无需切换端侧与云侧工程、无需学习多种前后端语言,端侧人员也可编写云侧代码。
元服务“溜溜骰子”的开发即验证了这一点。 “溜溜骰子”的云侧逻辑主要用云函数和云数据库去实现,在使用过程中,用户每次摇骰子,都会带来流量的上升,流量与摇骰子次数成正比。多个玩伴共同使用,还会产生裙带效应,使流量翻倍攀升。
传统模式下,一个人想完成端、云侧的开发很难,云开发降低了开发门槛,且保障“溜溜骰子”的开发效率提升2倍以上。
Serverless优势凸显,有效降低资源成本
云开发的云端接入AGC Serverless服务,Serverless服务让开发者只需专注于业务逻辑,无需关心服务器、操作系统以及容器等基础设施,有效提升资源利用率,降低资源成本。

作为一款基于青少年篮球活动场景设计的工具,元服务“雪狼战术板”涉及大量数据内容,传统模式进行产品设计不便于切换终端设备后的数据获取,借助云开发完成产品的迭代后,依托Serverless服务,其可将画笔轨迹、进攻/防守人物相关数据全部保存在云数据库中。值得注意的是,开发者仅花费3小时就完成了项目上云的迁移,效率提升30%。
除了“雪狼战术板”,元服务“无聊数学”接入Serverless认证服务、云函数、云数据库、云存储服务以及Serverless模板能力后,降本增效亦十分明显。粗略计算,接入Serverless服务节约了开发成本15人天,开发效能提升27.3%。同时,由于项目全部采用华为的云架构,硬件资源成本方面,亦减少了3台约8核16GB的服务器投入。

如果您对HarmonyOS应用/元服务开发有着浓厚的兴趣,在开发过程中遇到了同样的难题和痛点,不妨尝试一下“云开发”。登录华为开发者联盟学堂官网学习HarmonyOS云开发课程,体验端云一体化·云开发,实现低成本高效开发,共建共赢更加美好的鸿蒙世界。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。