3月23日,华为举行春季旗舰新品发布会,发布了一系列搭载HarmonyOS的终端新品。其中,全新一代折叠旗舰HUAWEI Mate X3备受关注,其凭借轻薄四曲折叠设计、快速发展的折叠应用生态、HarmonyOS 3.1 全新升级的智慧多窗以及悬停状态下的创意功能玩法,软硬一体为折叠屏手机带来更加优秀的阅读、观影、办公及游戏体验。
此外,早在2019年,华为便与软件绿色联盟首发了《折叠屏移动智能终端白皮书》,有效助推了折叠屏行业朝着规范化的方向发展。本次发布会上,华为再次携手软件绿色联盟发布了折叠屏软件设计与开发行业规范,以帮助应用开发者轻松实现折叠屏适配,持续引领折叠屏应用生态发展,为整个产业实现更加个性易用的人机交互体验做出重要贡献。
打造创新折叠大屏体验,引领应用生态发展
众所周知,受益于产品形态的优势,折叠屏在展开状态下拥有更大的屏幕尺寸,理应能够带来更为沉浸式的视觉体验。但是,更大的屏幕尺寸让应用适配成为一大问题,也从根本上影响着用户在折叠屏手机上的使用体验。
为给用户提供更沉浸的大屏体验,HUAWEI Mate X3此次带来了全新的双屏桌面功能,在屏幕展开时可以显示两屏桌面,用户可以在大屏上浏览更多应用图标和万能卡片,效率更高。
HUAWEI Mate X3基于人因研究,对主流的头部应用布局和操作进行了重新设计,带来了更多令人愉悦的体验。比如,在HUAWEI Mate X3打开搜狐新闻,支持双列刷新闻,排版布局更美观,阅读体验更高效;打开新浪微博,正文与评论区分屏显示,实现边看边评,大幅提升了用户在大屏状态下的用机体验。
分屏体验更智能,引领折叠屏效率革新
HarmonyOS 3.1加持,HUAWEI Mate X3智慧多窗功能再进化,让工作更高效,生活更精彩。全新智慧多窗支持一步智能分屏操作,单指向左上方滑动,进入待分屏状态,然后点击桌面另一应用便能一步开启分屏。比如校对视频的同时摘抄笔记,或者一边购物,一边聊天。
此外,在全屏播放视频和玩游戏时选择分屏,系统能够智能识别该场景更适合上下分屏模式,让同样的分屏操作,实现更佳的体验效果。比如,工作中开视频会议,一步智能分屏,上半屏听会,下半屏做笔记,视野更宽阔,操作更高效。娱乐休闲时,使用一步智能分屏,上半屏观看视频,下半屏游戏、聊天,操作两不误。
不仅如此,用户也可以点击“三个点按钮”,快速在上下分屏和左右分屏之间切换。同时,分屏组合还支持一键保存组合至桌面,便于下次使用时快速打开。
悬停交互自由灵活,解锁更多创意玩法
基于HUAWEI Mate X3半折叠的悬停状态,HarmonyOS 3.1设计了更自由灵动的交互方式,可以解锁影音娱乐、工作生活等场景新玩法。
影音娱乐方面,悬停状态下可以实现上屏观影,在下屏控制包括调节亮度、音量、进度以及播放暂停等操作,与全屏状态操作逻辑一致,用户一上手就会操作。日常使用时,将HUAWEI Mate X3放置于桌面,用户可以进行悬停视频通话,此时不仅主画面与操控分区显示,还可以进一步解放双手,实现灵活互动。同时HUAWEI Mate X3还带来了全新的悬停熄屏显示,实时显示天气,在休憩时刻伴你左右。
HUAWEI Mate X3借助HarmonyOS 3.1进一步解放折叠屏在不同形态下的优势,未来,华为将继续与行业合作伙伴一起,引领折叠屏手机应用生态发展,为消费者带来更加丰富的创新体验。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。