11月6日,华为举办华为音乐&视频媒体沟通会,华为互动媒体军团CEO、华为终端云服务互动媒体BU总裁吴昊面向到场媒体分享了华为音乐、华为视频的业务战略及创新技术与体验。
吴昊表示,“目前华为视频月活用户超2.4亿,华为音乐月活用户超2.1亿。华为一方面将为创作者提供高效的引擎、工具和平台,使能人人创作、全球化全场景的智慧分发,另一方面也将为全球华为终端用户,提供涵盖视频、音乐的高品质、沉浸式、强互动的内容和体验,真正让‘技术赋能艺术,品质铸就体验’”。

借助于软硬协同与用户体验创新,华为能够将碎片化、缺少交互的影音娱乐体验进行无缝链接,为用户提供覆盖“人-车-家”的鸿蒙全场景高品质互动媒体体验。在多模态、多场景的智能分发场景下,华为每日为优质内容带来超25亿的曝光量,实现内容创作、分发与消费的全周期生态建设。
华为音乐作为国内首家将Hi-Res内容设立专区运营的综合音乐流媒体平台,拥有最高可达192kHz/24bit品质的高解析度流媒体曲库,内容获得Hi-Res“金标”认证。借助于全球首个基于AI技术的音频编解码标准Audio vivid,华为音乐于今年9月正式推出高清空间音频服务,使听众能更清晰的听到声音的方位及运动轨迹,实现声音全方位萦绕的效果,为用户带来身临其境的聆听体验。此外,华为还推出了空间音频创作插件工具Petal Vivid,将免费开放给全球创作者使用。吴昊表示,未来华为将把高清空间音频体验带入智能座舱中,让用户在车内空间就能感受到更震撼和沉浸的音乐效果。
华为视频立足于“精品自营+聚合”的内容合作战略,坚持为用户带来高质量视听体验。其推出的AiMax影院,为用户提供最高可达4K高清画质、HDR Vivid色彩和Audio Vivid的电影大片,打造 “随时随地皆现场”的影院级临场感体验。同时,基于鸿蒙分布式能力,华为视频已全面覆盖手机、平板、智慧屏、车机等多种智能终端设备,视频内容能够更方便地在多设备之间流转,实现跨设备、不间断的观影体验。
华为视频智慧屏2.0版本,将已引入的优酷、芒果TV、腾讯视频、爱奇艺等15个视频平台汇聚在全网影视频道,用户无需单独下载APP,便能一键观看全网新热内容。创新“星环搜索”体验,可通过算法技术,连接全网媒资库,实现全网影音内容的精准搜索;此外,还能以搜索关键词为节点,提供多元化标签对整个内容生态进行无限延伸,帮助用户快速找到想看的内容。
吴昊表示,华为音乐、华为视频基于鸿蒙不仅为用户带来全场景视听的创新体验,还给全球创作者及合作伙伴带来了巨大的增量发展机会。未来将持续欢迎内容生态的伙伴们一起拥抱多设备体验,创造万物互联的全新影音世界。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。