11月26日至27日,UWA世界超高清视频产业联盟(以下简称“UWA联盟”)、上海交通大学-南加州大学文化创意产业学院、华为联合举办了“互联智慧,共赢未来” 超高清音视频技术与生态发展高峰论坛暨Audio Vivid空间音频工具花瓣三维声训练营。中央广播电视总台超高清视音频制播呈现国家重点实验室、IEMC国际电子音乐大赛、上海音乐学院等业界学界代表汇聚一堂,共同探讨超高清音视频技术的发展现状与未来前景。
Audio Vivid菁彩声混音培训认证中心揭牌仪式
在26日上午的圆桌论坛中,华为2012实验室中央媒体技术院总裁李江表示,未来华为将加强与UWA联盟、上海交通大学、Audio Vivid培训中心等产业代表和高校的交流协作,进一步加深技术与艺术的融合,不断激发空间音频技术进步,为听众们带来更优质的听觉体验。
作为业内首个支持 Audio Vivid格式的空间音频创作工具,华为HMS Core提供的花瓣三维声(Petal Vivid)通过自研MCR渲染算法,释放出层次细腻的真实世界声音,精准定位由近及远、由快到慢、由潺潺细流到一泻千里的声源运动轨迹,塑造影院级的流动音效。花瓣三维声还支持Audio Vivid的最新标准AV3A格式,使用AV3V格式可渲染导出96kHZ无损音源,能保留原有音质的细腻饱满,为创作者生成高质量的音频作品。
超高清音视频技术与生态发展峰会圆桌论坛
接下来开展的为期2天的Audio Vivid空间音频工具训练营,则吸引了广大音乐爱好者的报名。来自2022 IEMC国际电子音乐大赛获奖选手和上海交通大学等高校的学员通过花瓣三维声技术专家的指导,加深了对空间音频的学习和认知,体会到空间音频的前沿科技与艺术魅力。学员们还使用花瓣三维声创作并发表了自己的首个Audio Vivid空间音频作品。
Audio Vivid空间音频工具花瓣三维声使用演示
花瓣三维声已面向音频行业从业者及音乐爱好者全面开放,从而进一步完善空间音频的内容生态。未来,花瓣三维声还将不断进行技术革新,与产教研等领域紧密结合,持续推动超高清音视频技术应用和超高清音视频产业的高效发展。如需进一步了解相关信息,请访问HMS Core官网。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。