“中国95后的群体规模已接近2.5亿人,约占整体网民的52%。虚拟偶像的潜在粉丝已经超过3亿人。虚拟偶像产业将迎来收获大量潜在用户的更好时机。”近日,爱奇艺高级副总裁、《跨次元新星》节目总监制陈伟在接受新华社记者采访时表示。
虚拟偶像是指虚拟的、并不存在真实形体的形象。它借助人物建模、实时渲染、动态捕捉、人脸识别等技术,将人们想象中的具有某部分群体喜爱特质的形象具体呈现出来,使其像真人一样出现在屏幕上与粉丝互动。2007年诞生于日本的初音未来掀起了虚拟偶像风潮,其后中国版虚拟偶像洛天依也大获成功。
而在近年来,虚拟偶像通过粉丝积累、汇聚流量获得的商业价值正在被发掘,更多的虚拟偶像不断涌现。由爱奇艺推出的全球首档虚拟人物选秀综艺《跨次元新星》,更是让虚拟偶像如同真人一样参与比拼,以“娱乐+科技”大胆创新的模式破界融合,令人耳目一新。
节目里来自众多公司的30位虚拟人物进行了多轮激烈角逐,最终蜜枝科技打造的“留歌Amy”在总决赛中夺得冠军,C位出道,成为2020年“地表最强跨次元新星”。
“留歌Amy”夺得总冠军折射出蜜枝科技在虚拟偶像产业中的过人实力。作为国内屈指可数能够提供虚拟形象全流程内容整合服务的团队,蜜枝科技拥有7项国家专利,业务涵盖品牌IP化战略策划、形象设计及内容制作、形象运营及技术服务、虚拟形象线下演出剧场提供等,在线上线下虚拟直播、演播、互动等方面具有丰富的全流程执行经验。
值得一提的是,蜜枝科技不仅在《跨次元新星》中推出了冠军选手,还参与了部分虚拟舞台的设计与制作,体现出不俗的技术实力。与普通选秀综艺相比,《跨次元新星》于国内第一次将虚拟技术应用在节目中,营造出宛如梦幻世界的舞台效果,展现出极强的视觉冲击力。
虚拟舞台的设计制作相当复杂,节目周更/周双更的播出节奏下所要求的制作速度,更是对制作团队提出了全新的挑战。为此,蜜枝科技从制作流程入手,创新性地打造了多工种并行的制作流程。在这一流程下,动画/虚拟灯光/AR特效/纯虚拟镜头/分镜头预演同步制作,每天都会迭代出一个结构完整的播出工程。
制作过程中还要保证实时渲染引擎下的视觉效果与计算性能的平衡,在50FPS的渲染帧率的要求下,每一帧画面的动画、特效渲染、实时合成与信号传输需要在20毫秒以内完成。因此在制作前,团队进行了详细的性能预算分配工作,在保证视觉效果的前提下,尽可能地降低了消耗。因为一旦出现了渲染卡顿,就完全无法补救
为了解决实时流程中因为时间紧张、操作失误或者妥协计算性能等原因导致的质量下降问题,蜜枝团队研发了全虚拟机位的跟踪数据录制功能。在录制后,可以对节目中的AR内容进行更进一步的调整和优化,克服了AR与实景合成后难以二次更改的行业难题。
此外针对虚拟演出中虚实场景(包括背景画面、真人舞蹈演员、虚拟形象、大屏、灯光、AR画面、AR特效等)同步对齐的难点,蜜枝团队对设备的处理与传输耗时进行了精确测量,并进行了相应的延时对齐处理与测试,将合成误差缩小到了40毫秒以内,很好满足了播出要求。
虚拟偶像是中国娱乐产业未来的发展方向之一,也是技术为娱乐产业赋能的领域。有业内专家指出,2020年虚拟技术变得更为成熟,加之直播电商、短视频内容迎来爆发式增长,这些变量为虚拟偶像产业链增添新的想象空间;而在未来,虚拟偶像、虚拟演出、虚拟游戏等虚实结合的娱乐方式也将成为重要的探索方向。在这样一片市场蓝海之中,有着丰富经验和过硬技术储备的蜜枝科技,有望进一步脱颖而出。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。