继世界一级方程式锦标赛F1 (Formula 1) 重大赛季之后,甲骨文红牛车队在新赛季开始时,宣布推出新的技术计划,这将有助于车队继续卫冕冠军。甲骨文红牛车队基于数据驱动性能的理念,将提高甲骨文云技术的使用率来支持新的粉丝互动机会,包括为新车 RB19 设计涂装。该团队还将通过数十亿次模拟来进一步扩大其竞争优势,帮助专业竞赛策略师做出更精准的决策。此外,Oracle 云基础设施远程软件服务 (Oracle Cloud Infrastructure, OCI) 将为 Red Bull Powertrains 提供杰出计算能力,以支持其面向 2026 赛季的开发工作。
甲骨文红牛车队主席兼首席执行官 Christian Horner 表示:“甲骨文云技术帮助我们在 2021 年和 2022 年的锦标赛中获胜,我们相信它将在本赛季继续为我们的粉丝、团队和车手带来更多惊喜。在甲骨文公司的帮助下,我们从数据中获得洞察,进而更快地在赛道内外做出更明智、更有效的决策。从竞赛策略到粉丝互动,以及作为 Red Bull Powertrains 基础设施的重要部分,甲骨文公司都是我们车队取得成功的关键。”

Paddock 会员设计将载入红牛车队历史
甲骨文红牛车队在 2022 年赛事中屡屡获胜,与此同时,甲骨文公司也帮助车队通过独特的粉丝互动平台 The Paddock 收获了更多粉丝。借助 Oracle 客户体验云解决方案(Oracle Cloud Customer Experience, CX),这项数字化的忠诚度和奖励计划在 2022 年实现了大幅增长,新增会员超过 25 万,并通过视频、测验和竞赛与会员保持联系,让粉丝能够获得独家的幕后信息、与车队互动并与其他粉丝一起构建社区。为了给今年的粉丝带来更多精彩体验,甲骨文红牛车队发起了一项联盟首创比赛,让 Paddock 会员为三场美国大奖赛(迈阿密、奥斯汀和拉斯维加斯)设计赛车涂装。
甲骨文公司云基础设施产品副总裁 Karan Batta 表示:“甲骨文云技术的设计目标是帮助客户取得成功。该技术帮助来自全球各地、各行业的企业解决复杂的挑战,而甲骨文红牛车队所使用的正是这个技术。”
2023 年,近 1000 亿次竞赛策略模拟将有效改善决策
甲骨文公司将继续为甲骨文红牛车队的竞赛战略提供技术支持,助其在赛道上取得成功。数十亿次计算机生成的模拟将帮助竞赛策略专家做出瞬间决策。去年,OCI 在甲骨文红牛车队的夺冠之旅中发挥了至关重要的作用,让车队能够连续实时运行竞赛模拟,从而使车手能够对赛车的性能、赛道上发生的变化以及比赛中竞争对手的决定做出快速反应。
2022 年,甲骨文公司进一步缩短了延迟并提高了竞赛模拟的数量和速度,从而使总模拟运行量增加了 25%。在这项每 0.1 秒都很重要、每一项决定都必须经过仔细分析的竞赛中,如果车队可以获得海量的模拟数据,即时处理并提炼成切实可行的战略,就可能凭借这个优势脱颖而出。2023 年,该团队预计将在竞赛的周末运行近四十亿次模拟,并在整个赛季运行近一千亿次模拟,最终借助 OCI 来卫冕世界冠军。
OCI 赋能 Powertrains 模拟
甲骨文公司还将与Red Bull Powertrains合作,该公司在开发新一代混合动力引擎方面取得了关键进展,新引擎将在 2026 年赛季投入使用。OCI 将支持该团队的高性能计算 (HPC) 工作负载的要素,以运行复杂的、计算密集型的模拟,为动力系统设计的关键要素建模。
除了即将到来的 F1 赛季之外,甲骨文公司也将继续为甲骨文红牛车队的电竞团队提供支持。OCI 将帮助电竞团队分析数据,做出更明智的竞赛决策并更了解自己的表现。OCI 还将为模拟技术提供支持,帮助车手做好准备 — 就像 F1 团队一样。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。