汽车产业正在面临关键的效率竞争,智能化作为全新的价值点,已然成为新阶段角逐的核心。各家车企和一级供应商都在投入大量资源,但无论是技术本身的整合创新,还是面向用户的体验探索,或是构建品牌差异化体验,都成为发展中的系统性难题。想在效率竞争中获得优势,汽车品牌不止需要车规级芯片和软件,更需要完整的解决方案。
作为首家登陆美股的中国汽车智能化初创企业,亿咖通科技即将在3月24日,在武汉体育中心举行首届科技生态日,与行业携手,共同推动全球汽车智能化发展再向前。
全球汽车智能化的底座和枢纽
作为一家聚焦B2B模式,专注研发并提供全栈汽车计算平台的公司,亿咖通科技过去被广为人知,更多的是其从2017年创立之始,就在不断大胆创新,包括率先将高性能消费电子芯片整合为车规级计算模组;率先布局芯擎科技,并成功流片全球领先的7nm车规级处理器“龍鷹一号”……多次引领行业技术范式,起到了推动行业发展的关键作用。
与此同时,亿咖通科技的先进技术也在助力其在全球实现快速发展。数据显示,亿咖通科技的技术已被成功应用于全球超 370 万辆汽车,覆盖了包括梅赛德斯奔驰、宝腾、路特斯、smart和吉利汽车在内的12个OEM品牌,还率先与沃尔沃成立了Haleytek,与Luminar、AMD等全球品牌形成深度合作,构建了全球汽车智能化技术生态,成为了中国汽车智能化出海的先锋。
2022年12月21日,亿咖通科技率先通过SPAC方式登陆美股纳斯达克,一举踏入更为广阔的全球市场。
如今,亿咖通科技的技术布局和生态,以及先进的创新战略和产品,将为企业带来完整高效的智能化解决方案。
赋能·创变
首届亿咖通科技生态日将主题定为“Enable & Accelerate 赋能·创变”,表达了其广泛赋能行业,通过深度创新加速行业发展的愿景。
可以期待的是,亿咖通科技将基于已发布的“龍鷹一号”SoC,构建完善的计算平台,为车企提供全新的高性能、车规级、具备差异化的解决方案;同时,亿咖通科技此前在CES 2023中,基于超高性能理念,与AMD携手打造的下一代计算平台也有望同步亮相,展示更多的技术细节;面向域融合及中央计算平台的趋势,亿咖通科技也将交出独特的理解。
此外,备受关注的星纪魅族,也有望在科技生态日期间亮相。
亿咖通科技即将为全球汽车行业带来真正突破、创新、可靠的解决方案,做好底座和枢纽,赋能全球车企和一级供应商,供汽车品牌聚焦资源,构建独特体验以持续领先。
3月24日,相约武汉体育中心,共同加速全球汽车智能化向上开启新征程!
关于亿咖通科技
亿咖通科技,作为纳斯达克上市公司(股份代号ECX),是一家与整车制造商开展合作的全球出行科技企业,旨在汽车行业向全电动的未来转型之际,全力推进重塑行业格局。随着整车制造商从零开发全新的汽车平台,亿咖通科技正在研发一套包括中央计算平台、SoC和软件的全栈式解决方案,助力客户不断提升车内用户体验。亿咖通科技的技术与服务已被应用于超过全球370万辆汽车,并通过持续快速推进智能移动核心技术来塑造人与汽车之间的全新互动关系。
亿咖通科技于2017年成立,团队发展至今已有近2000名员工。公司由两位汽车企业家联合创立。创始人之一的沈子瑜先生担任董事长兼首席执行官,另一位创始人李书福( Eric Li )先生则是世界上最大的汽车集团之一浙江吉利控股集团(“吉利”)的创始人和董事长,该集团持有股份及投资的国际品牌包括路特斯科技(Lotus Technology)、领克(Lynk & Co)、极星(Polestar)、智马达(smart)和沃尔沃汽车(Volvo Cars)等。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。