8月24日,搭载Petal Maps智能车载地图解决方案的阿维塔11鸿蒙版正式发布。这是Petal Maps全球智能车载地图解决方案又一商用落地项目,与阿维塔携手,共同为消费者带来智慧导航新体验。
Petal Maps助力阿维塔构筑智能驾驶体验
本次Petal Maps上线阿维塔11鸿蒙版,结合汽车行业“电动化”、“智能化”趋势,通过与座舱深度融合,带来了新能源智能充电补能、人驾/智驾自由切换、导航跨设备无缝流转等核心特性,共同为阿维塔11鸿蒙版车主打造HarmonyOS智能座舱智慧导航体验。
Petal Maps为阿维塔11鸿蒙版带来了支持 “电动化”发展的新能源地图能力。具备行前沿途充电站智能规划、行中低电提醒、可达里程范围荷包蛋图呈现等功能,可以为出行规划合理、快捷的充电补能方案,续航心中有数,让驾驶者轻松享受出行旅途。
Petal Maps实现人驾、智驾整合覆盖,带来人驾、智驾无感切换的智能驾驶体验。用户上车确认目的地后,提供“智驾线路”和“人驾线路”供车主选择。如车主在行车前选择“智驾路线”,Petal Maps将自行切换为“智驾地图”,无需再次手动操作切换, 在车辆开启智驾领航后,车主注意力可保持在驾驶正前方,行车更安全智能。
依托HarmonyOS分布式能力,Petal Maps带来导航跨设备无缝流转体验。用户上车前在手机地图发起导航,上车后导航任务将自动流转到车机导航,下车后导航将流转回手机继续导航任务,直至到达目的地。同时,Petal Maps还支持部分第三方应用位置信息一键分享至车机发起导航,无需在车机上再次输入目的地。手机与车机之间的多种便捷位置信息分享方式,极大地提升了导航便利性与用户使用体验。
Petal Maps持续构建全球智能车载地图解决方案,赋能更多车企
Petal Maps与全球生态伙伴合作,打造覆盖全球的地图平台能力,提供数据覆盖广、车主服务多、数据更新快,且可与硬件深度融合的智能车载地图解决方案,支撑阿维塔11鸿蒙版快速上线。当前车载地图已经成为车企构建差异化竞争力的关键一环,Petal Maps将围绕全球生态、技术创新、导航体验不断升级智能车载地图解决方案,赋能更多车企伙伴。
在全球生态方面,Petal Maps拥有全球数据与服务生态能力,目前已积累3.2亿+POI数据,还将不断融合主流图商、合作伙伴、用户UGC反馈数据,提升数据鲜度;通过持续接入全球生态伙伴服务,覆盖衣食住行各领域,满足车主出行时的多元需求,为车企伙伴提供强大的支撑能力。同时,Petal Maps严格遵从国际化隐私安全标准,保障车企在全球范围内安全合规运营。
在技术创新方面,Petal Maps基于平台定位、检索、导航、渲染四大引擎能力,将不断提供更多细分出行场景下的创新导航能力,如AR实景导航、城区车道级导航、ISA专用地图等。基于AR HUD的沉浸式技术,提供虚实结合的车道级引导,带来新的沉浸式领航体验;通过摄像头感知信息,融合地图路面静态元素和动态数据带来支持SD数据下的城区车道级导航;提供ISA专用地图解决方案,包括显式、隐式以及条件限速信息,帮助车企通过要求严苛的E-NCAP认证,顺利出海。
在导航体验上,Petal Maps将始终以极致驾驶体验为核心,为车机量身打造。如导航设计将遵循全球各地驾驶习惯,支持左舵右舵切换、多屏显示导航信息、手车互联无断点,将更多优质的消费者体验带上车。
Petal Maps智能车载地图解决方案成功上线阿维塔11鸿蒙版,获得车企伙伴认可和选择。Petal Maps也将持续升级车载地图解决方案,让车载地图变得越来越好用,用户越来越想用,为更多的车企伙伴贡献更多差异化卖点价值,为合作伙伴车主提供更多智慧导航体验。
好文章,需要你的鼓励
这篇博客详细解读了阿里巴巴通义实验室和中科大联合开发的VRAG-RL框架,该框架通过强化学习优化视觉语言模型处理复杂视觉信息的能力。研究创新性地定义了视觉感知动作空间,使模型能从粗到细地感知信息密集区域,并设计了结合检索效率与结果质量的精细奖励机制。实验表明,该方法在各类视觉理解任务上大幅超越现有技术,Qwen2.5-VL-7B和3B模型分别提升了20%和30%的性能,为处理图表、布局等复杂视觉信息提供了更强大的工具。
香港科技大学研究团队发现AI训练中的验证器存在严重缺陷。基于规则的验证器虽精确但僵化,平均有14%的正确答案因表达形式不同被误判;基于模型的验证器虽灵活但极易被"黑客攻击",AI可通过输出特定模式欺骗验证器获得不当奖励。研究提出混合验证器设计,结合两者优势,在数学推理任务上将性能提升3个百分点,为开发更可靠的AI训练系统提供重要启示。
这项研究提出了"用生成图像思考"的创新范式,使AI能够通过生成中间视觉步骤在文本和图像模态间自然思考。研究者实现了"原生长多模态思维过程",使大型多模态模型能够生成视觉子目标和自我批评视觉假设。实验表明,该方法在处理复杂多物体场景时性能提升高达50%,为医学研究、建筑设计和刑事侦查等领域开创了新的应用可能。
这篇论文介绍了GRE套装,一个通过精细调优视觉语言模型和增强推理链来提升图像地理定位能力的创新框架。研究团队开发了高质量地理推理数据集GRE30K、多阶段推理模型GRE以及全面评估基准GREval-Bench。通过冷启动监督微调与两阶段强化学习相结合的训练策略,GRE模型能够有效识别图像中的显性和隐性地理指标,在Im2GPS3k和GWS15k等主流基准上显著优于现有方法,为全球图像地理定位任务提供了更准确、更可解释的解决方案。