近日,由人民银行主管的期刊《金融电子化》刊登了一篇题为《人工智能GPU算力资源池化应用研究》的文章,由华夏银行首席信息官吴永飞、华夏银行信息科技部的王彦博、陈志豪和徐小芳合力撰写。文章聚焦于探索并研究人工智能 GPU 算力资源池化的创新方案,并提出如何统一管理各种GPU异构算力,充分有效地利用好GPU资源,是AI应用亟需解决的问题。

据了解,该方案主要目标在于验证异构算力资源池化软件是否能够在全栈信创硬件及操作系统上正常工作,从而实现资源的统一池化管理,并将不同类型的硬件加速卡通过GPU池化软件进行算力抽象化,为上层应用提供统一的AI加速算力资源。
方案中充分利用了涵盖信创服务器+异构算力芯片,其中就包括海光异构加速卡。在资源池化管理中,海光异构加速卡表现出了卓越的性能和适应性。通过GPU池化软件,海光异构加速卡成功实现了资源按需分配、远程调用、资源切分等功能,为方案的成功验证做出了重要贡献。
作为光合组织生态成员之一,海光产品在此次研究中获得华夏银行的高度认可,有效推动了异构算力资源实现高效管理和应用,实现全栈信创AI产品能力建设,为金融应用场景安全可控改造带来了新的契机。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。