近日,阿里云机器学习 PAI 开源框架 EasyNLP进行升级发布,推出了融合了丰富电商场景知识的CLIP模型,在电商文图检索效果上刷新了SOTA结果,并且将上述模型免费开源,贡献给开源社区。
CLIP(Contrastive Language-Image Pre-training)是一种经典的文图跨模态检索模型,它在大规模图文数据集上进行了对比学习预训练,具有很强的文图跨模态表征学习能力。EasyNLP借鉴CLIP的轻量化、易迁移的预训练架构,构建基于CLIP包含图像和文本Encoder两部分的双流模型,同时基于商品数据,以优化电商场景的文图检索优化。
Fashion-Gen数据集是一个大规模的时尚场景的图文数据集,以Fashion-Gen数据集为例,EasyNLP基于pai-clip-commercial-base-en和pai-clip-commercial-large-en这两个模型在Fashion-Gen数据集上进行了20个epoch的微调。实验结果表明,相比于现公布的SOTA模型(CommerceMM),电商CLIP-large模型在文到图和图到文的检索结果上均有显著提升,评测指标最高提升了8.7~15个百分点。
除此之外,电商base模型在文到图与CommerceMM相当检索结果下,使用了更少的参数量。由此可见,电商CLIP无论在large还是base图像Encoder的设置下,都取得了有竞争力的电商场景跨模态检索能力。
文到图检索评测结果

图到文检索评测结果

目前,电商CLIP可在EasyNLP中直接安装使用,在未来,EasyNLP框架会集成更多NLP的多模态的知识模型,覆盖各个常见领域和任务,同时也将集成更多SOTA模型(特别是中文模型),来支持各种NLP和多模态任务,共建NLP和多模态算法库。
Github地址:https://github.com/alibaba/EasyNLP
好文章,需要你的鼓励
2024年10月8日,Geoffrey Hinton(杰弗里·辛顿)因在人工神经网络领域的开创性工作获得诺贝尔物理学奖。
NVIDIA联合多伦多大学开发的ChronoEdit系统通过将图像编辑重新定义为视频生成问题,让AI具备了物理常识。该系统引入时间推理机制,能够想象编辑的完整变化过程,确保结果符合物理规律。在专业测试中,ChronoEdit超越了所有开源竞争对手,特别在需要物理一致性的场景中表现突出,为自动驾驶、机器人等领域的应用提供了重要技术突破。
这项研究提出了MITS框架,使用信息论中的点互信息指导AI推理过程,解决了传统树搜索方法计算成本高、评估标准模糊的问题。通过动态采样和加权投票机制,MITS在多个推理数据集上显著超越现有方法,同时保持高效的计算性能,为AI推理技术开辟了新方向。