导语:
随着生成式AI模型不断拓宽AI应用的场景边界,模型在线服务的数量级快速增长,AI推理环节亟需精细化的资源管理。
近日,阿里云机器学习平台PAI宣布全面升级模型服务平台PAI-EAS,面向文图生成、大语言模型等各类模型提供弹性稳定的推理服务,并推出全新规格GU30,与传统规格相比价格平均优惠45%。
全新推理规格GU30问世,释放技术红利
在AI工程化链路中,推理服务是打通“模型到应用最后一公里”的重要环节,并持续伴随业务成长。
PAI-EAS是PAI推出的弹性推理服务平台,提供异构硬件 (CPU/GPU) 模型加载和服务部署,支撑达摩院、淘宝、高德等业务大量级模型服务,并广泛服务阿里云上企业客户。结合推理优化技术和云原生生态,PAI-EAS进一步提升异构资源集群整体利用率,规模化地实现服务效率与性能提升,扩大让利空间。
新推出的PAI-EAS GU30系列规格,专用于深度学习异构推理场景,较PAI-EAS同等性能的传统规格价格下降45%。
GU30可适配不同复杂程度的模型,支撑文图生成、大语言模型、多模态模型、NLP、CV、ASR等的推理需求。付费模式上,EAS同时支持预付费和灵活的按量付费,用户可以通过弹性扩缩容、弹性资源池等能力精细化地按需管控推理资源。
Serverless化覆盖多样推理场景
作为云上AI推理服务平台,PAI-EAS在基础设施层、容器调度层、模型部署层都提供丰富的产品功能,贴合不同场景的个性化需求。
PAI-EAS最新活动
从2023年4月中旬起,阿里云产品试用中心将正式开放PAI-EAS同等算力的试用规格,提供最长3个月的模型在线服务免费体验包。点击PAI-EAS产品页官网(链接:https://www.aliyun.com/activity/bigdata/pai/eas),可在PAI-EAS产品官网获得最新活动信息。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。