12月9日,“数字强国·勇攀高峰”信创论坛在线上隆重召开,本次活动为2022数字经济高质量发展系列活动之一,由《经济》杂志社主办,B.P商业伙伴联合主办,搭建产、学、研、用的交流合作平台,促进“产城融合”、“数字产业化”及“产业数字化”,推进“数字经济融合、健康、可持续、高质量发展”。神州数码信创业务集团产品中心副总经理吴艳伟出席活动,并带来“人工智能信创产品推动平安城市建设”的主题演讲。
“十四五”时期,我国数字经济转向深化应用、规范发展、普惠共享的新阶段。信创产业自2020年开始全面推广以来,取得丰硕的成绩,预计未来三到五年,信创产业将随着我国数字经济的深入发展迎来黄金发展期,从党政向八大关键行业乃至更广泛的商业市场快速发展。在此背景下,以数字化提升政府效能,促进国家治理能力提升,数字政府建设当前已刻不容缓,而平安城市建设正是数字政府建设中的关键一环。
神州鲲泰服务器搭建人工智能算力基础平台
在吴艳伟的介绍中,目前信创整体产业发展充满了机遇,整体产业生态链的自主创新和协同发展在政策的鼓励和要求下稳步推进,逐步从局部走向全面。在此进程中,神州数码信创业务伴随着信创产业一同稳步发展,打造全新自主产品神州鲲泰系列服务器,丰富的产品类型以应对差异化的场景需求,其中以鲲鹏+昇腾为核心打造的人工智能服务器可以围绕数据资源、运算能力、核心算法三个维度为智能计算场景提供强大的算力。多款机型助力端、边、云联动,解决智慧安平场景下的各类痛点。
打造算力基础设施,推动区域数字化转型
在业务实践中,神州数码信创业务可以依托城市中心需求建设算力中心,通过推理边缘延伸算力覆盖,基于自主创新底座的AI综合产品解决方案快速建设平安城市;通过计算中心的易用性和使能能力,做实生态&算力运营并带动应用边缘建设。在算力中心建设中,神州数码打造厦门鲲鹏超算中心,作为区域算力底座,赋能城市数字化转型,深度参与沈阳昇腾人工智能生态创新中心运营,充分发挥自身在生态、运维、服务、产品等多方位优势,瞄准区域特色产业需求,促进“算推一体中心”建设。通过算力网络互联落地,打造模型、应用、数据三大市场。联合区域企业、高校及研发机构,推动产学研用联合发展。
端、边、云联动发展,满足安平城市AI算力需求
聚焦平安城市场景,依托算力中心及云平台,针对边缘推理的建设需求,持续推动平安城市解决方案优化。神州数码信创业务中标多地平安城市项目,依托自主品牌产品神州鲲泰系列服务器,可帮助客户对区域视频图像和信息资源进行地图化、规模化、集约化的管理和开放共享,通过支撑视频监控和人像卡口系统,满足300路视频监控AI人体、人脸的解析,同时满足相关视频结构化/非结构化的数据存放需求。基本上满足多部门对视频浏览、录像调阅和人像轨迹查询等需求,在支撑服务打击犯罪、治安防控、人员管控等方面都取得成效,为平安城市建设做出贡献,在公路高效智能执法、平安城市治理和政务智能化、城市实时智能高速稽查等场景下,通过深度学习,实现人体与人脸精准识别,以及视频高质量、低延时输出。保障视频监控和人像卡口系统稳定运行,在支撑服务打击犯罪、治安防控、人员管控等方面取得卓越成效。
平安城市,安居乐业,信创产业正稳步发展,为越来越多的行业赋能。数字中国,勇闯高峰,神州数码信创业务也将持续奋进,为产业的数字化转型提供更优质的产品和方案。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。