7月27日,2023数字生态发展大会暨中国信通院“铸基计划”年中会议在京成功举办。作为“筑基计划“的深度参与者,神州数码(000034.SZ)凭借对数云融合的前沿洞察、率先布局以及全栈数云服务交付能力,携旗下神州鲲泰智算系列服务器、神州问学、Bluenic精准营销平台、IHP智能混合办公平台、数据安全管控平台5个标杆产品,成功入选《高质量数字化转型产品及服务全景图(2023)》,上榜数据分析、人工智能、IT运营维护、技术开发、通用办公等多个细分板块,为“筑基计划”添砖加瓦。
据悉,“铸基计划”《高质量数字化转型产品及服务全景图(2023》是中国信通院通过企业访谈、现场走访、专家评审等方式,评选出国内提供高质量的数字化转型产品及服务的企业,为我国数字化转型中的传统企业提供参考支撑及价值思考。本次入选全景图多个前沿领域,也说明神州数码的在数字化转型领域的产品、技术实力再次得到权威认可。
当前,我国数字经济已进入快速发展期。人工智能、大数据、云计算等数字技术取得重大突破,极大地发挥了数字经济对我国经济效率及经济活力提升的重要作用,积极带动了我国经济的转型升级,并成为我国经济发展的新动能。数字化转型作为数字经济的核心驱动力,其重要性正在逐渐被企业广泛接受并逐渐成为企业解决经营困难、强化核心竞争力以及创造价值的有力工具。
作为数字中国的探索者、实践者和赋能者,神州数码已经在中国信息化领域深耕二十余年。随着“数字中国”成为国家战略,神州数码也提出了新的愿景:成为领先的数字化转型合作伙伴,秉承领先的理念和技术,以强大的数字产业生态力量为基石,推动全社会数字化进程,引领数字经济的发展。
与此同时,锚定数据要素价值与全生命周期安全,神州数码已形成覆盖数云融合咨询、云上应用开发、云原生应用管理平台构建、MSP+服务的全栈式能力,并且在云服务、数据服务、数据安全、数据资产、内容生成、数字营销等领域构建了多项自主知识产权产品及独到解决方案。
以此次入选全景图的5个标杆产品为例:在客户数据平台(CDP)领域,神州数码Bluenic精准营销平台以大数据、人工智能、物联网等技术为基础,为客户打造了全流程数据营销能力,即从客户数据平台、标签系统、行为建模、数据转化,到广告投放和数据回流的闭环;在视频会议领域,神州数码IHP智能混合办公平台以高度统一管理各平台和设备、企业高度协作为目标,通过统一IPaaS、统一入口、统一流程、统一数据的方式实现数据的集中管理和统一调度;在数据安全领域,神州数码数据安全管控平台围绕数据安全生命周期中数据的采集、传输、存储、处理、共享和销毁六个阶段,能够为企业数据安全和数据价值释放持续赋能;在人工智能领域,神州鲲泰智算系列服务器支撑边缘、推理、学习等AI典型应用,可为AI场景提供强大的多元化算力基础;神州问学解决了企业对大模型应用场景的焦虑,帮助企业更好的应用AIGC,加速数据资产累积。
面对数字时代的机遇与挑战,神州数码拥抱数字化的力量,开启“数云融合”战略升级,将技术范式颠覆纳入核心发展策略,构造基于数云融合新技术范式的自主技术体系,依托神州数码特色的数字化转型理念、方法和路径,以及全栈云服务和全生命周期数据服务能力,帮助汽车、零售快消、制造业等不同行业客户实现“业务的数字化,数字的业务化”的循环和价值再造。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。