3月19日,首届“神州鲲泰杯”全国职业院校信创技术应用大赛在北京成功举办,本次大赛由全国信息安全职业教育集团、京津冀信息安全产教融合联盟、电子工业出版社主办,神州数码、北京信息职业技术学院、高校毕业生就业协会信息化研究中心承办,旨在引导职业院校关注智能计算产业应用方向,促进产教融合、校企合作,促进“北特高”“双高计划”专业建设,引领高职信息技术类专业建设,紧密对接新一代信创行业产业链、创新链。
大赛以个人为单位参赛,共有来自全国二十多所职业院校的学生参与比赛。考虑到疫情的影响,赛事采用线上集中模式进行,主要内容分为信创基础知识以及信创系统安全攻防实操两部分,着重考验学生网络安全风险评估、安全应急响应技术、数据安全等方面的综合技术能力,并从产业发展等多个维度考察参赛者对信创产业的认知水平。经过两天激烈的角逐,最终大赛一等奖由来自北京信息职业技术学院王帅、深圳职业技术学院黄涛、福建信息职业技术学院王义路获得。
在大会开幕式上,工信部教考中心相关负责人表示,信息技术应用创新极大的推动了经济高效、健康、可持续发展,也将整个产业的发展推向高潮。在产业大阔步发展的同时,对于拥有信创产业视野,以及相关技能人才的需求也显著提升,如何保障信创产业发展的人才培养和供给,成为教育行业领域关注的焦点。
全国信息安全职教集团理事长、北京信息职业技术学院校长卢小平表示,破解人才培养难题的根本的出路还是产教融合、校企合作。职业院校要和行业企业紧密结合,从专业发展、课程建设、教材开发、考试评价、定岗实习等各个方面入手,实现产业链、技术链、人才链的有效衔接,持续提升育才质量。本次“神州鲲泰杯“信创技术应用大赛就是以赛会友、以赛促教、以赛促学,持续提升职业院校服务信创产业发展的能力。
基于20余年的自主创新实践积累,近年来神州数码积极投入信创产品及解决方案创新,以领先的数字化转型合作伙伴身份,始终积极推动中国各行各业的数字化转型,从2019年投身信创产业发展以来,在产品研发创新、区域拓展、行业标杆落地、产业生态建设等诸多方面都取得了许多突破。与此同时,神州数码连续深耕职教行业二十余年,不仅坚持与全国职业院校展开产教融合的深度合作,也为上万所院校提供自有品牌网络设备及解决方案,从多个维度助力职教行业信息化的发展,已成为国内职教行业信息化领先品牌。神州数码已经与全国职业院校技能大赛携手走过14个年头,以实际岗位需求和应用出发,结合课程培养、场景实训等多种方式让中职、高职院校的学生能够掌握网络应用等方面的通识技能,并通过大赛的方式进行检验,让优秀人才脱颖而出,走出了一条“岗、课、赛、证”相结合的职业教育人才培养之路。2020年,“1+X”证书制度试点工作启动,神州数码入选“1+X”证书制度试点,成为第四批职业教育评价组织,以优质的产品和服务持续为职业教育的发展贡献力量。
神州数码深度参与信创产业和职教领域的建设和发展,是两个领域的“复合专家”。教育与产业相结合,院校与企业合作进行人才培养,早已成为业界共识。产教融合的核心是要让行业企业参与到办学职教的流程中,这是深化教育供给侧结构性改革的重大举措,是完善现代办学体制和教育治理体系的一项制度创新。
今后,神州数码也将更深入的参与到信创产业的职业教育中,不断提升职业院校学生信息技术创新产品应用和开发意识,提高学生专业能力素质与企业用人标准的吻合度,以适应新一轮科技革命和产业变革及新经济发展,为在新形势下全面提高信息技术类专业教学质量、扩大就业创业、推进经济转型升级、培育经济发展新动能做出新贡献 。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。