4月7日,中国移动第七届创客马拉松大赛总决赛在厦门圆满落幕。国务院国有资产监督管理委员会科技创新局成果应用处处长陈建刚出席活动并致辞,银杏谷资本投资合伙人徐明/汤家骅、和创数字私募股权基金董事总经理谢涛、中电工业互联网有限公司副总经理夏刚、轻舟资本创始合伙人周彬、图灵资本董事总经理陈垲、Graphcore总裁 大中华区总经理卢涛等外部嘉宾,以及中国移动集团技术部副总经理刘佳、福建公司副总经理周胜、供应链管理中心副总经理吴江、信息技术中心副总经理陈国、集团首席专家 云能力中心技术部总经理钱岭等内部专家出席并担任评审,27支决赛团队同台竞技,共襄双创盛典,共同见证数字科技的完美蜕变。

本届大赛以“能力无界 智算同行”为主题,开展了“通信能力开放、物联网、移动云、智慧家庭、文化创意、互联网、时空信息、智慧城市、5G VoNR+ 技术创新、智能网络、算力网络、大数据”等12项专题赛事活动。

赛事共征集创新项目近4000个,报名参赛人数超2万人,累计开展线上线下创新活动近百场,活动覆盖人数超33万人。
经过层层筛选,27个“高精尖”硬核科技项目脱颖而出,在鹭岛强势集结、进行现场路演pk。两轮比拼过后,“相干量子计算设备”项目和“网联智控管道空间蓄热系统”项目脱颖而出,成功摘取总决赛全球通企业赛道和动感地带高校赛道桂冠。
—— 全球通企业赛道 ——
一等奖:
【相干量子计算设备】移动云专题赛
二等奖:
【自立自强 中国芯】通信能力开放专题赛
【高性能红外及太赫兹探测芯片国产化及商业应用】智慧家庭专题赛
三等奖:
【给城市装上耳朵】智慧家庭专题赛【弘润清源:新型功能材料应用于空气制水解决方案】智慧家庭专题赛【5G VONR+非地面网络应急通信系统方案】5G VoNR+技术创新专题赛
—— 动感地带高校赛道 ——
一等奖:
【网联智控管道空间蓄热系统】移动云专题赛
二等奖:
【精准时空赋能智慧城市路网数字化管养】时空信息专题赛
三等奖:
【流行病下智能配送方案及决策管理系统】大数据专题赛

本届赛事亮点频出,“中国移动创客马拉松”赛事品牌影响力进一步增强。
一是硬核项目集结,吸引了来自中央企业、高校院所、创新团体的3744个参赛项目,其中,1个国家级技术创新示范企业、2个国家级专精特新、11个国高新;14个国际奖项、15个国家级奖项;7404项发明专利、2399项软件著作权、2150项实用新型专利;目前已融资总额超百亿。
二是科创基金赋能,邀请20多家知名创投机构参与到此次创马赛事,推动近10个项目成功接洽,其中,1个项目在专题赛期间即获投资;决赛期间鹏城-中移科创基金强势助力,赛后即启动6家企业获奖团队的跟进与对接工作。
三是赛事机制创新,引入导师制,赛前开展导师分享及深度指导,全方位提升决赛团队水平;正赛阶段27支团队编为4组,导师为本组团队加油打call;云端直播互动,线上线下共享科创盛宴。
自2016年起,中国移动创客马拉松大赛已成功举办六届,累计征集创新项目、解决方案超13000个,吸引近4万创新人才参与。赛事发挥以赛促合、以赛促用、以赛促转效应,推动186个项目成果以联合申报国家项目、合作研发创新产品、共享市场渠道资源、入驻孵化载体等形式落地转化;赋能国家级专精特新企业项目20余个,推动万亿级资源权益接洽;深化“校企行”结对34家高校,每年带动千余名高校学生创业就业。
展望未来,中国移动将再接再厉,持续办好“创客马拉松大赛”、推动产学研协同创新、促进成果落地转化,以“赛事”促融通、以“创新”连未来,携手各方为促进经济社会高质量发展贡献更多力量!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。