12月21日,作为2022中国联通合作伙伴大会的主要论坛之一,5G应用“扬帆”创新高峰论坛暨5G应用创新联盟会员生态大会以线上方式召开,全方位展示中国联通在5G应用领域的最新成果及产业规划。中国联通副总经理梁宝俊、中国工程院院士张平、中国信息通信研究院总工程师敖立、中国联通政企客户事业群高级常务副总裁冯华骏、联通数科总裁李广聚,以及包括紫光展锐、宏电等在内的行业龙头合作伙伴代表出席了本次论坛。
会上,中国联通重磅发布包括“5G行业专网产品体系3.0”“10大5G行业平台”“50款5G创新应用产品”“100款雁飞系列5G行业终端”“5G生态开放平台2.0”“5G RedCap白皮书”等在内的多项创新成果。

中国联通政企客户事业群副总裁梁鹏在《5G领航 扬帆未来——联通5G数字信息基座,扬帆产业数智化转型》的主旨演讲中指出,中国联通持续推进专网能力纵深、应用场景纵深、行业终端纵深和产品生态纵深。 其中,行业终端纵深方面,中国联通成立OPENLAB开放实验室,提升5G芯模终端定制化能力。

5G行业终端是5G应用规模化发展的关键一环,为了突破5G应用的若干发展瓶颈,中国联通在今年5月17日正式成立了5G物联网OPENLAB 开放实验室(以下简称5G OPENLAB)。5G OPENLAB是中国联通主动服务国家战略和经济社会发展需要,旨在夯实5G发展技术之基,融合产业各方力量,打造的联合创新技术服务平台,近半年以来,在产业聚合与成果创新方面成效显著。
随着5G行业终端定制化趋势日益显著,面向“5G功能网络高效引擎”、“5G行业终端可控成本”、“5G行业应用合适载体”、“5G解决方案简单部署”等4大关键要素,中国联通充分发挥5G OPENLAB载体价值,基于“网络软件化、软件硬件化、硬件智能化”3大创新,全面升级“端网融合、场景测试、轻量定制、软件定义”等4大能力,提供R17 Ready的5G端到端网络环境、7类可靠性测试规范、自研5G实时操作系统开放接口、10余个重点行业的终端定制模板等服务,实现端网业协同创新。

同时,中国联通坚持国产化引领、自研与生态孵化双轮驱动的策略,推出100余款5G行业终端。基于自研模组嵌入自研终端的设计理念,重磅推出嵌入联通自研5G OS的雁飞5G智能模组,雁飞5G机器人网关、雁飞5G LAN网关等6款面向5G全连接工厂与智慧园区应用的自研产品,持续推进从“智能模组”到“端边云”协同,不断打造差异化优势。面向生态协同,中国联通联合生态伙伴基于5G OPENLAB开展行业定制终端的孵化、认证,形成了包括5G矿用终端,5G电力终端等一批明星产品,快速丰富5G行业终端品类。
为了进一步发挥5G OPENLAB联合创新技术服务平台的作用,在本次大会上,中国联通还正式发布了《中国联通5G OPENLAB认证指南》(以下简称“指南”)。指南旨在建立标准化的认证体系,聚合产学研各方力量,开展生态认证与联合创新,以实现5G 端网协同、 5G 渠道协同和5G 生态协同,能够为产业合作伙伴带来如下价值:
1)技术支持:提供国内领先的5G网络环境、标准化测试用例、准自动化测试流程;
2)互联互通:推动传统的单品测试认证向多厂家同类产品互联互通测试的转型升级;
3)生态共享:通过与合作伙伴认证体系深度融合,实现一次认证双向互通,提高认证效率、降低认证成本。
4)渠道畅通:依托中国联通5G应用联盟及中国联通物联网产业联盟,衔接供给侧与需求侧,快速实现标杆突破及规模化应用。
5G创新引领,扬帆美好未来。中国联通诚挚的欢迎产业链各方携手共进、和合共生,加入5G OPENLAB,共同开展技术创新与产品孵化,推动5G融入千行百业在新起点“扬帆”远航!
扫描下方二维码,赶紧加入我们吧!

好文章,需要你的鼓励
两家公司在OverdriveAI峰会上分享了AI应用经验。Verizon拥有超过1000个AI模型,用于预测客户呼叫原因和提供个性化服务,将AI推向边缘计算。Collectors则利用AI识别收藏品真伪,将每张卡片的鉴定时间从7分钟缩短至7秒,估值从8.5亿美元增长至43亿美元。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
Hammerspace发布v5.2数据平台软件,通过更快的元数据读取、更好的数据放置和扩展性优化提升AI数据访问性能。新版本IO500总分提升33.7%,总带宽翻倍,IOR-Hard-Read测试提升超800%。增加了Tier 0亲和性功能,支持GPU服务器本地存储访问,减少集群内网络流量。新增Oracle云支持、Kerberos认证和标签化NFS,提供更细粒度的访问控制。该软件将于12月正式发布。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。