7月8日,华为开发者大会2023(Cloud)期间,华为云主办了“基于盘古大模型,共建企业AI生态,开辟数字化新范式”为主题的圆桌讨论会,华为云EI服务产品部部长尤鹏出席了会议,与来自不同行业约八十位伙伴深入讨论了“大模型在各行业发展趋势”、“大模型如何与各行各业深度结合”、“如何构建以大模型为中心的生态圈”等话题。
仰望星空不作诗,脚踏实地去做事
华为云EI服务产品部部长尤鹏表示,盘古大模型深入千行百业,离不开各行业伙伴和客户的输入和反馈。行业know-how、应用场景、以及业务流程都是大模型会面临的挑战,需要大模型携手行业业务以及技术专家、数据伙伴、服务伙伴、软件伙伴等一起探索。大模型的模式、技术和路径也在快速迭代,在这个过程中更是需要大家不断了解和持续碰撞。遇见未来最好的方式就是创造未来,希望和大家一起联手创造大模型时代的未来。

大模型深入行业,仅仅聚焦技术是远远不够的
关于大模型到底应该怎样赋能行业,深入行业带来商业价值,华为云盘古大模型产品总监认为首先要整理好行业数据,并对此进行分层训练,在不同层次放入不同行业、伙伴的数据;同时要总结行业know-how,依据行业流程习惯去设计业务需求,从业务本质出发去落地系统性的解决方案;针对不同行业的不同场景,开发更为细分的工作流,把大模型嵌入到每个行业每个场景下。
顺应时代,携手大模型打造文化新基建
文化是一个国家、一个民族的灵魂。如何基于文化大数据构建文化大模型,打造文化新基建?对此,中宣部文改办原副主任、一级巡视员高书生认为,要将中华民族积淀了五千多年的文化资源,转化为具有文化内涵的数据,成为生产要素、文化创新创造的素材和源泉。打造文化数字化底座,要打破数据孤岛,形成数据互联互通的标准。
AIGC重塑影像未来,推动人工智能迎来智能创作时代
视觉中国集团总裁柴继军表示,每一张照片的背后,均有着丰富的数据结构,而当前将文生图的模型变成工具还是一个巨大的挑战,并且如何在工作场景里满足客户的细分需求,也需要进行持续的探索。视觉中国未来将与华为云共同打造可信负责、版权合规、商用无忧的企业服务大模型。
大模型支撑高速交通场景价值,构建高速交通AI场景化应用新形态
拓维信息集团副总裁柏丙军则分享了大模型的成功实践经验:盘古大模型对比小模型,mAP50平均提升6.21%,提升开发效率约24倍。拓维充分感受到了使用大模型带来的效率提升,由天到小时级的转变,不但降低了人力要求,也带来了精度的提升,更好地帮助客户提高了高速交通整体智能化水平。
携手华为云盘古大模型,开启保险数智化新时代
随着大模型技术的兴起,强大的AI能力为优化保险服务流程、促进保险行业降本增效创造了新的可能。软通动力保险副总裁杨旭晖分享了软通天璇2.0MaaS平台接入华为云盘古大模型的解决方案,充分利用了保险行业大模型的行业语义理解能力以及数据综合分析能力,并根据保险企业完整的生态业务数据,为客户提供更为全面、精准、个性化的保险服务。
大模型改变投融资决策形态,更多机会聚焦细分领域
深创投的投资专家崔鹏翔表示,虽然通用的人工智能曙光初现,但人工智能的核心在于落地,落地的核心是细分场景理解(数据及机理)+ 模型优化能力。华映资本合伙人邱谆认为,新的AI大模型的范式,大概率会改变未来所有行业的决策形态,乃至影响整个社会的组织和分工形态。
来自法律、教育、工业制造、出版传媒等行业的嘉宾也分享了各自行业的痛点,讨论了如何与大模型深度结合、构建以大模型为中心的生态圈。
正如华为云盘古大模型生态总监所述,没有哪个问题有明确的答案,也正因为如此,才更需要大模型更加深入到每个行业,完成AI重塑千行百业的使命。
诗和远方,盘古大模型选择扎根行业,携手伙伴一起去创造看得见的未来。

好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。