互联网时代,信息呈指数级增长,海量资讯令人们应接不暇,陷入认知过载的困境。如何去芜存菁、淘得真知,获取更加精准、高效和体系化的内容,成为用户个人认知提升的关键。为解决这一痛点,百度百科率先尝试,开辟全新路径——推出“知识探索”,满足用户对知识获取及智能学习的全新需求,助力知识科普。
深度分析用户内容需求场景,切实定位用户需求
作为万千用户和网络知识的桥梁,百度百科对当下用户知识获取的需求场景进行了深入的调研。结果显示,目前的用户需求主要涉及以下三个场景:
·问题无法精准解决:随着对新知获取的渴望日益增长,用户对搜索内容的期待也不断上升,精准呈现知识内容是各平台亟待解决的共性问题。用户不再满足于追求简单的“是什么”,更希望深入探索“为什么”,并便捷准确地获取“怎么办”的经验和方法。正所谓不仅要知其然,更要知其所以然。
·知识重点难以高效呈现:面对海量的知识信息堆叠,高效获取重点内容成为难点。仅通过信息搜寻,单一用户获取优质内容的效率低,且容易遗漏重点;
·体系化知识缺少呈现平台:大部分用户并不只停留在其搜寻的内容,而是希望拓展阅读相关垂类的更多信息。然而全网知识良莠不齐,有价值的知识不成体系,急需一站式平台进行碎片化信息的聚合。
发挥平台技术优势,结合需求革新内容
基于以上三点用户需求,百度百科首创“知识探索”,全面升级平台内容,引领求知新浪潮。
在词条内容上,“知识探索”依托百度百科平台,全面提高知识质量。不但充分整合全网碎片知识,作为专业、有用、有趣的信息点增补在词条内,而且大胆创新,改版后的产品样式更方便用户获取所需要的知识。例如:
·配备高清植物特征图,形象展现根茎叶花果各部位特点,识别不再迷糊;
·顶部设置喜光、耐旱等习性图标,快速获取养护技巧,秒变“种植达人”;
·知识点聚合模块,筛选植物正文中有趣、有用的信息点,避免在长篇文字中迷失,全方位助力汲取知识;
·相关知识点推荐部分,由单点知识查询转变为相关内容的推荐学习,在兴趣的海洋中寻找更多奥秘;

百科知识探索产品示例图
在技术方面,基于百度百科770万网友的内容贡献,2.3亿次内容版本迭代,知识探索”充分发挥百度移动生态优势,通过大数据分析,对应用户搜索需求,调用AI语言学习能力,理解并学习海量知识点信息,通过多维度策略挖掘,高效聚合多层级、多模态的结构知识,构建各词条之间的知识点关系网。根据用户搜索量的分析对应补充词条内缺少内容,实现更精准的应答。由此,用户在阅读词条的过程中,除了可以了解该植物外,还可以通过百度 AI 分析技术获取相关内容的推荐,激发用户产生好奇的新知内容,探寻新奇有趣的好玩知识点。
集合各垂类内容生产者,打造权威有趣的知识探索平台
让专业的内容更具科普性是知识传播的关键所在,也是创作者和内容平台关切的重点。基于此,百度百科“知识探索”引入不同类型的内容生产者,让用户所获取的知识兼具专业和有趣两大优点。更贴近用户阅读习惯和认知方式的知识具备更强的分享价值,也赋予了“知识探索”更充沛的活力。
目前,“知识探索”的内容生产者集权威专家、垂类领袖、兴趣爱好者为一体,分别根据优势定位为平台精准提供知识信息:权威专家作为专业知识的意见领袖,为百度百科“知识探索”提供权威的知识解读,在海量信息中引导用户明晰正解;垂类领袖作为知识分享者,充分发挥其知名度和号召力,促成用户形成知识沟通学习平台;兴趣爱好者通过贴近大众表达习惯的输出方式,将他们的常识变成用户的新知。“知识探索”的体系化引导不仅精准满足用户求知欲,也为用户提供了发现新知、深度交流的广阔平台。
持续助力知识普惠,帮助求知者高效成长、快乐学习
依托“知识探索”,在可期的未来,百度百科致力于将更多的专业信息转化为具有科普意义的趣味知识,把更具深度和厚度的内容输出给用户。从植物、动物、历史出发,进一步扩展到全垂类,推动实现知识普惠,促进广大用户即学即用、活学活用。
百度百科“知识探索”践行百度使命——“用科技让复杂的世界更简单”,以开放的内容生态、多元的展现形式、通俗的专业知识、强大的技术支持四大特色,为用户打开一扇获取知识的全新之门。百度百科致力于让每一位用户都享受搜索、让每一位内容生产者都乐享新知,用个体知识的微光汇聚成浩瀚的星河,通过“知识探索”认知更大的世界。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。