近日,全国网络安全标准化技术委员会正式发布《生成式人工智能服务安全基本要求》(以下简称“安全基本要求”),从语料安全、模型安全等多个维度规定了生成式人工智能服务在安全方面的基本要求,高校、研究机构、夸克代表的科技厂商等多方参与了文件起草。
据介绍,安全可信是生成式人工智能健康发展的必要条件,《安全基本要求》是《生成式人工智能服务管理暂行办法》在安全领域的具体支撑,也是近期生成式人工智能领域最重磅的一个文件,将推动行业进一步健康有序发展,应用加速落地。
全国网络安全标准化技术委员在去年10月发布《安全基本要求》征求意见稿后,得到了社会各界积极反馈。浙江大学、北京中关村实验室、阿里巴巴、科大讯飞等均参与了文件起草,其中夸克作为应用型大模型的代表公司之一,也贡献了自己的力量。
企业走在大模型应用最前线,也最应践行大模型安全保障。夸克于2023年11月发布亿级参数自研大模型,自推出伊始夸克便将安全性作为大模型产品的重要研发方向。据介绍,安全性是夸克大模型的四大能力之一,这体现在具备较好的世界观、价值观,对于明显的暗示信息,夸克大模型均能实现准确识别、正确回答或者给出合理指引。
夸克大模型在2023年12月通过备案后,不到100天时间内推出了四款大模型产品:元知、健康助手、AI讲题助手、AI PPT。夸克大模型产品备受消费者喜爱,一个重要原因是产品安全性提高了用户信任度。例如夸克健康助手发布后,用户对健康助手的回答满意度相当高,主要原因是夸克将医疗健康类问答内容幻觉率降低至5%,用户从体验上会发现夸克健康助手答案的正确性、逻辑性都比较高。
清华大学新闻与传播学院新媒体研究中心近日发布的《大语言模型综合性能评估报告》显示,夸克大模型在安全合规与公正性上展现出突出优势。报告指出夸克大模型在确保数据安全和遵守相关法规方面投入了相应的努力,并在设计和实现中对隐私保护和数据安全有较高的重视。
夸克大模型的安全能力,主要来自搜索场景中积累的丰富经验和能力。清华大学新闻学院教授、博士生导师沈阳指出,搜索引擎天然具有各种网络公开数据,在内容安全上经历了长时间的考验,用户也提供了大量的查询需求交互,因此搜索与大模型的结合是天然之配。
好文章,需要你的鼓励
思科推出8223路由系统和Silicon One P200芯片,用于满足企业日益增长的AI工作负载需求。该系统提供51.2 Tbps以太网固定路由器,P200芯片实现超过3艾比特每秒的互连带宽规模。新设备采用深缓冲设计,相比前代产品节能65%,支持跨数据中心AI集群分布式部署,解决物理空间和电力容量限制问题。
华中科技大学联合华为和上海交大研究团队开发出革命性3D人体重建系统Snap-Snap,仅需正面和背面两张照片即可在190毫秒内生成完整3D人像。该技术突破了传统方法对昂贵设备和复杂人体先验模型的依赖,通过智能几何推理和侧面增强算法实现高质量重建,为虚拟现实、游戏开发等领域的大众化应用奠定基础。
智能AI代理正成为软件开发的新宠,企业高管希望通过AI代理提升效率。尽管开发者对AI生成代码的质量存在担忧,但其潜在价值巨大。调查显示三分之二企业正在或计划使用多个AI代理进行软件测试,72%认为到2027年智能AI可实现自主测试。专业化的精简测试代理比大型模型更适合特定任务,需要建立负责任的信任框架来管理AI代理行为,但人工测试仍不可替代。
这项研究介绍了aiXiv——首个专为AI科学家设计的开放学术平台。该平台由多伦多大学等18个机构联合开发,支持AI独立完成论文提交、同行评审和发表全流程。通过多智能体架构和五阶段安全防护机制,平台实现了81%的评判准确率,并显著提升了AI生成研究的质量。这标志着科学研究范式的重大转变。