网络犯罪分子、内部威胁和环境灾害持续威胁数据中心安全。单一漏洞可能引发灾难性宕机、数据泄露和监管处罚。本文提供全面的数据中心安全检查清单,涵盖物理安全、网络安全、监控报告、人员安全和灾难准备五大类别,为每个安全控制措施提供明确的实施指导,帮助企业强化数据中心防护并消除安全隐患。
微软应用商店网页版新增多应用批量安装功能,用户可从48款应用中最多选择16款同时安装。应用分为生产力、创意、社交、娱乐、工具和个性化六大类别,包含Teams、Zoom、ChatGPT、Netflix、Instagram等知名应用。用户选择后可下载单一安装包批量部署,但该功能仅限网页版使用。
AI搜索提供商Perplexity开发了新的软件优化技术,让万亿参数大模型能在老旧、便宜的硬件上高效运行,包括使用亚马逊专有的弹性网络适配器。这项创新解决了大规模专家混合模型面临的内存和网络延迟挑战。研究显示,相比单节点配置,优化后的核心程序在多节点部署中实现了显著性能提升,使企业能更长时间利用现有硬件,或使用折扣云实例运行下一代前沿模型。
多数企业已从AI试点阶段转向可重复、可衡量的业务实践。Walgreens通过建立AI卓越中心实现有序创新,FMOL Health将ROI扩展到医生和患者满意度等非财务指标,Steelcase通过数据治理委员会建立AI信任框架,ZoomInfo让员工自主构建AI智能体实现人机协作。这些经验表明,成功的AI战略需要在创新与治理、自动化与人工判断之间找到平衡。
Sandbar公司推出Stream Ring智能戒指,专为随时记录灵感而设计。用户只需轻触戒指并轻声说话,即可将想法转录为笔记。该产品采用个性化数字语音技术,创造如自言自语般的体验。不同于传统AI助手,Stream Ring专注于认知扩展而非替代思考。产品配备全天候电池,支持私密范围内的语音识别。银色版售价249美元,金色版299美元,计划2026年夏季发货。
Alphabet旗下X实验室负责人泰勒透露,该公司正改变雄心勃勃技术项目的市场化策略,越来越多地将其拆分为独立公司而非保留在Alphabet体系内。这一策略依赖专门的风险基金Series X Capital,该基金已筹集超5亿美元,专门投资X实验室分拆项目。X实验室定义的月球计划需具备三要素:解决世界重大问题、提出相应产品或服务方案、利用突破性技术创造解决希望。
许多企业在急于采用AI时跳过了最重要的步骤:明确要解决的问题。Experian首席数据技术官强调,企业AI的真正工作不在于模型本身,而在于基础架构。从确保模型漂移检测、合规自动化到管理提示注入风险和用户治理,负责任AI的未来取决于幕后工作。成功始于扎实的工作流程、明确的目标和快速试错的文化。
汽车行业正面临一场变革:软件定义车辆(Software Defined Vehicle,SDV)标志着车辆开发、使用和认知方面的根本性转变。
北京大学团队联合多所高校研究发现,多模态AI在处理图文矛盾信息时遵循一个普遍规律:选择某模态的概率随其相对不确定性增加而单调递减。研究通过构建可控数据集,量化了模型的"固有偏好"和"相对推理不确定性"两大决策因素,并揭示了模型内部的"振荡"机制,为理解和改进AI决策提供了全新视角。
思科正在向全球合作伙伴传递一个明确信号:未来五年,合作伙伴的主要增长都将来自AI相关场景,唯有“AI就绪”的基础设施,才能支撑面向未来的工作方式,让企业在智能时代保持韧性与活力。
Feedzai团队首次系统评估了AI模型理解散点图的能力,创建了包含18,000张图表的大规模数据集。测试十个先进AI模型发现,在简单计数任务中部分模型准确率超90%,但精确定位任务表现不佳,准确率多在50%以下。研究还发现图表设计对AI性能有轻微影响,为AI辅助数据分析提供了重要参考。
KAIST研究团队开发出MG-Select系统,首次让视觉语言机器人具备"货比三家"的决策能力。该系统通过生成多个行动候选方案并利用内部评估机制选择最优解,无需额外外部验证系统。在真实世界测试中,机器人精确操作成功率提升28%-35%,某些任务改进达168%,为机器人在医疗、制造等高精度应用领域的发展奠定重要基础。
加州大学圣芭芭拉分校研究团队开发了EvoPresent系统,这是首个具备自我改进能力的AI演示文稿制作框架。该系统通过四个AI代理协作和PresAesth美学评估模型,能够自动将学术论文转换为高质量演示文稿,并通过迭代优化持续改进设计效果,在多项评估指标上显著优于现有方法。
Collinear公司研究团队发现了AI学习编程推理的"谷地"现象:小型AI模型在接受大型模型指导时,性能先下降50%再上升,最终超越初始水平100%。研究还发现,训练数据中答案的正确性对学习效果无影响,但简单题比复杂题的训练效果显著更好。这项发表于NeurIPS 2025的研究为AI训练策略提供了新见解。
新加坡国立大学研究团队开发了MixReasoning技术,让AI能够像人类一样智能地选择推理深度。该技术通过监测AI的不确定性程度,自动在详细推理和简洁回答之间切换,解决了当前AI模型冗长推理的效率问题。在数学推理测试中,MixReasoning在保持甚至提升准确率的同时,将推理长度减少了20-50%,为AI推理优化提供了新思路。
香港大学团队开发的BIRD-INTERACT平台首次真实模拟了人机数据库对话的复杂性,通过900个交互任务和智能用户模拟器,揭示了即使GPT-5等先进AI在复杂对话场景中仍表现不佳的现实,为提升AI系统的交互沟通能力指明了方向。
西湖大学研究团队开发的Human3R系统实现了人体和场景的实时一体化重建突破。该技术仅需普通摄像头即可同时完成多人姿态分析、三维场景重建和相机追踪,处理速度达15帧每秒。系统采用参数高效的训练策略,仅用一天时间在单GPU上完成训练,显著降低了高精度人体分析技术的使用门槛,为影视制作、体育分析、医疗康复等多个领域提供了实用的解决方案。
阿伯丁大学研究团队开发了"分布式语义追踪"技术,深入AI内部发现其"幻觉"源于快速联想系统与慢速推理系统的冲突。研究识别出AI推理的"不归点"和"推理捷径劫持"现象,揭示了预防AI错误的新方法,为构建更可靠的AI系统提供了重要理论基础和实践工具。
Reactive AI公司研究员Adam Filipek开发了TensorBLEU,一种GPU加速的BLEU评估工具,专门用于语言模型训练中的快速评估。该技术通过创新的并行计算和内存管理方法,在消费级GPU上实现13倍速度提升,在数据中心级GPU上达到40倍提升,有效解决了强化学习训练中的评估瓶颈问题,为自然语言处理研究提供了重要的基础工具。
卢森堡大学研究团队开发了HalluGuard,一个仅需40亿参数的AI"真话检测器",专门识别大语言模型生成内容中的虚假信息。该系统在权威测试中达到75.7%准确率,与GPT-4o相当,在RAG应用测试中更是达到84.0%,超越了许多更大的模型。HalluGuard不仅能判断真假,还能提供详细解释,适合企业本地部署,将开源发布。