PHP 8.5正式发布,引入了期待已久的管道操作符和符合标准的URI解析器。管道操作符支持函数调用链式操作,让代码更具可读性,避免冗余变量和嵌套语句。新增的URI扩展基于RFC 3986和WHATWG URL标准,为开发者提供标准化的URI解析功能。此外还包括Clone With属性更新、NoDiscard属性警告等特性。
SkyReels是专为营销人员、设计师和社交媒体内容创作者打造的多模态生成式AI视频平台。该平台整合了Google Veo 3.1、Sora 2等顶级AI模型,支持文本转图像、图像转视频等多种工作流程。平台特色包括智能创意助手Expert Agent,通过结构化问答指导创作流程,以及150多个针对服装、消费品等领域的专业模板。SkyReels专注于TikTok、Instagram等社交平台的快速内容制作需求。
2025年5G独立组网网络持续增长,爱立信移动报告显示,已有超过90家通信服务提供商推出5G SA网络,比去年同期增加约30家。研究发现118个网络切片差异化连接服务案例,其中65个已进入商用阶段,21个于2025年推出。预计2025年底5G用户数将达29亿,占移动用户总数三分之一。移动网络数据流量同比增长20%,5G网络预计处理43%的移动数据。固定无线接入宽带服务持续增长,预计2031年全球14亿人可通过5G接入FWA宽带。
英伟达第三季度营收达570亿美元,其中数据中心业务贡献510亿美元,同比增长66%。CEO黄仁勋表示,AI推理需求因预训练、后训练和推理能力的进步而呈指数级增长。NVLink AI网络基础设施业务增长162%,营收82亿美元。公司专注于功耗比优化以降低数据中心运营成本。尽管中国市场受地缘政治影响,但英伟达致力于在全球AI计算领域保持领导地位。
亚马逊云服务AWS声称成为首家成功开发并部署自研密集波分复用DWDM转发器技术的云服务商,可同时应用于城域网和长途网络。新版DWDM转发器相比前代产品带宽提升73%,功耗降低35%,故障率减半。该技术支持400公里城域连接和数千公里长途连接,为客户提供更快数据传输速度和更佳应用性能,同时保持成本不变。
维基百科编辑团队发布了一份识别AI写作的公开指南,成为目前最有效的AI文本检测资源。该指南基于2023年启动的"AI清理项目",通过分析大量编辑内容总结出AI写作的特征模式:过度强调主题重要性、使用"关键时刻"等通用表述、详述次要媒体报道以凸显重要性、频繁使用模糊的重要性声明如"强调意义"等现在分词结构,以及倾向于使用"风景如画"等营销化语言。这些特征深植于AI模型训练方式中,难以完全消除。
在开源软件领域,Exchange仍然是企业邮件的主流选择。最新版本Thunderbird 145现已支持直接连接微软Exchange Web服务,实现原生邮件收发和搜索功能。虽然微软已宣布Exchange Online将在2026年停用EWS,但本地部署的Exchange Server不受影响。目前该功能仅支持邮件操作,日历和联系人功能将在后续版本推出。
企业AI发展到关键节点,但多数项目在产生价值前就陷入停滞。数据科学家需要使用7-15种工具来处理数据,仍需数月时间才能获得可用状态。IDC显示仅44%的AI试点项目进入生产阶段。Hammerspace AI数据平台在NVIDIA GTC 2025上发布,通过虚拟化现有存储创建统一全局命名空间,支持多协议访问,内置向量数据库,让企业无需昂贵基础设施改造即可将现有数据转化为AI就绪资源。
Systemd v259-rc1发布,这是Linux系统中最广泛使用的系统服务管理器的下一版本预览。最重要的更新是新增了对musl libc的不完整支持,使systemd能够在Alpine Linux等轻量级发行版上运行。然而该支持存在重大功能限制,包括nss-systemd、DynamicUser等功能无法使用。此外,新版本还改进了内存溢出处理器、增强了用户空间设备管理、支持可配置日志级别,并对systemd-boot引导程序进行了多项改进。
硅谷科技巨头IBM和思科宣布合作计划,致力于构建大规模容错量子网络,使数万个量子比特协同工作解决复杂问题。两公司希望在五年内通过连接两台独立量子计算机并实现量子比特纠缠来实现这一愿景,随后将网络扩展至数十台分布式机器。最终目标是在2030年代末建成量子互联网基础设施,支持超安全通信和地震监测、气候变化等领域的先进传感器网络应用。
目前鸿蒙座舱用户数已突破120万,2025年1- 10月问界车型搭载版本的平均净推荐值达 93.6%,成用户口碑之选。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。
香港科技大学团队提出"空间强制"方法,让机器人无需3D传感器就能获得空间感知能力。通过让机器人向3D基础模型学习,该方法在保持硬件简单的同时,显著提升了机器人的空间理解和操作精度,训练效率提高3.8倍,为机器人技术发展开辟了新路径。
伊利诺伊大学团队开发的ERA框架通过创新的两阶段训练方法,让30亿参数的小型AI模型在具身智能任务上超越了GPT-4o等大型模型。该框架结合具身先验学习和在线强化学习,在高级规划和低级控制任务上分别实现了8.4%和19.4%的性能提升,为小而精的AI发展路径提供了重要示范。
香港大学团队开发的SRUM框架首次实现了统一多模态AI系统的内部自我指导机制。通过让系统的理解模块充当"内部教师"指导生成模块改进,结合全局-局部双重奖励评价系统,在复杂图像生成任务上取得显著突破,为AI系统自主改进开辟了新路径。
清华大学团队提出BGPO算法,巧妙解决扩散大语言模型强化学习训练中的内存瓶颈问题。通过将复杂指数运算转化为线性运算,实现内存使用量恒定,支持更大规模重复计算。实验显示该方法在数学、编程、游戏等任务上显著提升性能,其中游戏规划准确率提升68%,为AI训练效率优化提供新思路。