Drew Simonis,瞻博网络首席信息安全官
一、 零信任时代在某种程度上已经到来
随着更多的企业采用零信任安全方法,他们将认识到自己仍然需要做许多以前难以实现的、相当困难的工作,尤其是在身份与访问管理(IAM)和行为分析领域。人们开始把零信任看作是业务转型,而不是安全项目,并因此推出新的技术交付模式。
二、 首席信息安全官责任成为聘用最高安全领导层的另一个问题
越来越多的首席信息安全官希望公司在从违规披露到安全软件认证,再到名誉损失的各种情况下提供保障。行政风险保险政策更频繁地包含在招聘中。
三、 网络质保
我们知道保费、自留额和除外事项都在增多。客户可能会开始要求,或者精明的厂商可能会开始提供相关产品的“网络质保”,而不是完全放弃网络保险。例如,当恶意软件突破网络或电子邮件过滤器时协助恢复。
四、 应用程序安全备受关注
软件物料清单(SBOM)只是一个开始,它将揭开许多不良软件组合的面纱。最近,要求遵守NIST SP 800-218和进行特定认证的规定公布后,将使企业重新考虑他们在构建软件时所做的选择。作为服务而不是单体代码库的API优先开发范式和应用程序会赢得支持吗?
五、 安全成为所有人都关心的问题
安全要求的“马车”在疾驰,所有人都想上车。美国开始实施网络安全成熟度模型认证(CMMC)和关键基础设施网络事件报告法(CIRCIA),而且即将实施美国证券交易委员会(SEC)披露规则;欧洲开始实施网络和信息安全指令(NIS2);英国也在扩大网络和信息系统条例(NIS)的实施,这些都表明网络安全举足轻重。由于人才短缺,企业以创造性的方式把新人带入本行业,2023年可能会出现一些新的专业证书要求,就像工程行业那样。
Mike Spanbauer
新冠疫情继续助长危机。充满威胁的“捕食者”在不确定性的世界中大快朵颐。最近几年表明,这些未知为攻击者提供了更多机会,近年来获得成功的攻击方法仍然是主要的威胁。网络钓鱼和其他社会工程机制仍然有效,尽管快速信誉验证已有进步,但最初的几个目标比在活动时间线上稍远的目标更容易受到攻击。这表明依旧有必要对有效的用户意识培训投资,继续改进流程、身份和策略执行,尤其是威胁情报社区的改进。我们在这一方面已经取得了很大的进展,但仍然有进步的空间。尽管风险巨大,仍值得额外投资。
安全访问服务边缘(SASE)的采用将继续加快;但客户现在会更仔细地评估适合他们的解决方案和路径 — 计算不同策略格式和本地原有防火墙管理团队承担额外工作的运行成本,再加上基于新服务的云产品(现有数据中心投资和专用应用程序不会很快被放弃!)。毕竟,格式上的不一致会在策略和安全效力方面产生割裂,而这正是攻击者所需要的。他们只需要一个立足点,一旦绕过最初的策略屏障,那么整个防线都会被击溃。
零信任及其实施方法仍将是所有企业的重要工作。但由于各厂商使用的语言不一致,区分真伪并不容易。从根本上说,企业需要一个方案来确保它们可以在任何地方看到、管理、控制并处理连接。具体而言,零信任概念适用于任何物理或逻辑连接,以及该连接的应用行为或使用策略。每一个连接都应被控制,应根据验证和恰当的应用被许可或拒绝。我指的不仅是连接至WiFi,而是每一个传输控制协议(TCP)或用户数据报协议(UDP)连接,每一个http/s请求或经过可能会损害企业的某个环境的任何事物(是的,这相当于一切,基本无处不在)。为了让客户更轻松有效地选择针对环境中各种需求的解决方案,业界需要技术供应商和详述如何基于框架(例如美国国家标准与技术研究所的框架)进行交付的客户成功案例以达成更坦率和直接的指引。说明是如何实现的,而不是“可能是什么”。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。