合作伙伴生态系统支持全新、可扩展的可观察使用场景,以提供一致性、安全的数字体验
新闻摘要
· 思科新的全栈可观察平台(FSO Platform)支持多厂商,聚合来自多域、可扩展的数据。
· 包括 CloudFabrix、Evolutio和Kanari在内的合作伙伴生态系统赋能重要的使用场景,通过可观察的遥测快速交付客户。
· 新平台的强大功能提供无与伦比的洞察力,优化客户体验并最大限度地降低客户的业务风险。
2023 年 6 月 13日 — 在美国拉斯维加斯举办的Cisco Live 2023大会上,思科宣布推出全新的全栈可观察平台,这是一个支持多厂商的解决方案,汇聚企业整个产品组合的能力,它提供符合情境的、有相关性的,和预测性的洞察,使客户能够更快地解决问题并优化体验,同时最大限度地降低业务风险。
这一行业领先的产品支持新的可观察生态系统,聚合来自多域的数据,包括应用程序、网络、基础架构、安全、云、可持续发展和企业资源。
思科全球执行副总裁、首席战略官兼应用事业部总经理 Liz Centoni 表示:“数字优先的业务环境中,全栈可观察至关重要。思科全栈可观察将多云环境和全栈中的网络智能、安全洞察和应用可观察结合在一起,为企业在深入业务场景时提供卓越的数字体验。”
思科的 FSO 平台专注于开放遥测,并以指标、事件、日志和追踪(MELT)为基础,使企业能够无缝收集和分析任何来源生成的 MELT 数据。思科 FSO 平台还设计为一个具备一致性的可扩展平台,允许开发人员构建自己的可观察解决方案,赋能客户和合作伙伴生态系统。
思科FSO平台应用:云原生应用可观察
云原生应用可观察是在思科 FSO 平台上提供的首要解决方案。它可以帮助客户实现业务成果,做出正确的与数字体验相关的决策,确保性能与最终用户期望保持一致,确定优先级并降低风险,同时保护工作负载。
除了云原生应用可观察之外,思科 FSO 平台上的第一组模块还包括:
· 成本洞察:提供应用层面的成本及性能指标可见性和洞察,帮助企业了解其云应用的财务支出,同时支持可持续发展。
· 应用资源优化:提供对 Kubernetes 工作负载资源利用率的可见性,企业可以最大限度地提高资源利用率并减少过多的云支出,帮助他们实现财务目标和可持续发展目标。
· 安全洞察:生成基于应用的业务风险评分,以帮助 DevOps 和 SecOps 团队确定优先级并消除云原生应用或服务上极有可能被利用的漏洞。
· 思科智能运维管理平台:在一个位置可见性与基础设施、网络、事件和业务应用性能相关的情境化数据。简化和优化 IT 的运营需求。
思科已经与包括CloudFabrix、Evolutio和Kanari在内的合作伙伴合作,为思科FSO平台开发多样化的解决方案,思科同样受益于此。这些解决方案支持极具价值的用户案例,并通过可观察的遥测快速交付客户。
思科FSO平台宣布合作伙伴正在构建新的解决方案,并将平台的应用范围扩展到新客户和业务场景:
· 来自 CloudFabrix 的 vSphere可观察性和数据现代化:该解决方案通过思科 FSO 平台观察 vSphere 数据,并将其与 Kubernetes 和基础架构数据相关联,以跨基础架构和容器化应用栈生成见解和建议操作。
· Evolutio Fintech:该金融科技可观察解决方案旨在通过基于提取的数据(如付款和信用卡授权)管理KPI来帮助客户获得业务洞察。
· Kanari容量规划和预测器:它提供了与容量规划和预测事件相关的时间序列数据的可见性,这些事件具有通过预测ML算法(ARIMA,SARIMA,LSTM)确定的风险因素。容量规划和预测器还允许企业采取可持续、有弹性的方法来规划和追踪资源。
思科FSO平台标志着思科加速FSO战略的关键进展。合作伙伴可以通过可扩展性为自身和客户交付更多价值。 AI驱动的根本原因分析、体验优化和事件管理与业务场景相关联,因此团队可以在事件影响最终用户及其业务之前识别、确定优先级、预测并解决问题。
关于思科
思科(NASDAQ:CSCO)是全球科技领导厂商,致力于安全地连接一切,使一切成为可能。我们的目标是通过重新定义应用、赋能混合办公、保护企业安全、基础架构转型,帮助客户实现可持续发展目标,为所有人打造一个包容性的未来。您可以在cisco.com.cn获取更多信息,并关注我们的微信公众号“思科联天下”。
思科和思科徽标是思科或其附属机构在美国和其他国家地区的商标或注册商标。您可以查看Cisco商标列表www.cisco.com/go/trademarks,其中提及的第三方商标是其各自所有者的财产。使用“伙伴”一词并不能直接表示思科与任何其他公司之间存在合作关系。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。