2023 年 1 月 17 日,OpenText 旗下核心分析数据库、湖仓一体的统一分析平台 Vertica 宣布,其连续三年被 GigaOm 雷达报告评为“全球数据仓库领导者”。
新年,数据库行业需要新的专业之声
一体化数据湖仓的出现点燃了传统数据库行业的激情,正在阅读本文的你,就很有可能正计划着一次大的现代化改造,甚至是——“重新平台化”,以自身变革主动满足千变万化的分析用例。
但选择最合适的数据仓库——或者更准确地说——选择最合适的数据分析平台是一个挑战。这是一个数十亿美元的投资市场,过度的炒作舆论等甚嚣尘上。我们需要专业的声音。
现在有一份全新的数据库行业报告摆在你面前,完整清晰呈现当前的数据仓库景观——《GigaOm 数据仓库雷达报告》。用 GigaOm 自己的话说,它是为了提供“IT 决策者所需信息,以选择最适合他们的业务和用例要求”而生的。
Vertica,当之无愧的数据仓库领导者

图源:GigaOm 数据仓库雷达报告
其中 Vertica 表现不凡。它作为 Micro Focus 软件组合的核心分析数据库,在包括市场分类的大型企业类别、以及用户分类的数据分析师和数据工程师等类别中均获得卓越评级。
在关键性标准方面,Vertica 在多集群架构、高级数据治理和安全、数据摄取和数据复制等方面获得了突出评级。最重要的是,Vertica 在整六项评估指标中共获五项卓越评级,最终处于 GigaOm 雷达图(见上方)最接近中心的位置,成为名副其实的全球数据仓库领导者及快速前进者。
GigaOm 报告称:“Vertica 提供了广泛的数据库内高级分析、机器学习功能以及灵活的部署模式;此外,所有的功能都基于同一许可证提供,没有基础设施或云存储的专有标记,也无需额外许可证以访问其它分析工具。”
报告对 Vertica 的核心见解还包括:
Vertica 分析数据库拥有独立于基础设施、可扩展且高灵活的数据仓库和分析能力,在多类别中均获得卓越评级,同时其对前瞻性产品及功能的创新投入也赢得了广泛赞誉
Vertica 在市场分类的大型企业类别、以及用户分类的数据分析师和数据工程师等类别中获得卓越评级——这是最高评级
Vertica 被 GigaOm 评价为“着眼于未来”,近期发布的 Vertica Accelerator 是其数据库即服务(DBaaS)产品,它即将推出更多增强能力以飨客户
对此,Vertica 相关负责人表达了其态度:“我们很高兴连续三年被 GigaOm 评为 数据仓库市场领导者,该认可证实了 Vertica 团队所有成员的集体承诺,我们的员工每天都在努力为世界提供一流的数据库和数据分析解决方案。”Micro Focus Vertica 产品部门营销副总裁 Jeff Healey 说。“数据仓库必须主动适应不断变化的业务需求、融合不断涌现的技术创新和不断发展的真实用例。而 Vertica 所做的一切,就是通过不断增长的数据库内功能满足客户从现在到未来的所有需求,并确保他们可以在任何地方、以任何规模享受高性能数据分析带来的好处。”
关于 Vertica
湖仓一体的统一分析平台 Vertica,是 OpenText 旗下核心的大数据分析平台。它具有大规模可扩展的架构,具有广泛的分析功能集,涵盖事件和时间序列、模式匹配、地理空间和端到端的数据库内机器学习等。并能将其轻松应用于苛刻的大数据分析挑战。
从飞利浦到中国电信,从萃奕到美国万通,Vertica 服务于众多全球领先的数据驱动型企业,提供市场上无与伦比的速度,以及指导业务策略的预测性洞察力。最新 Vertica 12 版本提供基于 AWS 的 SaaS 服务,并通过 BYOL(自带许可证)模式跨企业内部数据中心、主要公共云、多云及容器化环境等,帮助您快速处理海量数据。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。