在实施AI的过程中,信任的问题从未远离,尤其是在像生成式AI这样的新兴领域中。在2023年的Transform大会上,Teradata的首席产品官Hillary Ashton深入讨论了企业必须如何应对数据治理、隐私保护和保持透明度的复杂性,以确保他们的AI驱动的运营得到信任。
Ashton说:“生成式AI已经把高级分析的整个领域带入到了董事会的讨论中,而在此之前,它更多的是后台的讨论,有很多未被挖掘的潜力。这是一个令人兴奋的领域,但也是人们需要从信任的角度仔细思考的问题。生成式AI真正提出了什么是受保护的数据,什么是个人身份信息(PII)数据。你希望如何处理这些数据,尤其是在大型语言模型和生成型AI中?”
信任在应用生成式人工智能的作用
Ashton表示,企业必须为其客户提供本质上的信任,这开始于基础的数据质量和个人身份信息(PII)数据的清晰分离。
她补充说:“这听起来像是基本的条件,但对于许多企业来说,实际将其付诸实践是非常困难的。他们需要技术、人员和流程才能做到这一点。”
企业必须建立健全的数据治理框架,把数据当作产品对待,并确保将干净、非PII的数据提供给用户。坚守法规合规是至关重要的,组织需要对他们如何使用生成型AI及其对数据隐私的影响保持透明。在与第三方供应商合作或使用大型语言模型(LLMs)时,保护知识产权(IP)和保护专有信息也是至关重要的。
她说:“这就是为什么我要回到明确理解你想如何使用高级分析 - 你需要了解的不仅是你的PII,还有你的IP。你是如何保护它的?你可能会考虑,如果你的高级数据科学家在编写提示,那就是你作为一个组织的IP。这不是你想免费送给竞争对手的IP。当我们考虑像PII数据这样的事情时,这可能并没有明确说明。现在,提示成为了你的IP。现在你有一个全新的关于提示保护和IP的法律实践。”
这甚至包括你选择如何构建你的数据,这是高度专有的。如果你是A银行,和B银行竞争,你并不想因为供应商使用了基于你的数据结构的LLM,无论它如何清洁,而让你的竞争对手获得优势。
从那里,她说,关键在于“确保你理解你所在的任何市场,合规性看起来是什么样的,你是以那个终态为目标建立的,然后向你的客户透明说明你是如何使用生成型AI的,你是如何不使用生成型AI的,所以[它]可以被信任。”
信任也不仅限于隐私;它还扩展到模型结果的可靠性和准确性。定期评估模型并采取积极措施改正表现不佳是维护用户信任的必要条件。
那么从哪里开始呢?
开始的意味着从你想要实现的结果反推,Ashton说,这主要分为两个方面。第一,你已经具有高级功能的领域,你想通过高级分析保持领先优势。第二,解决你可能没有但竞争对手已经具备的基本挑战。
从那里开始,需要考虑的是数据治理和尊重IP和PII数据的主权。第二部分是能够在大规模上做到这一点,最后一部分是模型运营,或者管理模型进入生产,并理解何时模型开始表现不佳或返回不可接受的结果。
最后,关键是不要在新奇中迷失,而是评估投资回报率和价格性能。
Ashton说:“我们都对大型语言模型和生成型AI感到非常兴奋。但是,随着时间的推移,对于一些并非高价值的用例,运行一些操作的成本可能会变得过高。确保你不是因为它酷而用一个大型语言模型来解决一个可以用BI枢轴图表解决的问题 —— 这看起来像是一个疯狂的例子,但它并不那么疯狂。”
好文章,需要你的鼓励
AI能让够更早,更准确的发现并预测癌变的发生,这也是目前AI医疗的的一个主流发展方向,更早的发现,更准确的预测。最近一项来自美国国立卫生研究院(NIH)的研究就在对肺癌精准预测方向上取得了重大突破
字节跳动联合浙江大学发布了ImmerseGen系统,这是一个能根据文字描述自动生成VR世界的AI工具。该系统采用轻量化代理和RGBA纹理技术,用AI代理协作完成从地形生成到物体布置的全流程,还能添加动态效果和环境音效。相比传统方法,它生成的场景效率提升数十倍,在移动VR设备上达到79帧流畅运行,为VR内容创作带来革命性突破。
Salesforce发布Agentforce 3平台重大升级,新增指挥中心提供AI智能体实时性能监控,支持MCP开放标准实现与数百种企业工具无缝集成。数据显示AI智能体使用量六个月内激增233%,超8000家客户部署该技术。百事可乐等全球企业已将其深度集成到业务运营中。新版本还提供50%更低延迟、增强安全性和200多个预配置行业操作模板,帮助企业快速部署功能性AI智能体。
慕尼黑大学研究团队开发了SwarmAgentic技术,这是首个能够完全自主生成智能体系统的框架,无需人工预设模板。该技术借鉴蜂群智能原理,让AI系统自己决定需要什么角色、如何分工协作。在旅行规划等六项复杂任务测试中,SwarmAgentic表现优异,在旅行规划任务上比现有最佳方法提升261.8%,展现了全自动智能体系统设计的巨大潜力。