Teradata CPO:对生成式AI保持好奇,同时要考虑投资回报率

在2023年的Transform大会上,Teradata的首席产品官Hillary Ashton深入讨论了企业必须如何应对数据治理、隐私保护和保持透明度的复杂性,以确保他们的AI驱动的运营得到信任。

在实施AI的过程中,信任的问题从未远离,尤其是在像生成式AI这样的新兴领域中。在2023年的Transform大会上,Teradata的首席产品官Hillary Ashton深入讨论了企业必须如何应对数据治理、隐私保护和保持透明度的复杂性,以确保他们的AI驱动的运营得到信任。

Ashton说:“生成式AI已经把高级分析的整个领域带入到了董事会的讨论中,而在此之前,它更多的是后台的讨论,有很多未被挖掘的潜力。这是一个令人兴奋的领域,但也是人们需要从信任的角度仔细思考的问题。生成式AI真正提出了什么是受保护的数据,什么是个人身份信息(PII)数据。你希望如何处理这些数据,尤其是在大型语言模型和生成型AI中?”

信任在应用生成式人工智能的作用

 Ashton表示,企业必须为其客户提供本质上的信任,这开始于基础的数据质量和个人身份信息(PII)数据的清晰分离。

她补充说:“这听起来像是基本的条件,但对于许多企业来说,实际将其付诸实践是非常困难的。他们需要技术、人员和流程才能做到这一点。”

企业必须建立健全的数据治理框架,把数据当作产品对待,并确保将干净、非PII的数据提供给用户。坚守法规合规是至关重要的,组织需要对他们如何使用生成型AI及其对数据隐私的影响保持透明。在与第三方供应商合作或使用大型语言模型(LLMs)时,保护知识产权(IP)和保护专有信息也是至关重要的。

她说:“这就是为什么我要回到明确理解你想如何使用高级分析 - 你需要了解的不仅是你的PII,还有你的IP。你是如何保护它的?你可能会考虑,如果你的高级数据科学家在编写提示,那就是你作为一个组织的IP。这不是你想免费送给竞争对手的IP。当我们考虑像PII数据这样的事情时,这可能并没有明确说明。现在,提示成为了你的IP。现在你有一个全新的关于提示保护和IP的法律实践。”

这甚至包括你选择如何构建你的数据,这是高度专有的。如果你是A银行,和B银行竞争,你并不想因为供应商使用了基于你的数据结构的LLM,无论它如何清洁,而让你的竞争对手获得优势。

从那里,她说,关键在于“确保你理解你所在的任何市场,合规性看起来是什么样的,你是以那个终态为目标建立的,然后向你的客户透明说明你是如何使用生成型AI的,你是如何不使用生成型AI的,所以[它]可以被信任。”

信任也不仅限于隐私;它还扩展到模型结果的可靠性和准确性。定期评估模型并采取积极措施改正表现不佳是维护用户信任的必要条件。

那么从哪里开始呢?

开始的意味着从你想要实现的结果反推,Ashton说,这主要分为两个方面。第一,你已经具有高级功能的领域,你想通过高级分析保持领先优势。第二,解决你可能没有但竞争对手已经具备的基本挑战。

从那里开始,需要考虑的是数据治理和尊重IP和PII数据的主权。第二部分是能够在大规模上做到这一点,最后一部分是模型运营,或者管理模型进入生产,并理解何时模型开始表现不佳或返回不可接受的结果。

最后,关键是不要在新奇中迷失,而是评估投资回报率和价格性能。

Ashton说:“我们都对大型语言模型和生成型AI感到非常兴奋。但是,随着时间的推移,对于一些并非高价值的用例,运行一些操作的成本可能会变得过高。确保你不是因为它酷而用一个大型语言模型来解决一个可以用BI枢轴图表解决的问题 —— 这看起来像是一个疯狂的例子,但它并不那么疯狂。”

来源:至顶网大数据频道

0赞

好文章,需要你的鼓励

2023

07/18

09:58

分享

点赞

邮件订阅