在实施AI的过程中,信任的问题从未远离,尤其是在像生成式AI这样的新兴领域中。在2023年的Transform大会上,Teradata的首席产品官Hillary Ashton深入讨论了企业必须如何应对数据治理、隐私保护和保持透明度的复杂性,以确保他们的AI驱动的运营得到信任。
Ashton说:“生成式AI已经把高级分析的整个领域带入到了董事会的讨论中,而在此之前,它更多的是后台的讨论,有很多未被挖掘的潜力。这是一个令人兴奋的领域,但也是人们需要从信任的角度仔细思考的问题。生成式AI真正提出了什么是受保护的数据,什么是个人身份信息(PII)数据。你希望如何处理这些数据,尤其是在大型语言模型和生成型AI中?”
信任在应用生成式人工智能的作用
Ashton表示,企业必须为其客户提供本质上的信任,这开始于基础的数据质量和个人身份信息(PII)数据的清晰分离。
她补充说:“这听起来像是基本的条件,但对于许多企业来说,实际将其付诸实践是非常困难的。他们需要技术、人员和流程才能做到这一点。”
企业必须建立健全的数据治理框架,把数据当作产品对待,并确保将干净、非PII的数据提供给用户。坚守法规合规是至关重要的,组织需要对他们如何使用生成型AI及其对数据隐私的影响保持透明。在与第三方供应商合作或使用大型语言模型(LLMs)时,保护知识产权(IP)和保护专有信息也是至关重要的。
她说:“这就是为什么我要回到明确理解你想如何使用高级分析 - 你需要了解的不仅是你的PII,还有你的IP。你是如何保护它的?你可能会考虑,如果你的高级数据科学家在编写提示,那就是你作为一个组织的IP。这不是你想免费送给竞争对手的IP。当我们考虑像PII数据这样的事情时,这可能并没有明确说明。现在,提示成为了你的IP。现在你有一个全新的关于提示保护和IP的法律实践。”
这甚至包括你选择如何构建你的数据,这是高度专有的。如果你是A银行,和B银行竞争,你并不想因为供应商使用了基于你的数据结构的LLM,无论它如何清洁,而让你的竞争对手获得优势。
从那里,她说,关键在于“确保你理解你所在的任何市场,合规性看起来是什么样的,你是以那个终态为目标建立的,然后向你的客户透明说明你是如何使用生成型AI的,你是如何不使用生成型AI的,所以[它]可以被信任。”
信任也不仅限于隐私;它还扩展到模型结果的可靠性和准确性。定期评估模型并采取积极措施改正表现不佳是维护用户信任的必要条件。
那么从哪里开始呢?
开始的意味着从你想要实现的结果反推,Ashton说,这主要分为两个方面。第一,你已经具有高级功能的领域,你想通过高级分析保持领先优势。第二,解决你可能没有但竞争对手已经具备的基本挑战。
从那里开始,需要考虑的是数据治理和尊重IP和PII数据的主权。第二部分是能够在大规模上做到这一点,最后一部分是模型运营,或者管理模型进入生产,并理解何时模型开始表现不佳或返回不可接受的结果。
最后,关键是不要在新奇中迷失,而是评估投资回报率和价格性能。
Ashton说:“我们都对大型语言模型和生成型AI感到非常兴奋。但是,随着时间的推移,对于一些并非高价值的用例,运行一些操作的成本可能会变得过高。确保你不是因为它酷而用一个大型语言模型来解决一个可以用BI枢轴图表解决的问题 —— 这看起来像是一个疯狂的例子,但它并不那么疯狂。”
好文章,需要你的鼓励
微软研究院推出VIBEVOICE,这是一种革命性的AI语音合成技术,能够一次性生成长达90分钟的多人对话音频。
成均馆大学团队开发出选择性对比学习新方法,让机器通过观察人类交互场景学会识别物体功能部位。该技术突破传统局限,采用动态学习策略,能根据信息质量调整学习方式,在多个数据集上显著超越现有方法,为机器人、自动驾驶等领域的智能交互应用奠定重要基础。
微软与三星达成合作,将Copilot人工智能助手集成到三星的智能电视和显示器产品中。用户可以通过语音或遥控器直接与Copilot交互,获得智能问答、内容推荐、设备控制等服务。这一合作标志着AI助手从传统计算设备向家庭娱乐设备的进一步扩展,为用户提供更加智能化的观看体验。
新加坡南洋理工大学研究团队开发出EgoTwin系统,这是首个能够根据文字描述同时生成第一人称视频和匹配人体动作的AI框架。该系统通过创新的头部中心动作表示方法和因果交互机制,解决了视角对齐和动作画面同步的核心难题,在17万样本的真实数据集上实现了显著性能提升,为VR内容创作、影视制作等领域提供了新的技术可能。