在实施AI的过程中,信任的问题从未远离,尤其是在像生成式AI这样的新兴领域中。在2023年的Transform大会上,Teradata的首席产品官Hillary Ashton深入讨论了企业必须如何应对数据治理、隐私保护和保持透明度的复杂性,以确保他们的AI驱动的运营得到信任。
Ashton说:“生成式AI已经把高级分析的整个领域带入到了董事会的讨论中,而在此之前,它更多的是后台的讨论,有很多未被挖掘的潜力。这是一个令人兴奋的领域,但也是人们需要从信任的角度仔细思考的问题。生成式AI真正提出了什么是受保护的数据,什么是个人身份信息(PII)数据。你希望如何处理这些数据,尤其是在大型语言模型和生成型AI中?”
信任在应用生成式人工智能的作用
Ashton表示,企业必须为其客户提供本质上的信任,这开始于基础的数据质量和个人身份信息(PII)数据的清晰分离。
她补充说:“这听起来像是基本的条件,但对于许多企业来说,实际将其付诸实践是非常困难的。他们需要技术、人员和流程才能做到这一点。”
企业必须建立健全的数据治理框架,把数据当作产品对待,并确保将干净、非PII的数据提供给用户。坚守法规合规是至关重要的,组织需要对他们如何使用生成型AI及其对数据隐私的影响保持透明。在与第三方供应商合作或使用大型语言模型(LLMs)时,保护知识产权(IP)和保护专有信息也是至关重要的。
她说:“这就是为什么我要回到明确理解你想如何使用高级分析 - 你需要了解的不仅是你的PII,还有你的IP。你是如何保护它的?你可能会考虑,如果你的高级数据科学家在编写提示,那就是你作为一个组织的IP。这不是你想免费送给竞争对手的IP。当我们考虑像PII数据这样的事情时,这可能并没有明确说明。现在,提示成为了你的IP。现在你有一个全新的关于提示保护和IP的法律实践。”
这甚至包括你选择如何构建你的数据,这是高度专有的。如果你是A银行,和B银行竞争,你并不想因为供应商使用了基于你的数据结构的LLM,无论它如何清洁,而让你的竞争对手获得优势。
从那里,她说,关键在于“确保你理解你所在的任何市场,合规性看起来是什么样的,你是以那个终态为目标建立的,然后向你的客户透明说明你是如何使用生成型AI的,你是如何不使用生成型AI的,所以[它]可以被信任。”
信任也不仅限于隐私;它还扩展到模型结果的可靠性和准确性。定期评估模型并采取积极措施改正表现不佳是维护用户信任的必要条件。
那么从哪里开始呢?
开始的意味着从你想要实现的结果反推,Ashton说,这主要分为两个方面。第一,你已经具有高级功能的领域,你想通过高级分析保持领先优势。第二,解决你可能没有但竞争对手已经具备的基本挑战。
从那里开始,需要考虑的是数据治理和尊重IP和PII数据的主权。第二部分是能够在大规模上做到这一点,最后一部分是模型运营,或者管理模型进入生产,并理解何时模型开始表现不佳或返回不可接受的结果。
最后,关键是不要在新奇中迷失,而是评估投资回报率和价格性能。
Ashton说:“我们都对大型语言模型和生成型AI感到非常兴奋。但是,随着时间的推移,对于一些并非高价值的用例,运行一些操作的成本可能会变得过高。确保你不是因为它酷而用一个大型语言模型来解决一个可以用BI枢轴图表解决的问题 —— 这看起来像是一个疯狂的例子,但它并不那么疯狂。”
好文章,需要你的鼓励
CIO们正面临众多复杂挑战,其多样性值得关注。除了企业安全和成本控制等传统问题,人工智能快速发展和地缘政治环境正在颠覆常规业务模式。主要挑战包括:AI技术快速演进、IT部门AI应用、AI网络攻击威胁、AIOps智能运维、快速实现价值、地缘政治影响、成本控制、人才短缺、安全风险管理以及未来准备等十个方面。
北航团队发布AnimaX技术,能够根据文字描述让静态3D模型自动生成动画。该系统支持人形角色、动物、家具等各类模型,仅需6分钟即可完成高质量动画生成,效率远超传统方法。通过多视角视频-姿态联合扩散模型,AnimaX有效结合了视频AI的运动理解能力与骨骼动画的精确控制,在16万动画序列数据集上训练后展现出卓越性能。
过去两年间,许多组织启动了大量AI概念验证项目,但失败率高且投资回报率令人失望。如今出现新趋势,组织开始重新评估AI实验的撒网策略。IT观察者发现,许多组织正在减少AI概念验证项目数量,IT领导转向商业AI工具,专注于有限的战略性目标用例。专家表示,组织正从大规模实验转向更专注、结果导向的AI部署,优先考虑能深度融入运营工作流程并产生可衡量结果的少数用例。
这项研究解决了AI图片描述中的两大难题:描述不平衡和内容虚构。通过创新的"侦探式追问"方法,让AI能生成更详细准确的图片描述,显著提升了多个AI系统的性能表现,为无障碍技术、教育、电商等领域带来实用价值。