在实施AI的过程中,信任的问题从未远离,尤其是在像生成式AI这样的新兴领域中。在2023年的Transform大会上,Teradata的首席产品官Hillary Ashton深入讨论了企业必须如何应对数据治理、隐私保护和保持透明度的复杂性,以确保他们的AI驱动的运营得到信任。
Ashton说:“生成式AI已经把高级分析的整个领域带入到了董事会的讨论中,而在此之前,它更多的是后台的讨论,有很多未被挖掘的潜力。这是一个令人兴奋的领域,但也是人们需要从信任的角度仔细思考的问题。生成式AI真正提出了什么是受保护的数据,什么是个人身份信息(PII)数据。你希望如何处理这些数据,尤其是在大型语言模型和生成型AI中?”
信任在应用生成式人工智能的作用
Ashton表示,企业必须为其客户提供本质上的信任,这开始于基础的数据质量和个人身份信息(PII)数据的清晰分离。
她补充说:“这听起来像是基本的条件,但对于许多企业来说,实际将其付诸实践是非常困难的。他们需要技术、人员和流程才能做到这一点。”
企业必须建立健全的数据治理框架,把数据当作产品对待,并确保将干净、非PII的数据提供给用户。坚守法规合规是至关重要的,组织需要对他们如何使用生成型AI及其对数据隐私的影响保持透明。在与第三方供应商合作或使用大型语言模型(LLMs)时,保护知识产权(IP)和保护专有信息也是至关重要的。
她说:“这就是为什么我要回到明确理解你想如何使用高级分析 - 你需要了解的不仅是你的PII,还有你的IP。你是如何保护它的?你可能会考虑,如果你的高级数据科学家在编写提示,那就是你作为一个组织的IP。这不是你想免费送给竞争对手的IP。当我们考虑像PII数据这样的事情时,这可能并没有明确说明。现在,提示成为了你的IP。现在你有一个全新的关于提示保护和IP的法律实践。”
这甚至包括你选择如何构建你的数据,这是高度专有的。如果你是A银行,和B银行竞争,你并不想因为供应商使用了基于你的数据结构的LLM,无论它如何清洁,而让你的竞争对手获得优势。
从那里,她说,关键在于“确保你理解你所在的任何市场,合规性看起来是什么样的,你是以那个终态为目标建立的,然后向你的客户透明说明你是如何使用生成型AI的,你是如何不使用生成型AI的,所以[它]可以被信任。”
信任也不仅限于隐私;它还扩展到模型结果的可靠性和准确性。定期评估模型并采取积极措施改正表现不佳是维护用户信任的必要条件。
那么从哪里开始呢?
开始的意味着从你想要实现的结果反推,Ashton说,这主要分为两个方面。第一,你已经具有高级功能的领域,你想通过高级分析保持领先优势。第二,解决你可能没有但竞争对手已经具备的基本挑战。
从那里开始,需要考虑的是数据治理和尊重IP和PII数据的主权。第二部分是能够在大规模上做到这一点,最后一部分是模型运营,或者管理模型进入生产,并理解何时模型开始表现不佳或返回不可接受的结果。
最后,关键是不要在新奇中迷失,而是评估投资回报率和价格性能。
Ashton说:“我们都对大型语言模型和生成型AI感到非常兴奋。但是,随着时间的推移,对于一些并非高价值的用例,运行一些操作的成本可能会变得过高。确保你不是因为它酷而用一个大型语言模型来解决一个可以用BI枢轴图表解决的问题 —— 这看起来像是一个疯狂的例子,但它并不那么疯狂。”
好文章,需要你的鼓励
随着数字化时代的到来,网络安全威胁呈指数级增长。勒索软件、AI驱动的网络攻击和物联网设备漏洞成为主要威胁。企业需要建立全面的风险管理策略,包括风险评估、安全措施实施和持续监控。新兴技术如人工智能、区块链和量子计算为网络安全带来新机遇。组织应重视员工培训、供应链安全、数据治理和事件响应能力建设。
滑铁卢大学研究团队开发出ScholarCopilot,一个革命性的AI学术写作助手。该系统突破传统"先检索后生成"模式,实现写作过程中的动态文献检索和精确引用。基于50万篇arXiv论文训练,引用准确率达40.1%,大幅超越现有方法。在人类专家评估中,引用质量获100%好评,整体表现优于ChatGPT。这项创新为AI辅助学术写作开辟新道路。
AWS Amazon Bedrock负责人Atul Deo正致力于让人工智能软件变得更便宜和更智能。他在12月re:Invent大会前只有六个月时间来证明这一目标的可行性。Deo表示AI领域发展速度前所未有,模型每几周就会改进,但客户只有在经济效益合理时才会部署。为此,AWS推出了提示缓存、智能路由、批处理模式等功能来降低推理成本,同时开发能执行多步骤任务的自主代理软件,将AI应用从聊天机器人转向实际业务流程自动化。
哥伦比亚大学研究团队发布NodeRAG技术,通过异构图结构革新智能问答系统。该方法将文档信息分解为7种节点类型,采用双重搜索机制,在多个权威测试中准确率达89.5%,检索效率提升50%以上,为智能信息检索技术带来重大突破。