谷歌云 | 使用 Google Cloud 数据库构建企业级 AI 应用

大型语言模型 (LLMs) 经过对来自广泛主题的大量公开数据的训练,在很多方面都很强大,但在其他领域还可以改进。

由于训练数据的大小,频繁训练它们可能会占用大量资源。因此,他们可能没有最新的信息。此外,由于他们接受过可用数据的培训,因此他们不知道公司防火墙后面的任何内容。询问 LLM 谁赢得了最新的体育比赛或您的健康保险保费是多少,它可能不知道答案。这些限制对于一般知识问题来说可能没问题,但企业正在寻求利用 LLMs 来创建生成式人工智能应用程序,这些应用程序提供高精度、可以访问实时信息并支持复杂的对话体验。

解决这个问题的一种越来越流行的方法是利用一种称为检索增强生成(RAG)的技术来“接地”LLMs,为企业构建新一代人工智能应用程序开辟了新的机会,这些应用程序可以通过丰富 LLM 提示来利用最新或专有数据来提供相关且准确的信息。这对于受敏感信息法规约束的公司和行业尤其重要。

RAG 方法

这里,我们使用客户服务聊天机器人示例来了解 RAG 的工作原理,该机器人可以回答各种问题,包括可用性、定价和退货政策。如果您向一位典型的 LLM 询问一个通用问题,例如“5 岁以下儿童流行的玩具有哪些?” ,它可能会给出答案,但由于 LLM 不知道商店当前的库存,所以答案与购物者无关。为了让客户支持聊天机器人使用最新的数据和策略来获取答案,RAG 方法可能被证明是有效的。

这个简化的 RAG 示例由一个前置步骤和四个步骤组成,详细介绍应用程序如何利用支持向量索引的数据库的相似性搜索功能来提供可靠的答案

前置步骤:内部数据通过嵌入模型存储在数据库中。

  1. Gen AI 应用程序使用嵌入模型将自然语言问题(“您有具有 A、B、C 功能的产品 X 吗?”)转换为向量。
  2. 嵌入模型用于将问题转换为向量并对数据库进行语义搜索。
  3. 数据库返回用作 LLM 提示的一部分的数据。
  4. LLM 根据数据构建准确的答案。

LLMs 和数据库协同工作以提供实时结果。在初始设置中,您将通过嵌入模型将产品描述等内部数据作为向量存储到操作数据库中。这允许您的应用程序根据您的数据进行搜索并提供最新、准确的结果。设置完成后,您的应用程序现在可以使用数据库中的相似性搜索来回答问题,然后结合 LLM 的提示来提供相关答案。

嵌入允许您使用近似最近邻谓词根据相似性过滤数据。这些类型的查询可实现产品推荐等体验,让您可以搜索与它们之前交互过的产品相似的产品。因此,它们使 LLMs 在用于构建提示时更加强大。这是因为 LLM 本身有输入大小限制并且没有状态概念,因此并不总是可以在提示中提供完整的上下文。因此,嵌入使我们能够搜索大型上下文,例如数据库、文档和聊天历史记录,从而能够模拟长期记忆并理解特定于业务的知识

矢量数据库

RAG 方法的一个关键组成部分是向量嵌入的使用

Google Cloud 提供了一些存储它们的选项:Vertex AI 矢量搜索是一款专门构建的工具,用于以高容量和低延迟存储和检索矢量

如果您熟悉 PostgreSQL,pgvector 扩展提供了一种在数据库中添加向量查询以支持 gen AI 应用程序的简单方法。

Cloud SQL 和 AlloyDB 支持 pgvector,与使用 IVFFlat 索引模式时的标准 PostgreSQL 相比, AlloyDB AI 支持高达 4 倍的向量大小和高达 10 倍的性能提升。

构建企业级人工智能应用程序可能看起来很困难,但通过利用 LangChain 等开源兼容工具并利用 Google Cloud 的资源,您可以使用我们在本文中描述的概念和工具轻松开始您 AI 旅程。

Cloud Ace 云一 作为谷歌云的全球战略合作伙伴,专注为出海企业提供 Google Cloud 的导入、设计维护以及运用等全方位服务,提供最佳解决方案,帮助您的出海业务乘风破浪、取得更大的成功!如果您也想构建您的企业级 AI 应用,立即联系 Cloud Ace 云一

Leave a Reply