Skip to content

如何为部署配置 LangGraph.js 应用程序

一个 LangGraph.js 应用程序必须使用 LangGraph API 配置文件进行配置,才能部署到 LangGraph Cloud(或自行托管)。本指南将讨论使用 package.json 指定项目依赖项来设置 LangGraph.js 应用程序的基本步骤。

本指南基于 此仓库,你可以通过它来学习如何为部署设置你的 LangGraph 应用程序。

最终的仓库结构将类似于以下内容:

my-app/
├── src # 项目代码均位于此处
   ├── utils # 用于你的图的可选工具
      ├── tools.ts # 用于你的图的工具
      ├── nodes.ts # 用于你的图的节点函数
      └── state.ts # 你的图的状态定义
   └── agent.ts # 构建你的图的代码
├── package.json # 包依赖项
├── .env # 环境变量
└── langgraph.json # LangGraph 配置文件

在每一步之后,都会提供一个示例文件目录,以展示代码如何组织。

指定依赖项

依赖项可以在 package.json 文件中指定。如果这些文件尚未创建,则可以在稍后在 LangGraph API 配置文件中指定依赖项。

示例 package.json 文件:

{
  "name": "langgraphjs-studio-starter",
  "packageManager": "yarn@1.22.22",
  "dependencies": {
    "@langchain/community": "^0.2.31",
    "@langchain/core": "^0.2.31",
    "@langchain/langgraph": "^0.2.0",
    "@langchain/openai": "^0.2.8"
  }
}

示例文件目录:

my-app/
└── package.json # 包依赖项

指定环境变量

环境变量可选择性地在文件中指定(例如 .env)。请参阅环境变量参考以配置部署所需的附加变量。

示例 .env 文件:

MY_ENV_VAR_1=foo
MY_ENV_VAR_2=bar
OPENAI_API_KEY=key
TAVILY_API_KEY=key_2

示例文件目录:

my-app/
├── package.json
└── .env # 环境变量

定义图

实现您的图!图可以在单个文件或多个文件中定义。请记录每个编译图的变量名,以便在 LangGraph 应用程序中包含它们。这些变量名将在稍后创建LangGraph API 配置文件时使用。

以下是一个示例 agent.ts

import type { AIMessage } from "@langchain/core/messages";
import { TavilySearchResults } from "@langchain/community/tools/tavily_search";
import { ChatOpenAI } from "@langchain/openai";

import { MessagesAnnotation, StateGraph } from "@langchain/langgraph";
import { ToolNode } from "@langchain/langgraph/prebuilt";

const tools = [
  new TavilySearchResults({ maxResults: 3, }),
];

// 定义调用模型的函数
async function callModel(
  state: typeof MessagesAnnotation.State,
) {
  /**
   * 调用驱动我们代理的 LLM。
   * 您可以自定义提示、模型和其他逻辑!
   */
  const model = new ChatOpenAI({
    model: "gpt-4o",
  }).bindTools(tools);

  const response = await model.invoke([
    {
      role: "system",
      content: `您是一个乐于助人的助手。当前日期是 ${new Date().getTime()}.`
    },
    ...state.messages
  ]);

  // MessagesAnnotation 支持返回单个消息或消息数组
  return { messages: response };
}

// 定义决定是否继续的函数
function routeModelOutput(state: typeof MessagesAnnotation.State) {
  const messages = state.messages;
  const lastMessage: AIMessage = messages[messages.length - 1];
  // 如果 LLM 调用工具,则路由到工具。
  if ((lastMessage?.tool_calls?.length ?? 0) > 0) {
    return "tools";
  }
  // 否则结束图。
  return "__end__";
}

// 定义一个新的图。
// 有关更多定义自定义图状态的信息,请参见
// https://langchain-ai.github.io/langgraphjs/how-tos/define-state/#getting-started
const workflow = new StateGraph(MessagesAnnotation)
  // 定义我们将在其中循环的两个节点
  .addNode("callModel", callModel)
  .addNode("tools", new ToolNode(tools))
  // 设置入口点为 `callModel`
  // 这意味着此节点是第一个被调用的节点
  .addEdge("__start__", "callModel")
  .addConditionalEdges(
    // 首先,我们定义边的源节点。我们使用 `callModel`。
    // 这意味着这些是在调用 `callModel` 节点后所采取的边。
    "callModel",
    // 接下来,我们传入一个函数,该函数将确定汇节点(s),这些节点将在源节点被调用后被调用。
    routeModelOutput,
    // 可能的目的地列表,条件边可以路由到这些目的地。
    // 为条件边正确渲染图在 Studio 中是必需的
    [
      "tools",
      "__end__"
    ],
  )
  // 这意味着在调用 `tools` 后,下一个调用 `callModel` 节点。
  .addEdge("tools", "callModel");

// 最后,我们编译它!
// 这将编译为一个您可以调用和部署的图。
export const graph = workflow.compile();

CompiledGraph 分配给变量

LangGraph Cloud 的构建过程要求 CompiledGraph 对象被分配给 JavaScript 模块顶层的一个变量(或者,您可以提供创建图的函数)。

示例文件目录:

my-app/
├── src # 所有项目代码都在这里
   ├── utils # 图的可选工具
      ├── tools.ts # 图的工具
      ├── nodes.ts # 图的节点函数
      └── state.ts # 图的状态定义
   └── agent.ts # 构建图的代码
├── package.json # 包依赖项
├── .env # 环境变量
└── langgraph.json # LangGraph 的配置文件

创建LangGraph API配置

创建一个名为langgraph.jsonLangGraph API配置文件。有关配置文件中JSON对象中每个键的详细解释,请参阅LangGraph CLI参考

示例langgraph.json文件:

{
  "node_version": "20",
  "dockerfile_lines": [],
  "dependencies": ["."],
  "graphs": {
    "agent": "./src/agent.ts:graph"
  },
  "env": ".env"
}

注意,CompiledGraph变量名出现在顶级键graphs下每个子键值的末尾(即:<variable_name>)。

配置位置

LangGraph API配置文件必须放置在与包含编译图的TypeScript文件以及相关依赖项处于同一级别或更高级别的目录中。

下一步

在设置好项目并将它放置在github仓库中之后,是时候部署你的应用了。

Comments