Skip to content

如何使用 LangGraph 平台部署 CrewAI、AutoGen 等框架

LangGraph 平台 为部署智能体提供了基础设施。它能与 LangGraph 无缝集成,也可与其他框架配合使用。实现这一功能的方法是将智能体封装在单个 LangGraph 节点中,使其成为整个图。

这样做可以让你将其部署到 LangGraph 平台,并让你获得诸多优势。你将拥有可水平扩展的基础设施、用于处理突发操作的任务队列、支持短期记忆的持久层以及长期记忆支持。

在本指南中,我们将展示如何使用 AutoGen 智能体来实现这一点,但这种方法同样适用于其他框架(如 CrewAI、LlamaIndex 等)中定义的智能体。

安装设置

%pip install autogen langgraph
import getpass
import os


def _set_env(var: str):
    if not os.environ.get(var):
        os.environ[var] = getpass.getpass(f"{var}: ")


_set_env("OPENAI_API_KEY")

定义自动生成代理

在这里,我们定义我们的 AutoGen 代理。参考:https://github.com/microsoft/autogen/blob/0.2/notebook/agentchat_web_info.ipynb

import autogen
import os

config_list = [{"model": "gpt-4o", "api_key": os.environ["OPENAI_API_KEY"]}]

llm_config = {
    "timeout": 600,
    "cache_seed": 42,
    "config_list": config_list,
    "temperature": 0,
}

autogen_agent = autogen.AssistantAgent(
    name="assistant",
    llm_config=llm_config,
)

user_proxy = autogen.UserProxyAgent(
    name="user_proxy",
    human_input_mode="NEVER",
    max_consecutive_auto_reply=10,
    is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
    code_execution_config={
        "work_dir": "web",
        "use_docker": False,
    },  # Please set use_docker=True if docker is available to run the generated code. Using docker is safer than running the generated code directly.
    llm_config=llm_config,
    system_message="Reply TERMINATE if the task has been solved at full satisfaction. Otherwise, reply CONTINUE, or the reason why the task is not solved yet.",
)

封装到 LangGraph 中

现在,我们将 AutoGen 代理封装到单个 LangGraph 节点中,并将其作为整个图。 这主要涉及为该节点定义输入和输出模式,如果你手动部署此代理,也需要进行这样的定义,因此这并没有额外的工作。

from langgraph.graph import StateGraph, MessagesState


def call_autogen_agent(state: MessagesState):
    last_message = state["messages"][-1]
    response = user_proxy.initiate_chat(autogen_agent, message=last_message.content)
    # get the final response from the agent
    content = response.chat_history[-1]["content"]
    return {"messages": {"role": "assistant", "content": content}}


graph = StateGraph(MessagesState)
graph.add_node(call_autogen_agent)
graph.set_entry_point("call_autogen_agent")
graph = graph.compile()

使用 LangGraph 平台进行部署

现在,你可以像往常一样使用 LangGraph 平台来部署这个项目。有关更多详细信息,请参阅这些说明

Comments