Skip to content

llms.txt

以下是一些以 llms.txt 格式编写的文档文件列表,具体包括 llms.txtllms-full.txt。这些文件允许大型语言模型(LLMs)和代理访问编程文档和 API,特别适用于集成开发环境(IDE)中。

语言版本 llms.txt llms-full.txt
LangGraph Python https://langchain-ai.github.io/langgraph/llms.txt https://langchain-ai.github.io/langgraph/llms-full.txt
LangGraph JS https://langchain-ai.github.io/langgraphjs/llms.txt https://langchain-ai.github.io/langgraphjs/llms-full.txt
LangChain Python https://python.langchain.com/llms.txt N/A
LangChain JS https://js.langchain.com/llms.txt N/A

审查输出

即使有最新的文档支持,当前最先进的模型也不一定总是生成正确的代码。请将生成的代码视为起点,并在将其部署到生产环境之前始终进行审查。

llms.txtllms-full.txt 的区别

  • llms.txt 是一个索引文件,包含链接及其内容的简要描述。LLM 或代理必须遵循这些链接以访问详细信息。

  • llms-full.txt 包含所有详细内容,直接存储在一个文件中,无需额外导航。

使用 llms-full.txt 时需要考虑的一个关键因素是其文件大小。对于大量文档,此文件可能会变得过大,超出 LLM 的上下文窗口容量。

通过 MCP 服务器使用 llms.txt

截至 2025 年 3 月 9 日,IDE 尚未具备对 llms.txt 的强大原生支持 https://x.com/jeremyphoward/status/1902109312216129905?t=1eHFv2vdNdAckajnug0_Vw&s=19。不过,您仍然可以通过 MCP 服务器有效地使用 llms.txt

🚀 使用 mcpdoc 服务器

我们提供了一个专为 LLM 和 IDE 设计的 MCP 服务器,用于服务文档:

👉 langchain-ai/mcpdoc GitHub 仓库

此 MCP 服务器允许将 llms.txt 集成到诸如 CursorWindsurfClaudeClaude Code 等工具中。

📘 设置说明和使用示例 可在仓库中找到。

使用 llms-full.txt

LangGraph 的 llms-full.txt 文件通常包含数十万 tokens,超出大多数 LLM 的上下文窗口限制。为了有效使用该文件:

  1. 使用 IDE(例如 Cursor、Windsurf)

    • llms-full.txt 添加为自定义文档。IDE 会自动对内容进行分块和索引,实现检索增强生成(RAG)。
  2. 没有 IDE 支持时

    • 使用具有大上下文窗口的聊天模型。
    • 实施 RAG 策略以高效管理和查询文档。