大语言模型文本(LLMs-txt)概述¶
概述¶
在下面,你可以找到以 llms.txt
格式存在的文档文件列表,具体为 llms.txt
和 llms-full.txt
。这些文件允许大语言模型(LLMs)和智能体访问编程文档和 API,在集成开发环境(IDEs)中尤为有用。
语言版本 | llms.txt | llms-full.txt |
---|---|---|
LangGraph Python | https://langchain-ai.github.io/langgraph/llms.txt | https://langchain-ai.github.io/langgraph/llms-full.txt |
LangGraph JS | https://langchain-ai.github.io/langgraphjs/llms.txt | https://langchain-ai.github.io/langgraphjs/llms-full.txt |
LangChain Python | https://python.langchain.com/llms.txt | 无 |
LangChain JS | https://js.langchain.com/llms.txt | 无 |
审查输出
即使可以访问最新的文档,当前最先进的模型也可能并不总是能生成正确的代码。将生成的代码作为起点,并在将代码投入生产之前始终对其进行审查。
llms.txt
与 llms-full.txt
的区别¶
-
llms.txt
是一个索引文件,包含带有内容简要描述的链接。大语言模型(LLM)或智能体必须通过这些链接来访问详细信息。 -
llms-full.txt
直接在单个文件中包含了所有详细内容,无需额外的导航操作。
使用 llms-full.txt
时的一个关键考虑因素是其文件大小。对于内容广泛的文档,这个文件可能会变得太大,无法放入大语言模型的上下文窗口中。
通过 MCP 服务器使用 llms.txt
¶
截至 2025 年 3 月 9 日,集成开发环境(IDE)尚未对 llms.txt
提供强大的原生支持。不过,你仍然可以通过 MCP 服务器有效地使用 llms.txt
。
🚀 使用 mcpdoc
服务器¶
我们提供了一个 MCP 服务器,其设计目的是为大语言模型(LLM)和集成开发环境(IDE)提供文档服务:
👉 langchain-ai/mcpdoc GitHub 仓库
这个 MCP 服务器允许将 llms.txt
集成到 Cursor、Windsurf、Claude 和 Claude Code 等工具中。
📘 仓库中提供了 设置说明和使用示例。
使用 llms-full.txt
¶
LangGraph 的 llms-full.txt
文件通常包含数十万个标记,超出了大多数大语言模型(LLM)的上下文窗口限制。要有效使用此文件,请按以下方法操作:
-
使用集成开发环境(IDE)(例如 Cursor、Windsurf):
- 将
llms-full.txt
作为自定义文档添加。IDE 会自动对内容进行分块和索引,实现检索增强生成(RAG)。
- 将
-
不使用 IDE 支持:
- 使用具有大上下文窗口的聊天模型。
- 实施 RAG 策略以高效管理和查询文档。