llms.txt¶
以下是一些以 llms.txt
格式编写的文档文件列表,具体包括 llms.txt
和 llms-full.txt
。这些文件允许大型语言模型(LLMs)和代理访问编程文档和 API,特别适用于集成开发环境(IDE)中。
语言版本 | llms.txt | llms-full.txt |
---|---|---|
LangGraph Python | https://langchain-ai.github.io/langgraph/llms.txt | https://langchain-ai.github.io/langgraph/llms-full.txt |
LangGraph JS | https://langchain-ai.github.io/langgraphjs/llms.txt | https://langchain-ai.github.io/langgraphjs/llms-full.txt |
LangChain Python | https://python.langchain.com/llms.txt | N/A |
LangChain JS | https://js.langchain.com/llms.txt | N/A |
审查输出
即使有最新的文档支持,当前最先进的模型也不一定总是生成正确的代码。请将生成的代码视为起点,并在将其部署到生产环境之前始终进行审查。
llms.txt
与 llms-full.txt
的区别¶
-
llms.txt
是一个索引文件,包含链接及其内容的简要描述。LLM 或代理必须遵循这些链接以访问详细信息。 -
llms-full.txt
包含所有详细内容,直接存储在一个文件中,无需额外导航。
使用 llms-full.txt
时需要考虑的一个关键因素是其文件大小。对于大量文档,此文件可能会变得过大,超出 LLM 的上下文窗口容量。
通过 MCP 服务器使用 llms.txt
¶
截至 2025 年 3 月 9 日,IDE 尚未具备对 llms.txt
的强大原生支持 https://x.com/jeremyphoward/status/1902109312216129905?t=1eHFv2vdNdAckajnug0_Vw&s=19。不过,您仍然可以通过 MCP 服务器有效地使用 llms.txt
。
🚀 使用 mcpdoc
服务器¶
我们提供了一个专为 LLM 和 IDE 设计的 MCP 服务器,用于服务文档:
👉 langchain-ai/mcpdoc GitHub 仓库
此 MCP 服务器允许将 llms.txt
集成到诸如 Cursor、Windsurf、Claude 和 Claude Code 等工具中。
📘 设置说明和使用示例 可在仓库中找到。
使用 llms-full.txt
¶
LangGraph 的 llms-full.txt
文件通常包含数十万 tokens,超出大多数 LLM 的上下文窗口限制。为了有效使用该文件:
-
使用 IDE(例如 Cursor、Windsurf):
- 将
llms-full.txt
添加为自定义文档。IDE 会自动对内容进行分块和索引,实现检索增强生成(RAG)。
- 将
-
没有 IDE 支持时:
- 使用具有大上下文窗口的聊天模型。
- 实施 RAG 策略以高效管理和查询文档。