附录 A:主流框架横向对比
数据截至 2026 年 5 月。GitHub Stars 为近似值,社区活跃度持续变化中。
一、横向对比总表
| 框架 | GitHub Stars | 学习曲线 | 生产成熟度 | 多 Agent 支持 | 可观测性集成 | License |
|---|---|---|---|---|---|---|
| LangChain | ~136K | 中等 | 高 | 通过 LangGraph | 原生 LangSmith | MIT |
| LangGraph | ~15K | 中高 | 高 | 原生(多 Agent 图) | 原生 LangSmith | LangChain 商用许可 |
| LlamaIndex | ~46K | 低中 | 中高 | Workflow 支持 | 社区集成(LangFuse 等) | MIT |
| AutoGen | ~57K | 高 | 中 | 原生(对话式多 Agent) | 社区集成 | MIT |
| CrewAI | ~50K | 低 | 中 | 原生(角色分工) | 社区集成 | MIT |
| Semantic Kernel | ~27K | 中 | 中 | Plugin 组合 | Azure Monitor | MIT |
| Dify | ~120K+ | 低 | 中高 | 工作流编排 | 内置日志 | Apache 2.0 |
| Flowise | ~52K | 最低 | 中 | 有限支持 | 无原生 | Apache 2.0 |
二、框架逐一简介
LangChain(langchain-ai/langchain)
定位: LLM 应用开发的事实标准框架,提供 Chain / Agent / Memory 三层抽象。
核心优势: - 生态最大:集成 300+ 工具、50+ LLM Provider - 社区活跃:Issue 响应快、第三方插件丰富 - 抽象完善:从 Prompt 模板到 Output Parser 到 Agent 全链路覆盖
适用场景: 需要高度定制化的 LLM 应用开发,尤其是复杂 Chain 和 Agent 场景。
注意事项: 抽象层较厚,初学者可能觉得概念多、学习曲线陡。
LangGraph(langchain-ai/langgraph)
定位: LangChain 出品的有状态图执行引擎,专为 Agent 场景设计。
核心优势: - 图模型:通过 State → Node → Edge 定义 Agent 执行流程 - 循环与分支:原生支持循环执行和条件边(Conditional Edge) - Checkpoint:内置持久化,支持中断恢复和人工审批 - 可视化:LangGraph Studio 可图形化调试工作流
适用场景: 需要循环、分支、人工介入的复杂 Agent 工作流(如多轮审批、代码生成-审查循环)。
注意事项: 需要理解图执行模型,入门门槛高于 LangChain Chain。
LlamaIndex(run-llama/llama_index)
定位: RAG(检索增强生成)专用框架,聚焦数据索引和检索优化。
核心优势: - RAG 专精:从文档解析、切块、索引到检索、生成全链路优化 - 索引类型丰富:Vector Index、Tree Index、Knowledge Graph Index - Query Engine:高级查询引擎支持多步检索、路由查询 - 近期扩展:支持 Document Agent(让文档数据参与 Agent 推理)
适用场景: 知识库问答、文档检索增强、RAG 系统构建。
注意事项: Agent 能力相对 LangGraph 较弱,适合 RAG 场景而非复杂 Agent 工作流。
AutoGen(microsoft/autogen)
定位: Microsoft 出品的多 Agent 对话框架,以对话驱动 Agent 协作。
核心优势: - ConversableAgent:统一的 Agent 抽象,支持 LLM / 人类 / 代码执行器作为对话方 - GroupChat:原生支持多 Agent 群聊,自动管理和解 - Human-in-the-Loop:可动态插入人工反馈节点 - 代码沙箱:Docker executor 安全执行 Agent 生成的代码
适用场景: 多 Agent 对话协作、代码生成、需要人类介入的场景。
注意事项: 对话式编程模型与传统命令式编程差异大,调试难度较高。Microsoft 正在将其与 Semantic Kernel 整合为统一的 Agent 框架。
CrewAI(crewAIInc/crewai)
定位: 角色分工驱动的 Multi-Agent 协作框架,强调易用性。
核心优势: - Agent / Task / Crew 三层抽象,建模直观 - 角色设计:通过 goal + backstory 定义 Agent 人格,对输出质量有正向影响 - Process 类型:Sequential(流水线)和 Hierarchical(层级)两种协作模式 - 入门简单:API 直观,上手速度快
适用场景: 角色明确的 Multi-Agent 任务(如内容创作团队、研究-写作分工)。
注意事项: 框架迭代较快,生产稳定性待验证;高级能力(如动态路由)不如 LangGraph。
Semantic Kernel(microsoft/semantic-kernel)
定位: Microsoft 推出的 LLM 应用 SDK,支持 C# 和 Python 双语言。
核心优势: - 双语言:C# / Python SDK 并行维护,.NET 生态首选 - Plugin 模型:通过 Plugin 封装工具和记忆,组合式扩展 - Azure 集成:与 Azure OpenAI、Azure AI Search 深度集成 - Planner:内置任务规划器,可将复杂目标分解为步骤
适用场景: .NET 生态中的 LLM 应用开发、Azure 技术栈企业。
注意事项: Python 生态中影响力不及 LangChain/LlamaIndex;正在与 AutoGen 整合。
Dify(langgenius/dify)
定位: 开源 LLM 应用开发平台,提供可视化编排 + API 一体化服务。
核心优势: - 可视化编排:拖拽式工作流搭建,非技术用户也可使用 - 生产级:内置 API 管理、版本控制、团队协作、数据分析 - 多模型支持:OpenAI、Claude、Ollama、本地模型一站式接入 - 开箱即用:Docker 一键部署,自带前端界面
适用场景: 企业级 LLM 应用平台、快速原型搭建、非技术团队协作。
注意事项: 定制化能力不如代码级框架;复杂 Agent 逻辑(循环、条件分支)支持有限。
Flowise(FlowiseAI/flowise)
定位: 开源拖拽式 LLM 应用构建工具,可视化编程。
核心优势: - 拖拽界面:完全无需代码,通过连接节点构建 LLM 流程 - 入门门槛最低:适合非开发者和快速验证 - 模板丰富:内置多种常见应用场景模板 - 轻量部署:Node.js 编写,资源占用少
适用场景: MVP 快速验证、PoC 演示、非技术用户使用。
注意事项: 生产成熟度有限;复杂场景调试困难;多 Agent 支持较弱。
三、选型建议:按场景推荐
| 场景 | 推荐框架 | 理由 |
|---|---|---|
| 快速原型 / MVP | Dify / Flowise | 可视化编排,无需代码即可验证想法 |
| 生产级 Agent | LangGraph | 有状态图、Checkpoint、人工审批,生产可靠性最高 |
| RAG 专项 | LlamaIndex | 检索优化最深,索引类型最丰富 |
| 多 Agent 对话 | AutoGen / CrewAI | AutoGen 对话能力强,CrewAI 角色分工直观 |
| 企业平台化 | Dify | 自带 API 管理、权限、监控,最接近产品级 |
| .NET 生态 | Semantic Kernel | C# 原生支持,Azure 深度集成 |
| 高度定制化 | LangChain | 抽象最全、生态最大,什么都能做 |
四、快速决策树
你需要可视化界面吗?
├── 是 → 需要生产级功能(API 管理/团队协作)吗?
│ ├── 是 → Dify
│ └── 否 → Flowise
└── 否 → 主要是 RAG 场景吗?
├── 是 → LlamaIndex
└── 否 → 需要多 Agent 协作吗?
├── 是 → 角色分工为主?
│ ├── 是 → CrewAI
│ └── 否 → AutoGen
└── 否 → 需要循环/分支/人工审批吗?
├── 是 → LangGraph
└── 否 → LangChain