跳转至

附录 A:主流框架横向对比

数据截至 2026 年 5 月。GitHub Stars 为近似值,社区活跃度持续变化中。


一、横向对比总表

框架 GitHub Stars 学习曲线 生产成熟度 多 Agent 支持 可观测性集成 License
LangChain ~136K 中等 通过 LangGraph 原生 LangSmith MIT
LangGraph ~15K 中高 原生(多 Agent 图) 原生 LangSmith LangChain 商用许可
LlamaIndex ~46K 低中 中高 Workflow 支持 社区集成(LangFuse 等) MIT
AutoGen ~57K 原生(对话式多 Agent) 社区集成 MIT
CrewAI ~50K 原生(角色分工) 社区集成 MIT
Semantic Kernel ~27K Plugin 组合 Azure Monitor MIT
Dify ~120K+ 中高 工作流编排 内置日志 Apache 2.0
Flowise ~52K 最低 有限支持 无原生 Apache 2.0

二、框架逐一简介

LangChain(langchain-ai/langchain)

定位: LLM 应用开发的事实标准框架,提供 Chain / Agent / Memory 三层抽象。

核心优势: - 生态最大:集成 300+ 工具、50+ LLM Provider - 社区活跃:Issue 响应快、第三方插件丰富 - 抽象完善:从 Prompt 模板到 Output Parser 到 Agent 全链路覆盖

适用场景: 需要高度定制化的 LLM 应用开发,尤其是复杂 Chain 和 Agent 场景。

注意事项: 抽象层较厚,初学者可能觉得概念多、学习曲线陡。


LangGraph(langchain-ai/langgraph)

定位: LangChain 出品的有状态图执行引擎,专为 Agent 场景设计。

核心优势: - 图模型:通过 State → Node → Edge 定义 Agent 执行流程 - 循环与分支:原生支持循环执行和条件边(Conditional Edge) - Checkpoint:内置持久化,支持中断恢复和人工审批 - 可视化:LangGraph Studio 可图形化调试工作流

适用场景: 需要循环、分支、人工介入的复杂 Agent 工作流(如多轮审批、代码生成-审查循环)。

注意事项: 需要理解图执行模型,入门门槛高于 LangChain Chain。


LlamaIndex(run-llama/llama_index)

定位: RAG(检索增强生成)专用框架,聚焦数据索引和检索优化。

核心优势: - RAG 专精:从文档解析、切块、索引到检索、生成全链路优化 - 索引类型丰富:Vector Index、Tree Index、Knowledge Graph Index - Query Engine:高级查询引擎支持多步检索、路由查询 - 近期扩展:支持 Document Agent(让文档数据参与 Agent 推理)

适用场景: 知识库问答、文档检索增强、RAG 系统构建。

注意事项: Agent 能力相对 LangGraph 较弱,适合 RAG 场景而非复杂 Agent 工作流。


AutoGen(microsoft/autogen)

定位: Microsoft 出品的多 Agent 对话框架,以对话驱动 Agent 协作。

核心优势: - ConversableAgent:统一的 Agent 抽象,支持 LLM / 人类 / 代码执行器作为对话方 - GroupChat:原生支持多 Agent 群聊,自动管理和解 - Human-in-the-Loop:可动态插入人工反馈节点 - 代码沙箱:Docker executor 安全执行 Agent 生成的代码

适用场景: 多 Agent 对话协作、代码生成、需要人类介入的场景。

注意事项: 对话式编程模型与传统命令式编程差异大,调试难度较高。Microsoft 正在将其与 Semantic Kernel 整合为统一的 Agent 框架。


CrewAI(crewAIInc/crewai)

定位: 角色分工驱动的 Multi-Agent 协作框架,强调易用性。

核心优势: - Agent / Task / Crew 三层抽象,建模直观 - 角色设计:通过 goal + backstory 定义 Agent 人格,对输出质量有正向影响 - Process 类型:Sequential(流水线)和 Hierarchical(层级)两种协作模式 - 入门简单:API 直观,上手速度快

适用场景: 角色明确的 Multi-Agent 任务(如内容创作团队、研究-写作分工)。

注意事项: 框架迭代较快,生产稳定性待验证;高级能力(如动态路由)不如 LangGraph。


Semantic Kernel(microsoft/semantic-kernel)

定位: Microsoft 推出的 LLM 应用 SDK,支持 C# 和 Python 双语言。

核心优势: - 双语言:C# / Python SDK 并行维护,.NET 生态首选 - Plugin 模型:通过 Plugin 封装工具和记忆,组合式扩展 - Azure 集成:与 Azure OpenAI、Azure AI Search 深度集成 - Planner:内置任务规划器,可将复杂目标分解为步骤

适用场景: .NET 生态中的 LLM 应用开发、Azure 技术栈企业。

注意事项: Python 生态中影响力不及 LangChain/LlamaIndex;正在与 AutoGen 整合。


Dify(langgenius/dify)

定位: 开源 LLM 应用开发平台,提供可视化编排 + API 一体化服务。

核心优势: - 可视化编排:拖拽式工作流搭建,非技术用户也可使用 - 生产级:内置 API 管理、版本控制、团队协作、数据分析 - 多模型支持:OpenAI、Claude、Ollama、本地模型一站式接入 - 开箱即用:Docker 一键部署,自带前端界面

适用场景: 企业级 LLM 应用平台、快速原型搭建、非技术团队协作。

注意事项: 定制化能力不如代码级框架;复杂 Agent 逻辑(循环、条件分支)支持有限。


Flowise(FlowiseAI/flowise)

定位: 开源拖拽式 LLM 应用构建工具,可视化编程。

核心优势: - 拖拽界面:完全无需代码,通过连接节点构建 LLM 流程 - 入门门槛最低:适合非开发者和快速验证 - 模板丰富:内置多种常见应用场景模板 - 轻量部署:Node.js 编写,资源占用少

适用场景: MVP 快速验证、PoC 演示、非技术用户使用。

注意事项: 生产成熟度有限;复杂场景调试困难;多 Agent 支持较弱。


三、选型建议:按场景推荐

场景 推荐框架 理由
快速原型 / MVP Dify / Flowise 可视化编排,无需代码即可验证想法
生产级 Agent LangGraph 有状态图、Checkpoint、人工审批,生产可靠性最高
RAG 专项 LlamaIndex 检索优化最深,索引类型最丰富
多 Agent 对话 AutoGen / CrewAI AutoGen 对话能力强,CrewAI 角色分工直观
企业平台化 Dify 自带 API 管理、权限、监控,最接近产品级
.NET 生态 Semantic Kernel C# 原生支持,Azure 深度集成
高度定制化 LangChain 抽象最全、生态最大,什么都能做

四、快速决策树

你需要可视化界面吗?
├── 是 → 需要生产级功能(API 管理/团队协作)吗?
│   ├── 是 → Dify
│   └── 否 → Flowise
└── 否 → 主要是 RAG 场景吗?
    ├── 是 → LlamaIndex
    └── 否 → 需要多 Agent 协作吗?
        ├── 是 → 角色分工为主?
        │   ├── 是 → CrewAI
        │   └── 否 → AutoGen
        └── 否 → 需要循环/分支/人工审批吗?
            ├── 是 → LangGraph
            └── 否 → LangChain