LazyLLM 是商汤科技大装置事业群开源的低代码多 Agent 大模型应用开发框架,核心目标是降低 AI 应用开发门槛,让开发者以极少代码(低至 10 行)、“搭积木” 式快速构建复杂的多 Agent 应用,同时支持灵活迭代与跨平台部署。

一、核心定位

  • 开发主体:商汤科技大装置事业群,沉淀内部 AI Native 开发范式与经验开源。
  • 核心价值:解决开发者 “代码量大、工程化复杂、迭代效率低” 的痛点,无需深厚大模型技术背景,即可实现多 Agent、RAG、多模态等复杂应用落地。
  • 适用人群:从初学者到专业开发者,覆盖快速原型验证、企业级应用开发等场景。

二、核心特性

1. 低代码积木式开发

  • 提供 Pipeline(管道)、Parallel(并行)、Diverter(分流)、Loop(循环) 等标准化工作流组件,支持任意函数 / 模块的灵活组合。
  • 示例:通过ReactAgent组件快速组装 “大模型 + 工具” 的 Agent 应用,仅需注册工具、配置 Prompt 即可实现交互逻辑。

2. 多 Agent 与跨平台兼容

  • 原生支持多 Agent 协同架构,可实现意图识别、知识库检索、多模型调用的串联。
  • 跨环境无缝迁移:无需修改代码,即可在Windows/macOS/Linux系统,或裸金属服务器、Slurm 集群、公有云等 IaaS 平台部署。

3. 模型与检索灵活集成

  • 多平台模型支持:在线调用 OpenAI、智谱、Kimi、豆包、商汤日日新等平台模型,离线支持本地模型推理与微调。
  • 内置 RAG 全流程能力:覆盖文档解析(支持 PDF/DOCX/PPT 等格式)、Embedding(在线 / 离线模型)、检索(BM25 / 余弦相似度)、重排(Reranker 组件),并提供 “多路召回、小块检索 + 大块生成” 等优化策略。

4. 高效迭代与优化

  • 自动参数优化:支持网格搜索,自动尝试不同基模型、检索策略、微调参数,快速找到最佳配置。
  • 轻量化微调:根据场景自动选择最佳微调框架与模型切分策略,减少工程化工作量。
  • 可扩展性强:新增模型源 / 工具仅需添加对应模块(如 OnlineChatModule 通过动态类加载,无需修改核心代码即可新增模型平台)。

三、关键功能模块

LazyLLM 通过模块化设计降低开发复杂度,核心模块如下:

模块名称 核心作用
OnlineChatModule 在线大模型调用入口,支持日日新、OpenAI、智谱等 6 + 平台,需配置对应 API Key。
Document 文档处理核心组件,支持多格式文档解析、多粒度切片(128/256/1024 字符块)、节点组管理。
EmbeddingModule 向量生成组件,分在线(调用平台 Embedding 模型)、离线(本地模型)两种模式。
Retriever 检索组件,支持 BM25 / 余弦相似度计算,可指定检索节点组、TopK 数量与相似度阈值。
Reranker 检索结果重排组件,支持在线(qwen/glm)、离线(bge-reranker 系列)模型,提升检索精度。
ReactAgent 智能体核心组件,可绑定大模型、注册工具(如 RAG 检索、天气查询),实现 “思考 - 调用工具 - 生成回答” 逻辑。
WebModule

前端部署组件,一键生成 Web 交互界面,支持指定端口与标题,快速实现应用可视化。

四、典型应用场景

1. 快速 Agent 部署(如天气查询工具)

  • 流程:通过@fc_register注册 “天气查询工具”,用ReactAgent绑定OnlineChatModule与工具,搭配WebModule生成前端界面。
  • 核心代码:仅需 50 行左右,即可实现 “用户输入城市→Agent 调用工具→返回天气 + 出行建议” 的完整交互。

2. 本地知识库 RAG 应用

  • 流程:Document加载本地文档→EmbeddingModule生成向量→Retriever检索相关片段→ReactAgent结合 RAG 结果生成回答。
  • 优化能力:支持 “多路召回(多节点组 / 多检索策略)+ 重排”,减少 LLM 幻觉,提升回答准确性(如解析 LightRAG 论文后,可精准回答其创新点)。

3. 多模态与复杂流程应用

  • 支持图像、音频等多模态数据接入,结合多 Agent 协同(如 “意图识别 Agent→检索 Agent→生成 Agent”),实现客服机器人、科研助手等场景。

Logo

更多推荐