华为云Flexus+DeepSeek征文|10分钟基于华为云一键单机部署极速搭建Dify-LLM应用开发平台 – 智能AI客服助手Agent开发 (三)
摘要 本文介绍如何在Dify平台上搭建AI Agent智能客服应用。主要内容包括: 创建空白应用:Dify提供四种应用类型(聊天助手、Agent、文本生成、Chatflow),用户可根据需求选择Agent类型。 配置Agent:通过可视化界面设置应用信息,使用提示词生成器优化指令,配置模型参数和知识库检索(支持RAG Pipeline)。 发布与优化:调试后发布为Web应用,可调整变量必填设置和回
前言:
随着生成式 AI 的迅速崛起,基于强化学习的大型语言模型(LLMs)如 OpenAI 的 o1 和 DeepSeek-R1 在推理方面表现出色,这进步标志着 AI 应用正朝着独立执行复杂任务的方向转变。

基于华为云一键单机部署极速搭建Dify-LLM应用开发平台,提供了一个灵活的开发框架,集成了日益强大的模型、工具、决策逻辑和数据库,持续增强 AI 核心能力,使开发更加高效和智能,同时应对复杂需求。
鉴于 AI 的多样化应用,单一平台无法满足所有需求,标准化接口和通信协议的重要性凸显。Dify 旨在构建一个开放、共享和充满活力的生态系统,Dify、社区开发者、企业和第三方平台的组件可以无缝集成,推动价值和资源共享。最终,Dify 希望加速 AI 部署并推动创新。

Dify平台提供了丰富的“探索”(Explore)部分,其中包含多个代理助理的应用模板,可以直接将这些模板集成到自己的工作区中,快速开始使用,同时,还允许用户创建自定义代理助理,以满足个性化的需求。
一、创建智能客服AI Agent应用(Dify + Agent):
如何在Dify平台搭建Agent? 在Dify平台上,通过选择模型、编写提示、添加工具与知识库、配置推理模式及对话开启器,最后进行调试预览并发布为Webapp,实现Agent的创建与部署。
前面2个章节,我们已经完成了知识库的搭建、Dify集成DeepSeek V3商用模型,接下来在知识库配置完成后,可以进行AI Agent的搭建,就可以创建一个AI Agent,创建空白应用。
1.1 创建空白应用:
在完成模型配置与知识库构建后,用户可以进入“应用”模块,dify提供大量开箱即用的模板应用,如果在搜索页没有找到合适的模板,也可以自己创建应用。

在 Dify 平台中,可以基于不同的需求选择以下四种应用类型来构建自己的智能助手:
- ①. 聊天助手:通过简单配置提示词和知识库,快速构建基础对话机器人,支持单轮问答与多轮上下文保持,简单配置即可构建基于 LLM 的对话机器人。
- ②. Agent:具备自主推理能力,支持调用API工具(如联网搜索、数据库查询)完成复杂任务,具备推理与自主工具调用的智能助手。
- ③. 文本生成应用:专注结构化文本输出,支持模板化内容生成(如邮件、文案、代码),用于文本生成任务的 AI 助手。
- ④. Chatflow:面向多轮交互的流程引擎,可追踪对话状态与用户偏好,支持记忆的复杂多轮对话工作流。
- ⑤. 工作流:单轮任务自动化编排,整合数据处理、模型调用与结果输出,面向单轮自动化任务的编排工作流。
1.2 选择Agent应用类型:
在创建空应用中,我们可以通过平台的可视化界面,依次设置应用名称、图标(系统提供的图太丑了)、描述、应用类型,就可以进行一个应用的创建了。

我们在界面上,在编排位置的“提示词”可以使用AI生成配置,可以使用提示词生成器,用配置的DeepSeek V3商用模型来优化提示词,以获得质量更高、更全、更细的数据结构。

Dify提示词生成器是专为AI模型交互设计的结构化指令构建工具,其核心功能与特点如下:
- ①. 功能定位:
生成符合特定格式的AI指令(如Stable Diffusion参数、客服话术模板),通过变量插槽(如{{style}})实现动态内容替换。
- ②. 技术特性
支持多模态提示词(文本/图像参数混合编排)。
该工具在Dify平台通过“文本生成应用”类型可实现几分钟快速部署,用户仅需定义系统提示词模板即可构建专属生成器,编写提示与设置流程,在“提示”部分,用户可以详细编写代理助理的任务目标、工作流程、所需资源和限制条件等提示信息,这些信息将帮助代理助理更好地理解并执行任务。

<instruction>
你是一个专业的爱肯拿宠物知识客服助手,需要结合知识库回答用户提出的宠物相关问题。请按照以下步骤处理:
1. 仔细阅读用户问题 {{user_question}},识别问题中的关键信息(如宠物类型、具体症状、产品咨询等)
2. 从爱肯拿知识库中检索最相关的信息 {{knowledge_base}},确保回答专业准确
3. 组织回答时:
- 先确认问题理解是否正确
- 提供简明专业的解答
- 可适当补充相关知识但不偏离主题
- 保持友好亲切的语气
4. 如遇无法回答的问题,应礼貌说明并建议咨询兽医
5. 最终回答不要包含任何XML标签
注意:
- 回答使用中文
- 专业术语需解释清楚
- 涉及健康问题时必须声明"建议咨询兽医"
</instruction>
<input>
用户问题:{{user_question}}
知识库内容:{{knowledge_base}}
</input>
<example>
用户问题:爱肯拿猫粮适合幼猫吃吗?
知识库内容:爱肯拿有专门针对幼猫的FirstKitten系列,含90%动物成分,DHA促进大脑发育...
输出:您好!爱肯拿确实有专门为幼猫设计的产品线FirstKitten系列,含有90%优质动物成分,特别添加DHA帮助幼猫大脑发育。不过建议根据猫咪具体年龄和健康状况选择,如有疑问可以咨询兽医。
</example>
<output>
请生成专业友好的回答,不要包含任何XML标签
</output>
在右上角,可以灵活配置多项关键参数,以优化的聊天体验。可以选择所使用的大型语言模型,根据需求挑选最适合的模型,确保对话的精准与流畅。同时,引用知识库资源的配置能随时更新信息,保证对话内容基于最新、最准确的数据。

此外,聊天上下文窗口的长度设置允许控制对话历史记录的深度,从而获取更贴合上下文的回应。而模型输出格式的调整功能,则根据需要,以最便捷的方式接收信息,无论是纯文本、HTML还是其他格式,都能轻松应对。

以下可以预设定一些变量值,这里可以将变量改为可选参数,否则就是必填写参数,那么只能针对一些收集表单的场景比较适用,在节点设置面板,可以添加知识库,接下来可以添加之前上传的知识库,通过选择引用知识库文件,即可添加进来知识库。

知识库提供了RAG Pipeline的整套工程能力,对文本进行指定的切分清洗和向量化处理。同时,我们可以定义Pipeline的具体规则,调整合适的相似度阈值(Score阈值) 和 最相似分片(Top K)的数量。
知识检索会根据输入从知识库匹配最相关的数个内容片段,为大模型引入这些片段,从而可以有效地抑制大模型的幻觉问题,令回答更具参考性。
1.3 智能体应用程序发布:
在将AI智能体发布为应用程序之前,用户可以在Dify平台上进行调试和预览,以评估其完成任务的有效性和准确性。

一旦配置完成并经过调试,用户就可以将其发布为Web应用程序(Webapp),供更多人使用。这将使得AI智能体的功能和服务能够跨平台、跨设备地提供给更广泛的用户群体。
1.4 体验客服智能助手智能体:
在点击“发布更新”后,就可以看到自己发布的智能体进行体验了,但是这里可以发现必须要填写这2个参数,才能点击下面方框,那么我不想这样,怎么弄呢?

可以在变量这里,将鼠标移动到变量的上面,有一个编辑的图标按钮,点击后在编辑变量的弹框中,可以将必填写字段勾选掉,不是必填的字段。

当我们修改上面的非必填写的字段后,我们可以进行在输入直接搜索了,但是我们可以看到给出的结果是带有英文的,这样对客户不是太友好,可不可以修改一下呢?

那我们在提示词这里增加一些指令“不要使用英文回答”,这样看看能不能把英文的回答过滤一下呢?再次点击“发布”后,即可把刚刚修改的内容进行保存。

再次进行问答的时候,就可以看到没有英文的提示了,而且也是看到匹配到知识库的检索了,RAG pipeline 是指检索增强生成(Retrieval-Augmented Generation)管道,它是一种结合了检索和生成模型能力的创新方法,用于在自然语言处理任务中实现更精准、更相关的上下文响应。

二、Dify进阶 - 工作流Chatflow:
基于工作流编排,适用于定义等复杂流程的多轮对话场景,具有记忆功能,面向对话类情景,包括客户服务、语义搜索、以及其他需要在构建响应时进行多步逻辑的对话式应用程序。

创建成功后,添加第一个节点“知识索引”,将之前添加进来的知识库全部选中,添加进来,默认会有一个sys.query代表用户输入,暂时使用这个即可,可以添加其他变量,如用户ID等,但为了快速入门,先保持简单。

2.1 添加「知识库检索」节点的步骤:
- ①. 点击画布上的“+”号,搜索并选择“知识库检索”节点。
- ②. 将其连接在“开始”节点之后(从“开始”节点的输出点拖拽连线到“知识库检索”节点的输入点)。
- ③. 点击“知识库检索”节点。在右侧面板,选择你预先创建好的知识库(如果还没有,需要先去“知识库”菜单创建一个,并上传FAQ文档或数据)。
- ④. 设置检索模式(通常“向量+全文”或“向量”即可)和召回策略(如Top K=3,表示召回最相关的3条知识)。
- ⑤. 设置“用户问题”输入变量为 {{sys.query}} (引用“开始”节点的输出)。

2.2 添加「LLM大模型」节点的步骤:
通过Dify平台,配合华为云Flexus与DeepSeek引擎,客服智能咨询AI Agent的构建流程简洁高效,该类型应用的特点在于支持对生成的结果进行多轮对话交互,调整生成的结果。

点击“+”号,搜索并选择“LLM”(大语言模型)节点。点击“LLM”节点。这里点击提示词生成器中的AI生成,在输入一些指令后,我们可以通过AI来生成对应的提示词。
-
①. 角色设定 (System Prompt):
你是一个耐心、友好、专业的爱肯拿问答智能客服助手。请根据用户的问题和可能提供的知识库信息,清晰、简洁地回答用户。 -
②. 用户输入 (User Prompt): (这里需要引用前面的节点输出)
如果使用了知识库检索:将知识库的知识检索结果添加到上下文,并在user中引用。
2.3 添加「条件判断」节点:
点击“+”号,搜索并选择“If/Else”或“条件判断”节点。将其连接在“LLM”节点之后。点击“条件判断”节点:
-
①. 分支一 (需要转人工):
条件设置: 选择sys.query (用户原始问题) 作为输入变量。设置条件为包含 (contains) 以下任一关键词: 投诉, 人工, 转人工。 -
②. 分支二 (默认/直接回答):这是 Else 或默认分支。

2.4 添加「模板转换」节点:
模板节点允许你借助 Jinja2 这一强大的 Python 模板语言,在工作流内实现轻量、灵活的数据转换,适用于文本处理、JSON 转换等情景。

例如灵活地格式化并合并来自前面步骤的变量,创建出单一的文本输出。这非常适合于将多个数据源的信息汇总成一个特定格式,满足后续步骤的需求,这里可以利用在线体验,给我们搜索一个客服回复的专业模板。
尊敬的客户,感谢您反馈问题!您这次的咨询是{{ arg1 }}我们对此次不愉快的体验深表歉意。
为确保您的权益,我已将问题升级至质检部门优先处理,并为您申请[补偿方案,如退款/换货]。
处理进度将在24小时内通过[13800000000]同步您,烦请留意。
如有其他需求,可随时联系我(工号1527)。

这里可以将一些客服的固定格式的模板来进行定制化的输出,比如有一些变量可以放到公共的环境变量中,也是一种方案。这里使用{{ 变量名称 }}即可将变量进行输出。

可以进行本节点测试一下,当我输入什么样的问题后,会针对我的问题进行返回,并且将定制化的模板进行返回给我。
2.5 添加「结束」节点:
定义一个 Chatflow 流程中的回复内容,可以在文本编辑器中自由定义回复格式,包括自定义一段固定的文本内容、使用前置步骤中的输出变量作为回复内容、或者将自定义文本与变量组合后回复,如:
- ①. 输出 LLM 节点回复内容
- ②. 输出生成图片
- ③. 输出纯文本

工作流需要一个或多个“结束”节点来定义最终输出,将其连接在“条件判断”节点的“直接回答”分支输出点之后,连接所有节点,确保所有节点都已按逻辑顺序正确连接。从“开始”到可能的“知识库检索”到“LLM”到“条件判断”,再到各自的“结束”节点。

直接回复节点可以不作为最终的输出节点,作为流程过程节点时,可以在中间步骤流式输出结果,可随时加入节点将内容流式输出至对话回复,支持所见即所得配置模式并支持图文混排。

2.6 测试与调试:
点击编辑器右上角的“预览”按钮,在右侧弹出的测试窗口中,输入一个测试问题,点击“运行”,观察流程执行路径(节点会高亮)和每个节点的输入输出,检查最终“结束”节点的输出是否符合预期。

尝试一个触发转人工的问题,例如“投诉”。再次运行,检查是否走向了“转人工”分支并输出了对应提示,如果遇到问题,检查节点连接、变量引用(特别是 {{变量名}} 的拼写和来源)以及Prompt配置。

2.7 发布:
测试无误后,点击页面右上角的“发布-发布更新”按钮,智能客服工作流现在可以通过API或其他集成方式被调用了。

三、总结:
华为云Flexus X实例提供高性能计算资源,结合DeepSeek-V3/R1大模型的推理能力,通过Dify平台实现低代码AI应用开发。该方案支持单机一键部署,10分钟内完成环境搭建,包含MySQL、Redis等组件自动配置。Dify作为开源平台,集成了多模态模型支持、可视化工作流编排和知识库管理三大核心模块。
3.1 智能客服开发流程:
-
①. 应用创建:
提供5种应用模板:聊天助手、Agent、文本生成、Chatflow和工作流,支持自定义提示词生成器优化交互逻辑,示例宠物客服模板包含XML结构化指令,定义问题解析、知识库检索、回答生成全流程。 -
②. 知识库集成:
支持RAG Pipeline实现向量化检索,可调相似度阈值(Score)和返回片段数(Top K),通过知识片段注入有效抑制大模型幻觉,提升回答准确性。 -
③. 工作流编排:
知识检索节点:配置向量/全文混合检索模式,LLM节点:引用DeepSeek模型,设置系统提示词和知识库上下文,条件判断节点:实现关键词触发转人工等分流逻辑。
完成调试后可直接发布为WebApp,支持API集成和跨平台访问。华为云ModelArts Studio提供DeepSeek模型压缩部署方案,降低推理资源消耗。
客户咨询 → 知识库检索 → LLM生成回答 → 条件判断 → 输出响应/转人工
828 B2B企业节已经开幕,汇聚千余款华为云旗下热门数智产品,更带来满额赠、专属礼包、储值返券等重磅权益玩法,是中小企业和开发者上云的好时机,建议密切关注官方渠道,及时获取最新活动信息,采购最实惠的云产品和最新的大模型服务!
更多推荐

所有评论(0)