Semantic Kernel:微软开源AI智能体编排框架全面解析

【免费下载链接】semantic-kernel Integrate cutting-edge LLM technology quickly and easily into your apps 【免费下载链接】semantic-kernel 项目地址: https://gitcode.com/GitHub_Trending/se/semantic-kernel

Semantic Kernel是微软开源的企业级AI智能体编排框架,旨在帮助开发者快速集成大语言模型技术到应用程序中。作为模型无关的SDK,它为构建、编排和部署AI智能体及多智能体系统提供了强大的基础设施。框架采用解耦与编排的设计理念,支持多模型连接、插件生态系统和多模态处理,具备企业级可靠性、开发效率提升、多智能体协作和本地部署支持等核心价值。

Semantic Kernel项目概述与核心价值

Semantic Kernel(语义内核)是微软开源的一款企业级AI智能体编排框架,旨在帮助开发者快速、轻松地将前沿的大语言模型(LLM)技术集成到应用程序中。作为模型无关的SDK,它为构建、编排和部署AI智能体及多智能体系统提供了强大的基础设施。

项目定位与设计理念

Semantic Kernel的核心设计理念是解耦与编排。它将复杂的AI应用拆分为可组合的模块化组件,通过统一的编排层实现智能协作。这种设计使得开发者能够:

  • 模型灵活性:支持连接任何LLM,内置对OpenAI、Azure OpenAI、Anthropic Claude、Google Gemini等主流模型的支持
  • 插件生态系统:通过原生代码函数、提示模板、OpenAPI规范和模型上下文协议(MCP)进行扩展
  • 多模态支持:处理文本、视觉和音频输入,实现真正的多模态AI应用

核心架构与组件

Semantic Kernel采用分层架构设计,主要包含以下核心组件:

mermaid

核心技术价值

1. 企业级可靠性

Semantic Kernel专为企业环境设计,具备以下关键特性:

特性 描述 企业价值
可观测性 内置遥测和监控支持 生产环境故障排查和性能优化
安全性 安全的API设计和数据保护 符合企业安全合规要求
稳定API 向后兼容的稳定接口 降低升级成本和风险
扩展性 模块化架构和插件系统 适应不断变化的业务需求
2. 开发效率提升

通过提供统一的编程模型和丰富的工具链,Semantic Kernel显著提升了AI应用开发效率:

# 示例:快速创建AI智能体
from semantic_kernel.agents import ChatCompletionAgent
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion

# 初始化聊天智能体
agent = ChatCompletionAgent(
    service=AzureChatCompletion(),
    name="SK-Assistant",
    instructions="您是一个有帮助的助手",
    plugins=[MenuPlugin(), DatabasePlugin()]
)

# 获取响应
response = await agent.get_response("帮我查询今天的特价菜品")
3. 多智能体协作

Semantic Kernel支持复杂的多智能体工作流,不同专业领域的智能体可以协同工作:

mermaid

4. 本地部署支持

对于有数据隐私和安全要求的企业,Semantic Kernel提供完整的本地部署方案:

  • Ollama集成:支持本地运行的Ollama模型
  • LMStudio兼容:与LMStudio桌面应用无缝集成
  • ONNX运行时:支持ONNX格式的模型部署
  • 容器化部署:支持Docker和Kubernetes部署

实际应用场景

Semantic Kernel适用于多种企业级AI应用场景:

  1. 智能客服系统:构建能够处理复杂查询的多技能客服助手
  2. 业务流程自动化:自动化重复性工作流程,提高运营效率
  3. 知识管理与检索:构建企业知识库和智能检索系统
  4. 代码辅助开发:AI编程助手和代码审查工具
  5. 数据分析与洞察:智能数据分析和业务洞察生成

生态系统与社区支持

作为微软开源项目,Semantic Kernel拥有活跃的社区和丰富的生态系统:

  • 多语言支持:Python、.NET、Java三大主流语言SDK
  • 丰富的文档:详细的开发指南、API文档和最佳实践
  • 活跃社区:GitHub讨论区、Discord社区和定期更新
  • 企业支持:微软官方技术支持和企业级服务

技术优势对比

与传统AI集成方案相比,Semantic Kernel提供显著的技术优势:

特性 传统方案 Semantic Kernel
开发复杂度 高,需要手动处理各种集成细节 低,提供统一的编程模型
可维护性 差,代码耦合度高 优秀,模块化设计
扩展性 有限,需要大量自定义开发 强大,丰富的插件生态系统
部署灵活性 受限,通常绑定特定云服务 灵活,支持多云和本地部署
企业特性 需要额外开发 内置可观测性、安全性等企业特性

通过上述分析可以看出,Semantic Kernel不仅仅是一个技术框架,更是企业数字化转型中AI能力建设的战略基础设施。它降低了AI技术的使用门槛,让更多开发者和企业能够充分利用大语言模型的强大能力,构建智能化的下一代应用程序。

多语言支持与跨平台特性分析

Semantic Kernel作为微软开源的AI智能体编排框架,其核心设计理念之一就是提供全面的多语言支持和跨平台兼容性。这一特性使得开发者能够在不同的技术栈和操作系统环境中无缝集成AI能力,大大降低了企业级应用开发的门槛。

多语言SDK支持矩阵

Semantic Kernel目前提供三种主流编程语言的官方SDK支持,形成了一个完整的多语言生态系统:

语言平台 最低版本要求 包管理器 官方支持状态 主要特性
Python 3.10+ pip/pypi ⭐⭐⭐⭐⭐ 完整的AI代理功能、插件系统、流式处理
.NET .NET 8.0+ NuGet ⭐⭐⭐⭐⭐ 强类型支持、企业级特性、高性能
Java JDK 17+ Maven/Gradle ⭐⭐⭐⭐ 企业级集成、Spring生态兼容

mermaid

跨平台架构设计

Semantic Kernel采用分层架构设计,确保在不同操作系统和环境中的一致性表现:

核心层架构:

# 核心抽象层示例
class Kernel:
    """跨平台核心抽象"""
    def __init__(self, plugins=None, services=None):
        self.plugins = plugins or {}
        self.services = services or {}
        self.ai_service_selector = None
    
    async def invoke(self, function, arguments=None):
        """统一的函数调用接口"""
        # 跨平台实现
        pass
    
    def as_mcp_server(self, server_name="Semantic Kernel MCP Server"):
        """模型上下文协议服务器"""
        # 跨语言通信支持
        pass

统一的API设计模式

尽管支持多种语言,Semantic Kernel保持了高度一致的API设计模式:

Python示例:

import asyncio
from semantic_kernel.agents import ChatCompletionAgent
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion

async def main():
    agent = ChatCompletionAgent(
        service=AzureChatCompletion(),
        name="SK-Assistant",
        instructions="You are a helpful assistant.",
    )
    response = await agent.get_response("Write a haiku about Semantic Kernel.")
    print(response.content)

.NET示例:

using Microsoft.SemanticKernel;
using Microsoft.SemanticKernel.Agents;

var builder = Kernel.CreateBuilder();
builder.AddAzureOpenAIChatCompletion(
    Environment.GetEnvironmentVariable("AZURE_OPENAI_DEPLOYMENT"),
    Environment.GetEnvironmentVariable("AZURE_OPENAI_ENDPOINT"),
    Environment.GetEnvironmentVariable("AZURE_OPENAI_API_KEY")
);
var kernel = builder.Build();

ChatCompletionAgent agent = new()
{
    Name = "SK-Agent",
    Instructions = "You are a helpful assistant.",
    Kernel = kernel,
};

平台特性对比分析

不同语言SDK在保持核心功能一致的同时,也针对各自生态系统的特点进行了优化:

Python SDK优势:

  • 丰富的AI生态系统集成
  • 简洁的异步编程模型
  • 强大的科学计算库支持
  • Jupyter Notebook友好

.NET SDK优势:

  • 强类型安全和编译时检查
  • 出色的性能和内存管理
  • 企业级开发工具链
  • Azure云服务深度集成

Java SDK优势:

  • 企业级应用架构支持
  • 微服务和容器化部署
  • 丰富的中间件生态
  • 大规模系统稳定性

跨语言互操作机制

Semantic Kernel通过多种机制实现跨语言互操作:

  1. 统一的数据模型:所有SDK使用相同的数据结构和序列化格式
  2. REST API网关:提供HTTP接口用于语言间通信
  3. gRPC服务:高性能的跨语言RPC框架
  4. 模型上下文协议(MCP):标准化的工具调用协议

mermaid

开发体验一致性

尽管底层实现不同,但Semantic Kernel确保了跨语言的开发体验一致性:

插件开发模式:

# Python插件示例
class MenuPlugin:
    @kernel_function(description="Provides menu specials.")
    def get_specials(self) -> str:
        return "Special Soup: Clam Chowder\nSpecial Salad: Cobb Salad"
// .NET插件示例
public class MenuPlugin
{
    [KernelFunction, Description("Provides menu specials.")]
    public string GetSpecials() => 
        "Special Soup: Clam Chowder\nSpecial Salad: Cobb Salad";
}

企业级部署支持

在多语言支持的基础上,Semantic Kernel提供了完整的企业级部署方案:

容器化部署:

# 多语言容器示例
FROM python:3.10-slim as python-runtime
COPY requirements.txt .
RUN pip install -r requirements.txt

FROM mcr.microsoft.com/dotnet/sdk:8.0 as dotnet-build
WORKDIR /src
COPY . .
RUN dotnet publish -c Release -o /app

FROM openjdk:17-jdk-slim as java-runtime
COPY target/*.jar /app.jar

微服务架构: mermaid

性能与扩展性考量

在多语言环境中,Semantic Kernel通过以下机制确保性能和扩展性:

  1. 语言特定优化:每个SDK都针对目标语言进行了性能优化
  2. 异步处理模型:统一的异步编程模式避免阻塞
  3. 内存管理:针对不同语言的内存特性进行优化
  4. 连接池管理:高效的资源复用机制

生态系统集成能力

Semantic Kernel的多语言支持使其能够无缝集成到各种技术生态中:

Python生态系统:

  • NumPy/Pandas数据处理
  • PyTorch/TensorFlow模型集成
  • FastAPI/Flask Web框架

.NET生态系统:

  • ASP.NET Core Web应用
  • Entity Framework数据访问
  • Azure云服务集成

Java生态系统:

  • Spring Boot微服务
  • Hibernate数据持久化
  • Kubernetes容器编排

这种全面的多语言支持和跨平台特性使Semantic Kernel成为企业级AI应用开发的理想选择,无论是初创公司还是大型企业,都能找到适合自己技术栈的解决方案。

企业级AI应用开发架构设计

在企业级AI应用开发中,架构设计是确保系统可扩展性、可靠性和可维护性的关键。Semantic Kernel作为一个企业级的AI智能体编排框架,提供了完整的架构解决方案,支持从简单的聊天机器人到复杂的多智能体系统的构建。

核心架构组件

Semantic Kernel的企业级架构基于以下几个核心组件:

mermaid

多智能体系统架构

在企业级应用中,多智能体协作是常见需求。Semantic Kernel提供了强大的多智能体编排能力:

mermaid

可扩展性设计

Semantic Kernel通过插件系统实现高度可扩展性:

扩展类型 实现方式 企业级优势
功能扩展 KernelPlugin 模块化开发,易于维护
AI服务扩展 AIServiceClient 支持多模型,避免厂商锁定
协议扩展 Model Context Protocol 标准化接口,降低集成成本
存储扩展 Vector DB集成 支持大规模数据检索
企业级特性
1. 可观测性设计
from semantic_kernel import Kernel
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion
from opentelemetry import trace

class EnterpriseMonitoringAgent:
    def __init__(self, kernel: Kernel):
        self.kernel = kernel
        self.tracer = trace.get_tracer(__name__)
    
    async def process_request(self, user_input: str):
        with self.tracer.start_as_current_span("enterprise_request_processing") as span:
            span.set_attribute("user_input", user_input)
            
            # 业务逻辑处理
            agent = self.kernel.get_agent("business_agent")
            response = await agent.get_response(user_input)
            
            span.set_attribute("response_length", len(response.content))
            return response
2. 安全性架构

Semantic Kernel提供了多层次的安全保障:

mermaid

3. 高可用性设计

企业级应用需要保证高可用性,Semantic Kernel通过以下机制实现:

from semantic_kernel.agents import ChatCompletionAgent
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion
import asyncio
import backoff

class HighAvailabilityAgent:
    def __init__(self, primary_service, fallback_service):
        self.primary_agent = ChatCompletionAgent(service=primary_service)
        self.fallback_agent = ChatCompletionAgent(service=fallback_service)
    
    @backoff.on_exception(backoff.expo, Exception, max_tries=3)
    async def get_response_with_retry(self, messages):
        try:
            return await self.primary_agent.get_response(messages)
        except Exception:
            return await self.fallback_agent.get_response(messages)

性能优化策略

1. 缓存机制
from semantic_kernel import Kernel
from semantic_kernel.caching import InMemoryCache
import hashlib

class CachedAgent:
    def __init__(self, kernel: Kernel):
        self.kernel = kernel
        self.cache = InMemoryCache()
    
    async def get_cached_response(self, user_input: str):
        cache_key = hashlib.md5(user_input.encode()).hexdigest()
        
        if cached_response := self.cache.get(cache_key):
            return cached_response
        
        agent = self.kernel.get_agent("business_agent")
        response = await agent.get_response(user_input)
        
        self.cache.set(cache_key, response, ttl=300)  # 5分钟缓存
        return response
2. 批量处理
from semantic_kernel.agents import ChatCompletionAgent
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion
from concurrent.futures import ThreadPoolExecutor

class BatchProcessingAgent:
    def __init__(self, max_workers: int = 10):
        self.agent = ChatCompletionAgent(service=AzureChatCompletion())
        self.executor = ThreadPoolExecutor(max_workers=max_workers)
    
    async def process_batch(self, requests: list[str]):
        loop = asyncio.get_event_loop()
        tasks = [
            loop.run_in_executor(self.executor, self._process_single, request)
            for request in requests
        ]
        return await asyncio.gather(*tasks)
    
    def _process_single(self, request: str):
        return asyncio.run(self.agent.get_response(request))

企业集成模式

1. 微服务集成
from semantic_kernel import Kernel
from semantic_kernel.connectors.web.rest import RESTClient
import aiohttp

class MicroserviceIntegration:
    def __init__(self, kernel: Kernel):
        self.kernel = kernel
        self.rest_client = RESTClient()
    
    async def integrate_with_microservices(self, user_input: str):
        # 调用业务微服务
        business_data = await self.rest_client.get(
            "https://business-service/api/data",
            params={"query": user_input}
        )
        
        # 使用AI智能体处理
        agent = self.kernel.get_agent("processing_agent")
        context = f"业务数据: {business_data}\n用户输入: {user_input}"
        response = await agent.get_response(context)
        
        return response
2. 消息队列集成
from semantic_kernel import Kernel
import aiormq
import json

class MessageQueueIntegration:
    def __init__(self, kernel: Kernel, queue_url: str):
        self.kernel = kernel
        self.queue_url = queue_url
    
    async def start_consuming(self):
        connection = await aiormq.connect(self.queue_url)
        channel = await connection.channel()
        
        await channel.basic_consume(
            "ai_requests",
            self.process_message
        )
    
    async def process_message(self, message):
        request_data = json.loads(message.body.decode())
        agent = self.kernel.get_agent(request_data["agent_type"])
        
        response = await agent.get_response(request_data["message"])
        
        # 发送响应到响应队列
        response_message = json.dumps({
            "request_id": request_data["request_id"],
            "response": response.content
        })
        
        await channel.basic_publish(
            response_message,
            routing_key="ai_responses"
        )

监控和日志记录

企业级应用需要完善的监控和日志记录:

from semantic_kernel import Kernel
import logging
import prometheus_client
from datetime import datetime

class EnterpriseMonitor:
    def __init__(self, kernel: Kernel):
        self.kernel = kernel
        self.logger = logging.getLogger(__name__)
        
        # Prometheus指标
        self.request_counter = prometheus_client.Counter(
            'agent_requests_total',
            'Total agent requests',
            ['agent_type', 'status']
        )
        self.response_time = prometheus_client.Histogram(
            'agent_response_time_seconds',
            'Agent response time',
            ['agent_type']
        )
    
    async def monitored_request(self, agent_name: str, message: str):
        start_time = datetime.now()
        
        try:
            agent = self.kernel.get_agent(agent_name)
            response = await agent.get_response(message)
            
            self.request_counter.labels(
                agent_type=agent_name,
                status='success'
            ).inc()
            
            return response
            
        except Exception as e:
            self.request_counter.labels(
                agent_type=agent_name,
                status='error'
            ).inc()
            
            self.logger.error(f"Agent {agent_name} error: {str(e)}")
            raise
            
        finally:
            duration = (datetime.now() - start_time).total_seconds()
            self.response_time.labels(agent_type=agent_name).observe(duration)

部署架构

企业级部署需要考虑多环境支持:

mermaid

通过这样的架构设计,Semantic Kernel能够满足企业级AI应用的各种需求,从开发测试到生产部署,提供了完整的解决方案。其模块化设计、可扩展性和企业级特性使其成为构建复杂AI系统的理想选择。

核心功能模块与技术栈介绍

Semantic Kernel作为微软开源的AI智能体编排框架,其架构设计体现了现代AI应用开发的核心理念。框架采用模块化设计,通过精心组织的功能模块和技术栈,为开发者提供了构建复杂AI智能体系统的强大能力。

核心架构概览

Semantic Kernel的核心架构围绕Kernel(内核)构建,这是一个中央协调器,负责管理插件、服务、过滤器和函数执行。整个框架采用分层设计,从底层的AI服务连接到高层的智能体编排,每一层都提供了清晰的抽象和扩展点。

mermaid

核心功能模块详解

1. Kernel核心引擎

Kernel是整个框架的心脏,提供了统一的编程模型和运行时环境。它负责:

  • 插件管理:注册、发现和执行插件中的函数
  • 服务协调:管理AI服务连接和选择
  • 过滤器管道:提供可扩展的中间件处理机制
  • 函数执行:协调同步和异步函数调用
# Kernel初始化示例
from semantic_kernel import Kernel
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion

# 创建Kernel实例
kernel = Kernel()

# 添加AI服务
kernel.add_service(AzureChatCompletion(
    deployment_name="gpt-4",
    endpoint="https://your-endpoint.openai.azure.com/",
    api_key="your-api-key"
))

# 注册插件
kernel.import_plugin_from_directory("plugins", "MyPlugin")
2. 智能体系统(Agents)

智能体模块提供了构建AI助手的核心能力,支持多种类型的智能体:

智能体类型 功能描述 适用场景
ChatCompletionAgent 基础聊天完成智能体 简单对话任务
OpenAIAssistantAgent OpenAI助手智能体 复杂任务处理
BedrockAgent AWS Bedrock智能体 AWS生态系统集成
Multi-Agent Systems 多智能体协作系统 复杂工作流编排
# 智能体创建示例
from semantic_kernel.agents import ChatCompletionAgent

# 创建聊天智能体
agent = ChatCompletionAgent(
    service=azure_chat_service,
    name="CustomerSupportAgent",
    instructions="你是一个专业的客户支持助手,帮助用户解决问题。",
    plugins=[support_tools_plugin]
)

# 获取响应
response = await agent.get_response("我的订单状态如何?")
3. 函数与插件系统

函数系统是Semantic Kernel的核心抽象,支持两种类型的函数:

原生函数(Native Functions)

from semantic_kernel.functions import kernel_function

class MathPlugin:
    @kernel_function(description="计算两个数字的和")
    def add(self, a: float, b: float) -> float:
        return a + b

提示函数(Prompt Functions)

# 从提示创建函数
math_function = KernelFunction.from_prompt(
    function_name="AdvancedMath",
    plugin_name="MathPlugin",
    prompt="请计算 {{$input}} 的平方根",
    description="计算数字的平方根"
)
4. AI服务连接器

Semantic Kernel支持多种AI服务提供商,提供了统一的接口:

服务类型 支持模型 关键特性
OpenAI GPT-4, GPT-3.5 函数调用、流式响应
Azure OpenAI 同OpenAI 企业级安全、监控
Anthropic Claude Claude系列 长上下文支持
AWS Bedrock 多种基础模型 AWS生态系统集成
本地模型 Ollama, ONNX 离线部署、隐私保护
# 多服务配置示例
from semantic_kernel.connectors.ai.open_ai import OpenAIChatCompletion
from semantic_kernel.connectors.ai.anthropic import AnthropicChatCompletion

# 配置多个AI服务
kernel.add_service(OpenAIChatCompletion(api_key="openai-key"))
kernel.add_service(AnthropicChatCompletion(api_key="anthropic-key"))

# 使用服务选择器自动选择合适服务
response = await kernel.invoke(function, arguments)
5. 内存与存储系统

内存模块提供了持久化存储和检索能力:

向量存储支持

from semantic_kernel.connectors.memory.azure_cosmos_db import AzureCosmosDBMemoryStore

# 配置向量存储
memory = AzureCosmosDBMemoryStore(
    connection_string="cosmos-db-connection-string",
    database_name="ai-memories"
)

# 存储和检索记忆
await memory.save_reference_async(
    collection="user_preferences",
    description="用户喜欢咖啡和读书",
    text="用户偏好:黑咖啡,科幻小说",
    external_id="user123"
)
6. 模板引擎系统

支持多种模板格式,提供灵活的提示工程能力:

模板引擎 语法特性 适用场景
Semantic Kernel模板 {{$variable}} 语法 简单变量替换
Handlebars {{#if}} {{#each}} 控制流 复杂逻辑模板
Jinja2 Python风格模板语法 高级模板需求
# Handlebars模板示例
handlebars_template = """
{{#if topic}}
请写一篇关于 {{topic}} 的文章。
{{else}}
请写一篇技术博客。
{{/if}}

字数要求:{{length}} 字。
"""

# 使用模板创建函数
writing_function = KernelFunction.from_prompt(
    prompt=handlebars_template,
    template_format="handlebars"
)

技术栈深度解析

多语言支持架构

Semantic Kernel采用多语言SDK设计,核心逻辑在不同语言间保持一致:

语言 SDK状态 特性支持
Python 稳定版 完整功能,活跃开发
.NET 稳定版 企业级特性,性能优化
Java 开发中 基础功能,逐步完善
企业级特性

框架内置了企业应用所需的关键特性:

  • 可观测性:集成OpenTelemetry,提供完整的监控和追踪
  • 安全性:支持Azure AD认证、API密钥管理
  • 可靠性:重试机制、熔断器模式、降级策略
  • 扩展性:插件系统、过滤器管道、自定义连接器
# 可观测性配置示例
from opentelemetry import trace
from semantic_kernel.utils.telemetry import configure_telemetry

# 配置OpenTelemetry
configure_telemetry(
    service_name="ai-assistant-service",
    tracing_endpoint="https://jaeger:4317"
)

# 自动获得函数调用追踪
async with tracer.start_as_current_span("business_process"):
    result = await kernel.invoke(function, arguments)
性能优化特性

框架针对生产环境进行了多项性能优化:

  • 连接池管理:复用AI服务连接,减少建立连接开销
  • 批处理支持:批量处理嵌入生成和文本补全
  • 流式响应:支持逐令牌流式输出,降低延迟
  • 缓存机制:智能缓存频繁使用的提示和结果

典型应用架构模式

基于Semantic Kernel的应用通常采用以下架构模式:

mermaid

这种架构模式提供了良好的分层和关注点分离,使得AI能力可以轻松集成到现有系统中。

开发工具与生态系统

Semantic Kernel拥有丰富的开发工具和生态系统支持:

  • VS Code扩展:提供智能提示、调试支持
  • 模板项目:快速启动各种应用场景
  • 示例库:涵盖从简单到复杂的应用案例
  • 社区插件:扩展框架功能的第三方插件

框架的模块化设计使得开发者可以根据需要选择使用特定组件,无论是简单的聊天机器人还是复杂的多智能体系统,都能找到合适的构建模式。

总结

Semantic Kernel作为微软开源的企业级AI智能体编排框架,提供了完整的AI应用开发解决方案。其核心价值在于通过模块化架构、多语言支持、企业级特性和丰富的技术栈,显著降低了AI技术集成门槛。框架支持从简单的聊天机器人到复杂的多智能体系统构建,具备可观测性、安全性、高可用性等生产环境必需的特性。通过统一的编程模型和丰富的生态系统,Semantic Kernel使开发者能够充分利用大语言模型的强大能力,构建智能化的下一代企业应用程序,是数字化转型中AI能力建设的战略基础设施。

【免费下载链接】semantic-kernel Integrate cutting-edge LLM technology quickly and easily into your apps 【免费下载链接】semantic-kernel 项目地址: https://gitcode.com/GitHub_Trending/se/semantic-kernel

Logo

更多推荐