← 返回首页

"LLM后端"标签的搜索结果

找到 192 个结果

EnrichMCP

一个基于Model Context Protocol (MCP) 的Python框架,可将数据模型转化为AI代理可理解和调用的语义化工具层。

NextMCP

NextMCP 是一个生产级的 Python SDK,提供用于快速构建高性能、可扩展的 MCP (Model Context Protocol) 服务器的工具包,支持 LLM 的工具调用、上下文资源管理和 Prompt 模板。

ENGRAM 智能记忆 MCP 服务器

ENGRAM是一个生产级MCP服务器,为AI代理和LLM应用提供先进的记忆管理,支持短期与长期记忆、语义搜索和智能洞察。

BibleMate AI MCP服务器

一个基于MCP协议的圣经学习AI后端,为LLM客户端提供丰富的圣经资源、AI工具和可定制的Prompt模板。

fpf-sync MCP服务器

基于Model Context Protocol (MCP) 的后端服务,用于管理和暴露First Principles Framework (FPF) 领域的知识资源和操作工具,支持与LLM客户端进行上下文交互。

FastMCP 服务器模板

一个生产就绪的 FastMCP 服务器模板,支持动态加载工具、资源、Prompt,并提供身份认证和多种部署方式。

MCP Motoko 服务器开发工具包

这是一个基于Motoko语言,用于在Internet Computer (IC) 上构建高性能、可扩展的Model Context Protocol (MCP) 服务器的综合开发工具包。

Mistral智能体MCP服务器

这是一个基于MCP协议的后端服务器,通过标准化的工具接口管理和操作Mistral AI平台上的智能体。

MCP上下文协议服务器模板

一个用于快速构建MCP(Model Context Protocol)服务器的启动模板,支持LLM助手的工具、资源和Prompt扩展。

LitServe

一个用于部署AI模型、Agent、RAG和MCP服务器的轻量级、高性能Python框架。

TurboMCP: Rust MCP服务器SDK

高性能Rust SDK,用于构建Model Context Protocol (MCP) 服务器,为LLM客户端提供上下文信息、工具和交互模式。

FastAPI天气MCP服务器

基于FastAPI实现的MCP服务器,提供天气查询工具和示例资源。

MCP Sandbox

将任意JavaScript模块转化为具备沙箱安全能力的MCP服务器,使函数可被AI调用。

TypeScript MCP资源服务器示例

基于TypeScript和Firestore,演示OAuth认证和工作空间隔离的MCP资源服务器参考实现。

MCP服务器快速启动模板

一个生产级MCP服务器实现基础框架,提供工具调用、上下文服务和SSE传输能力。

TinyAgents 天气MCP服务器示例

基于MCP协议实现的天气数据后端服务,提供天气预警和预报查询工具供LLM客户端调用。

Telegram MCP 后端

为大型语言模型(LLM)客户端提供强大的Telegram集成,支持消息搜索、发送、聊天管理和数据导出,基于MCP协议。

基于Spring Boot的MCP服务器框架

为大模型应用提供上下文管理和工具服务,基于Spring Boot构建,支持工具自动化注册与执行。

Fluent MCP

用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。

基于Google Apps Script的MCP服务器示例

在Google Apps Script环境中实现模型上下文协议(MCP)服务器,提供基础上下文服务功能。

MCP服务器基础框架

提供一个基于Python MCP SDK的标准容器化基础镜像和工具,用于快速构建和部署Model Context Protocol (MCP) 服务器。

Coputo

基于TypeScript和Fastify的MCP服务器框架,快速构建LLM上下文服务后端。

MCP Daemon 后端开发框架

一个基于 Rust 的 Model Context Protocol (MCP) 后端开发框架,简化 LLM 应用与外部数据及工具的集成。

FastMCP 示例服务器

基于 FastMCP 框架构建的 MCP 示例服务器,用于向 LLM 客户端提供简单的资源和工具访问能力。

Simple Tool Server

轻量级异步API平台,用于管理和运行Model Context Protocol (MCP) 工具和服务器,提供上下文服务。

Plasma

基于 Ruby 的 MCP 服务器构建 SDK,提供 Rails 风格的约定,简化工具、Prompt 和资源开发。

API2MCP

将外部API服务封装为标准的MCP工具,为LLM提供统一的API访问能力。

Python MCP服务器快速启动模板

使用Python和MCP SDK快速构建模型上下文协议(MCP)服务器的模板,为LLM提供数据和工具访问能力。

股票市场MCP服务器

通过MCP协议提供股票市场数据访问和分析工具,支持大型语言模型调用。

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

FastAPI FastMCP 集成服务器

集成FastAPI和FastMCP,快速构建可扩展的LLM上下文服务器,支持工具、资源、Prompt自动发现。

TypeScript MCP服务器模板

基于TypeScript的Model Context Protocol (MCP) 服务器基础框架,提供核心工具、资源示例及生产级开发工具。

GoMCP

GoMCP是Go语言实现的Model Context Protocol库,用于构建完全兼容MCP协议的服务器和客户端应用程序。

FinClip Agent

基于Model Context Protocol (MCP) 构建的轻量级智能对话代理后端,支持快速嵌入网页和集成知识库/外部工具。

助手记忆服务

为大语言模型(LLM)助手提供持久化、图谱化记忆和上下文信息管理能力的后端服务。

Nacos MCP Wrapper Python

用于将Python MCP服务器注册到Nacos,支持工具动态配置。

Go MCP SDK

Go语言实现的Model Context Protocol (MCP) 开发工具包,用于构建LLM客户端与外部环境交互的服务器和客户端应用。

MCP服务聚合网关

统一管理和聚合多个MCP服务,为LLM客户端提供单一访问接口,方便调用各类工具。

VT.ai

VT.ai仓库中的MCP服务器实现,为LLM客户端提供标准化工具调用和上下文服务。

PHP MCP服务器开发库

使用PHP快速构建遵循Model Context Protocol (MCP)标准的服务器,为大模型提供上下文和工具。

AI能力平台后端项目

一个集成了多种AI能力(模型、知识库、工具)的后端平台,使用MCP协议提供工具服务。

macop

一个用于托管、管理和运行大模型的后端服务,支持模型分发、上下文控制和Prompt模板。

Frappe MCP Server (Python)

基于MCP协议的服务器实现,为LLM应用提供Frappe框架和数据库的连接能力,支持工具调用和数据访问。

MCP工具服务器示例

基于FastMCP框架构建的示例MCP服务器,演示了如何集成和使用各种工具,如天气查询、播客制作和代码评审。

MCP Gateway

MCP Gateway 是一个轻量级、高可用的网关服务,旨在通过配置将现有 API 服务转换为 MCP 服务器,为 LLM 应用提供上下文服务。

MCP Connect Server

轻量级后端服务器,用于连接和管理多个 Model Context Protocol (MCP) 服务器,简化 LLM 应用的上下文服务集成。

Python REPL MCP服务器

该项目实现了一个基于MCP协议的Python REPL服务器,允许LLM客户端通过工具执行Python代码,并支持会话保持和包安装。

RubyMCP

RubyMCP 是一个用 Ruby 语言构建的 Model Context Protocol (MCP) 服务器和客户端库,旨在简化 LLM 应用的后端开发。

FastSD CPU MCP服务器

FastSD CPU MCP服务器是一个基于FastAPI构建的MCP后端,为LLM客户端提供快速CPU上的Stable Diffusion图像生成服务。

JS MCP Server

一个基于 JavaScript 开发的 MCP 服务器,用于管理资源、工具和 Prompt,为 LLM 应用提供上下文服务。

Atlas DataHub MCP服务器

Atlas DataHub MCP服务器为LLM应用提供Azure Cosmos DB数据访问能力,支持资源管理和工具执行,兼容Cline、Cursor和Claude Desktop等MCP客户端。

lua-resty-mcp

基于OpenResty和Lua的MCP服务器SDK,用于构建和管理LLM应用的上下文服务后端。

Orval MCP Server Generator

Orval generates MCP server-side code from OpenAPI specifications, providing standardized context services for LLM applications.

PostgreSQL数据库 MCP 服务器

基于MCP协议的PostgreSQL数据库服务器,提供SQL查询、执行、事务和Schema信息查询等工具,用于LLM应用访问PostgreSQL数据库。

Klavis AI

Klavis AI 是一个开源基础设施项目,旨在简化 Model Context Protocol (MCP) 服务器的构建和使用,为 LLM 应用提供便捷的上下文服务。

MCP Mealprep Stack

一键部署多种MCP服务器的Docker Stack,为LLM应用提供丰富的工具和数据访问能力。

FastAPI MCP Example Server

一个简单的FastAPI服务器,演示了基于模型上下文协议(MCP)的功能,通过SSE流式传输,为LLM交互提供示例工具。

MCP Python SSE Server

基于Python和SSE实现的MCP服务器,提供实时的LLM上下文服务和工具调用能力。

MCP服务器平台

基于FastAPI构建的MCP服务器,提供资源管理、工具注册和SSE通信能力,为LLM应用提供上下文服务。

AgentStudio MCP服务器

AgentStudio MCP服务器为AgentStudio平台上的智能体提供资源访问和工具调用能力,符合模型上下文协议标准。

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

Foobara MCP Connector

基于Foobara框架构建的MCP服务器,将Foobara命令作为工具提供给LLM客户端。

Scaled MCP Server

基于Go语言实现的、可水平扩展的MCP服务器,为LLM应用提供资源、工具和Prompt模板管理等核心上下文服务。

MCP Server Templates (.NET)

基于 .NET 的 MCP 服务器模板,帮助开发者快速构建和部署符合 Model Context Protocol 规范的后端服务。

C++ MCP Server

基于插件化架构的C++ MCP服务器实现,支持资源、Prompt和工具扩展,通过标准输入输出流与客户端通信。

Android MCP 框架服务器

一个用于Android设备控制和应用自学习的MCP服务器后端,通过HTTP和TCP API为LLM客户端提供服务。

Spring AI MCP DeepSeek示例服务器

基于Spring AI框架构建的MCP服务器示例,提供图书信息查询工具,支持LLM客户端通过工具调用获取图书数据。

Swift MCP服务器

Swift MCP服务器是基于Model Context Protocol的应用后端,为LLM客户端提供代码仓库分析、安全扫描和通用工具服务。

Letta MCP服务器

Letta MCP服务器是一个基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源管理、工具执行和Prompt模板服务,构建安全可扩展的上下文服务框架。

Rust MCP SDK (RMCP)

官方Rust SDK,用于构建Model Context Protocol (MCP) 服务器和客户端,提供资源管理、工具执行和Prompt模板渲染等核心功能。

Dust MCP Server

一个简单的 MCP 服务器示例,提供了一个名为 "dust" 的工具用于演示。

Simple Python MCP服务器

一个使用Python实现的简单但功能完备的MCP服务器,支持工具注册和调用,并提供时间工具示例。

MCP Lambda Server

基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。

QueryPie MCP Server

QueryPie MCP Server为LLM应用提供数据访问和工具能力,通过标准MCP协议与客户端通信。

Hummingbird MCP示例服务器

基于Swift Hummingbird框架构建的MCP服务器示例,演示了如何使用Swift SDK实现MCP协议,提供资源管理、工具调用和Prompt模板服务。

MCP Gemini Server

封装Google Gemini API的MCP服务器,通过标准化的MCP工具接口,为LLM客户端提供Gemini模型的各项能力。

PuTi MCP Server

PuTi MCP Server 是一个基于 FastMCP 构建的轻量级 MCP 服务器,旨在为 LLM 应用提供工具注册和执行的后端服务。

MCP PHP SDK

PHP SDK,用于构建 MCP 服务器和客户端,为 LLM 应用提供标准化的上下文服务框架,支持资源、工具和 Prompt 管理。

DataGov MCP 服务器

DataGov MCP Server 是一个基于 Flask 框架的 MCP 服务器,旨在通过预定义函数,便捷地向 LLM 客户端提供以色列政府公共数据 API (data.gov.il) 的访问能力。

AutoMCP

AutoMCP 是一个轻量级、可配置的 Model Context Protocol (MCP) 服务器实现,用于构建 LLM 应用的上下文服务后端。

ActiveMCP

ActiveMCP是一个Ruby on Rails引擎,旨在简化MCP服务器的构建,使Rails应用能够通过模型上下文协议向LLM客户端提供工具和服务。

MCP Servers

基于.NET开发的MCP服务器集合,提供文件处理、通用工具等功能,支持Stdio和SSE传输协议,为LLM应用提供上下文服务。

MCP Servers

提供Bun和Python两种语言实现的MCP服务器示例,用于演示如何构建和运行支持资源与工具管理的MCP后端服务。

MCP Rust Stdio服务器示例

基于Rust开发的MCP服务器基础实现,通过标准输入输出(stdio)进行通信,演示资源、工具和Prompt列表及工具调用功能。

Boot-MCP服务器模板

基于TypeScript的MCP服务器启动器模板,提供资源、工具、Prompt等核心功能的基础框架。

MCP Java 8 SDK (基于Spring WebMVC)

MCP Java SDK 针对Java 8和Spring Boot 2.x环境优化,提供基于Spring WebMVC的MCP服务器实现,简化LLM应用后端开发。

Sprout MCP Server Demo

演示食谱和天气信息MCP服务器,提供资源管理、工具执行和Prompt模板渲染,为LLM应用提供上下文服务。

Blaxel Python SDK (MCP Server)

Blaxel Python SDK 提供了一套用于构建和部署 MCP 服务器的工具,旨在简化大型语言模型(LLM)与外部上下文和功能集成的过程。

D语言 MCP 服务器库 (mcp-d)

这是一个使用D语言编写的MCP服务器库,专注于通过stdio传输协议为AI语言模型提供上下文信息、工具和Prompt服务。

Adonis MCP

基于 AdonisJS 框架的 Model Context Protocol (MCP) 服务器 SDK,通过 Server-Sent Events (SSE) 协议提供资源、工具和 Prompt 服务。

MCP Router

MCP Router 是一个代理 MCP 服务器,可以将客户端请求转发到远程 MCP 服务器,实现对远程资源、工具和 Prompt 的访问。

PHP MCP服务器 SDK

用于构建 Model Context Protocol (MCP) 服务器的 PHP SDK,提供资源、工具和 Prompt 模板管理的核心框架与传输层实现。

Koding.js MCP服务器

Koding.js MCP服务器是一个基于Node.js实现的Model Context Protocol (MCP) 服务器,它提供资源管理和工具执行能力,通过JSON-RPC协议与LLM客户端进行通信。

MCP Router

MCP Router是一个MCP协议代理服务器,用于管理和路由客户端与后端MCP服务器的连接,简化MCP客户端集成。

Smart Memory MCP v2 Server

基于Model Context Protocol (MCP) 的智能记忆服务器,为VS Code等LLM客户端提供结构化上下文管理服务。

MCP Server Dart插件

一个Dart语言开发的MCP服务器插件,用于构建支持资源、工具和Prompt的LLM应用后端,提供Stdio和SSE等多种传输协议。

Deno MCP服务器模板

基于Deno构建的MCP服务器模板,用于快速搭建支持资源、工具和Prompt的LLM应用后端。

Simple MCP Server Library

一个轻量级的TypeScript库,用于简化MCP服务器的构建,提供工具注册、参数验证和类型安全等特性,助力快速搭建LLM应用后端。

Laravel MCP Server

基于Laravel框架实现的Model Context Protocol (MCP) 服务器,提供资源管理和工具调用功能,用于连接LLM客户端。

AIStor MCP Server

AIStor MCP Server是为LLM应用设计的后端服务,提供AIStor对象存储的资源访问和工具调用能力,支持LLM安全可扩展地访问对象存储服务。

MCP Host Framework

一个灵活可扩展的MCP服务器框架,用于构建模块化、分布式的工具和服务生态系统,为LLM应用提供上下文服务。

MCP代理服务器

MCP代理服务器将多个MCP资源服务器聚合成一个统一的HTTP入口,为LLM客户端提供工具、Prompt和资源的统一访问服务。

Morph Cloud MCP 开发工具箱示例

本仓库提供了一套示例脚本,用于在 Morph Cloud 上快速搭建和部署 Model Context Protocol (MCP) 服务器的开发环境,并包含客户端示例。

B12 MCP Server

B12 MCP Server是一个为AI驱动的网站生成应用提供上下文和工具支持的后端服务。

Dart MCP服务器库

mcp_dart 是一个 Dart 库,用于构建 MCP 服务器,旨在为 LLM 应用提供标准化的上下文数据和工具能力。

NestJS MCP模块

基于NestJS框架,快速构建Model Context Protocol (MCP) 服务器的模块,简化资源、工具和Prompt的管理与暴露。

Llama Stack Server

Llama Stack Server是一个应用后端,旨在通过标准化的方式为LLM客户端提供上下文信息和功能,支持资源管理、工具调用和Prompt模板定制。

MongoDB MCP Server示例

一个基础的MCP服务器示例,演示了如何使用Model Context Protocol (MCP) 框架提供资源列表,为后续MongoDB集成奠定基础。

Godot MCP Server SDK

用于在Godot引擎中快速开发MCP应用后端的SDK,提供资源管理、工具注册和Prompt模板等核心MCP服务器功能。

Chat-AI 服务端

基于gRPC构建的LLM应用后端,提供资源管理、模型服务和上下文支持,可作为MCP服务器使用。

GitHub Materials MCP Server示例

该项目提供了一个基于Model Context Protocol (MCP) 的服务器端示例,集成了天气查询和随机用户生成工具,演示了如何向LLM客户端提供上下文信息和功能调用能力。

Rodel Agent MCP服务器

Rodel Agent桌面应用内嵌MCP服务器,为MCP客户端提供上下文服务和AI功能,同时具备独立的AI助手应用功能。

Muppet

Muppet是一个用于构建Model Context Protocol (MCP) 服务器的开源工具包,旨在标准化LLM应用后端的开发流程。

Azure MCP Server

一个基于Model Context Protocol的服务器,提供工具和接口,用于与Azure云资源进行交互和管理。

WayStation MCP Server

WayStation MCP服务器作为LLM与生产力工具之间的桥梁,提供工具管理和执行能力,实现LLM与外部应用的集成。

MCP Demo Server (Python)

基于FastMCP框架实现的Python MCP服务器示例,提供算术工具和动态问候资源,可通过SSE或Stdio协议与客户端通信。

go-mcp MCP服务器

go-mcp 是一个用 Go 语言实现的 Model Context Protocol (MCP) 服务器,旨在为 LLM 应用提供资源、工具和 Prompt 管理等上下文服务。

Quarkus Agentic MCP服务器

基于Quarkus和LangChain4j构建的简易Agentic应用MCP服务器,集成多种工具,提供上下文服务。

μMCP PHP Server Library

μMCP-php 是一个超轻量级的PHP库,用于构建基于HTTP协议的Model Context Protocol (MCP) 服务器,专注于为LLM提供工具调用能力。

MCP Memory Service

基于MCP协议的语义记忆服务器,为Claude等LLM应用提供持久化存储和上下文检索能力。

MCP示例服务器实现

基于FastMCP框架构建的MCP服务器示例,演示了如何通过资源、工具和Prompt模板为LLM应用提供上下文服务。

MCP Demo Server示例

演示了基于 Model Context Protocol 构建的计算器和天气信息MCP服务器,可扩展LLM应用后端能力。

MCP Experiment Server

这是一个基于.NET开发的MCP服务器实验性实现,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

My-MCP Server

基于Vercel和Redis实现的MCP服务器,提供工具注册和SSE通信能力,可作为LLM应用的上下文服务后端。

MCP Go SDK

Go SDK,用于构建 Model Context Protocol (MCP) 服务器,为 LLM 应用提供外部数据和工具的桥梁。

Floword

Floword是一个用于构建自然语言工作流的后端服务,通过MCP协议连接和管理各种工具服务,为LLM应用提供可扩展的上下文服务框架。

Deno MCP Server 模板

基于 Deno 的 MCP 服务器模板,提供资源和工具管理能力,简化 LLM 应用后端开发。

MCP服务器示例

一个简单的MCP服务器示例,演示了资源、工具和Prompt模板的定义与使用,支持Stdio和SSE传输协议。

Montano MCP 服务器

基于 Model Context Protocol 的服务器实现,提供工具注册和执行能力,并通过标准协议与 LLM 客户端通信。

Salesforce MCP Server Docker 部署

提供 Docker 镜像及配置,一键部署 Salesforce MCP Server,简化 MCP 服务器的安装和运行流程。

SkySQL MCP Server

基于FastAPI框架实现的MCP服务器,提供工具、资源和Prompt管理,集成SkySQL API。

MCP服务器工具集

该项目是一个基于Model Context Protocol (MCP) 的服务器集合,提供多种实用工具,如简单的计算、Google地图服务以及CSV/XLSX文件处理等,旨在为LLM应用提供丰富的外部能力。

MCP AI Server

MCP AI Server是一个应用后端,通过标准化的JSON-RPC协议向LLM客户端提供上下文信息和功能,包括资源管理、工具执行和Prompt模板渲染等核心MCP协议功能。

MCPServers Swift实现

基于Swift和SwiftMCP构建的MCP服务器集合,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

MCP本地路由代理

MCP本地路由代理是一个聚合型MCP服务器,它将多个上游MCP服务器的功能整合到一个统一的接口中,为下游LLM客户端提供服务。

Kotlin MCP 示例服务器

基于Kotlin开发的MCP服务器示例,用于演示和学习如何构建支持LLM上下文交互的后端服务。

Qdrant MCP 服务器

基于MCP协议实现的Qdrant向量数据库后端服务,为LLM应用提供向量数据管理和检索能力。

ChatLLM

AI聊天应用后端服务,集成多种LLM,支持会话管理、工具调用和MCP服务器集成。

MCP数据库服务器

MCP数据库服务器是一个后端应用,通过模型上下文协议(MCP)为LLM客户端提供数据库访问和模式信息。

MCP Dockmaster

MCP Dockmaster 是一个用于安装、管理和监控 MCP 服务器的工具,为 LLM 应用提供上下文服务。

Getting Started with MCP

该项目提供了一个基于FastMCP框架的简单MCP服务器示例,演示了如何定义和注册工具(Tool)和资源(Resource),为LLM应用提供基础的上下文服务能力。

gomcptest

该项目为MCP协议的概念验证,包含模拟OpenAI API的主机和多个MCP工具(如Bash、文件编辑等),演示了如何构建与MCP服务器交互的LLM应用后端。

beyond mcp server

基于MCP协议的社交媒体上下文服务器,支持Farcaster等平台的数据访问和功能调用。

mcp server template

mcp-server-template是一个用于快速搭建MCP服务器的模板项目,预置了字符串反转工具和问候/欢迎资源,支持标准输入输出(stdio)和SSE两种传输协议。

mcp server

一个基础的MCP服务器示例,提供笔记存储、总结和添加工具,演示了如何构建符合Model Context Protocol的应用后端。

dify mcp server

一个简单的MCP服务器实现,将Dify工作流作为工具暴露给LLM客户端,使其能够利用Dify的功能。

mcp server template

基于Model Context Protocol的服务器模板,使用TypeScript开发,提供工具注册、调用和测试功能,帮助开发者快速构建MCP后端应用。

mcp server tidb

基于 Model Context Protocol 协议,为 LLM 提供 TiDB Serverless 数据库访问能力的后端服务。

mcp js server

mcp-js-server 是一个基于 JavaScript 的 MCP 服务器 SDK,用于构建能够向 LLM 应用提供资源、工具和 Prompt 模板的后端服务。

Elysia mcp

Elysia-mcp 是一个基于 Bun 和 Elysia 框架构建的高性能 MCP 服务器,用于向 LLM 应用提供资源、工具和 Prompt 模板管理功能。

mcp daemon

Rust实现的MCP服务器,提供资源管理、工具注册和Prompt模板等核心功能,支持多种传输协议。

mcp rb

mcp-rb 是一个 Ruby 框架,用于构建 MCP 服务器,便捷地定义和管理资源与工具,为 LLM 应用提供上下文服务后端。

hermes mcp

Hermes MCP 是一个用 Elixir 开发的 MCP 服务器和客户端库,提供了高性能的 MCP 协议服务端实现,支持资源、工具和 Prompt 管理。

mcp rs template

基于Rust开发的MCP服务器模板,提供资源、Prompt和工具管理功能,可用于构建LLM应用后端。

litemcp

轻量级MCP服务器框架,用于构建和管理LLM上下文服务。

mcp go

mcp-go 是 Model Context Protocol (MCP) 的 Go 语言实现,旨在帮助开发者构建连接 LLM 应用和外部数据源及工具的后端服务。

fastmcp

FastMCP是一个TypeScript框架,用于快速构建MCP服务器,支持工具、资源和Prompt定义,并提供多种传输协议和实用工具。

server anthropic

此项目是一个MCP服务器,为LLM客户端提供访问Anthropic AI模型的能力,支持模型列表查询和消息发送,通过标准化的MCP协议简化Anthropic API的集成。

litemcp

LiteMCP是一个用于构建MCP服务器的TypeScript框架,简化了工具、资源和Prompt的定义和管理,方便LLM应用集成上下文能力。

oatpp mcp

基于Oat++框架的MCP服务器库,支持资源、工具和Prompt管理,可通过STDIO或SSE集成。

mcp golang

mcp-golang 是一个使用 Go 语言开发的 MCP 服务器库,旨在帮助开发者快速构建兼容 Model Context Protocol 的应用后端,支持工具、Prompt 和资源的管理与调用。

mcp server client

该项目是一个基础的MCP服务器示例,使用TypeScript SDK实现,演示了如何通过stdio传输协议提供资源列表和读取功能,适用于学习和理解MCP服务器的基本构建。

atlas mcp server

ATLAS MCP Server为大型语言模型提供层级任务管理能力,支持资源、工具和Prompt模板,并通过JSON-RPC协议与客户端通信。

MCP Developer Guide

本仓库提供了一个基于Python和MCP库的Claude MCP服务器开发指南和基础实现示例,帮助开发者快速搭建可与Claude客户端集成的MCP服务器。

mcp researcher project

一个模块化的研究助手MCP服务器,集成了LLM提供商、NLP工具和知识图谱管理,为上下文感知的应用提供后端服务。

mcp boilerplate

MCP Boilerplate项目是一个用于快速搭建MCP服务器的脚手架,实现了基础的工具注册和调用功能,方便开发者快速构建与LLM客户端交互的上下文服务后端。

mcp vs promptql

该仓库实现了一个定制化的MCP服务器,扩展了PostgreSQL MCP服务器以支持多数据库查询和Python脚本执行工具,旨在为LLM应用提供更灵活的数据访问和外部功能调用能力。

exa server

Exa MCP Server是一个应用后端,通过Exa API提供AI驱动的代码搜索功能,并以MCP协议标准接口向LLM客户端提供服务。

pylon

Pylon 是一款桌面应用程序,内置 MCP 服务器,为 LLM 客户端提供资源管理、工具调用和 Prompt 模板服务,支持文件系统资源访问和 Ollama 模型集成。

mcp client and server

一个简单的MCP服务器实现,提供笔记存储、总结和管理功能,演示了如何通过MCP协议扩展LLM应用的能力。

mcp server

mcp-server仓库实现了一个简单的MCP服务器,通过工具提供推特发文和读取Google Sheets数据的功能,并通过资源暴露Google Sheets数据,演示了MCP协议在数据访问和功能扩展方面的应用。

mcp go

mcp-go 是一个 Go 语言 SDK,用于简化 Model Context Protocol (MCP) 服务器的开发和构建。

model context protocol rs

一个Rust实现的MCP服务器,提供资源管理、工具调用和Prompt模板功能,支持STDIO和SSE传输协议,用于构建LLM应用的上下文服务后端。

mcp php

基于Laravel框架实现的MCP服务器,通过STDIO传输协议为LLM客户端提供资源和工具管理功能。

ezmcp

ezmcp是一个轻量级的Python框架,用于构建基于SSE传输的Model Context Protocol (MCP) 服务器,简化了LLM应用后端的开发。

goai

GoAI库提供了一个灵活的MCP服务器实现,支持资源管理、工具注册、Prompt模板定义,并通过JSON-RPC协议与LLM客户端通信,构建可扩展的AI应用后端。

Memory Graph

Memory Graph是一个基于Redis Graph实现的MCP服务器,为LLM应用提供长期记忆存储和检索功能。

Brightsy

Brightsy MCP服务器是一个代理服务器,将MCP客户端的请求转发到Brightsy AI Agent并返回响应。

WebSocket Enhancer

该仓库实现了一个基于WebSocket增强的MCP服务器,支持标准MCP请求处理和实时数据推送功能。

Livecode.ch

Livecode MCP Server是一个基于MCP协议的io.livecode.ch代码运行工具服务器,允许LLM客户端通过工具调用在io.livecode.ch上运行代码。

Dojo

Dojo MCP Server是一个基于Go语言实现的MCP服务器,提供资源管理、工具注册和Prompt模板渲染等功能,旨在为LLM应用提供上下文服务。

Dify Workflow

将Dify工作流应用转化为MCP工具,为LLM客户端提供通过MCP协议调用Dify工作流的能力。

Deep Research

Deep Research MCP 是一个Python实现的MCP服务器,提供名为 deep_research 的工具,支持LLM客户端调用多智能体进行深入研究并生成报告。

DigitalOcean

该项目是一个 MCP 服务器的实现,集成了 DigitalOcean API,允许 LLM 通过 MCP 协议管理 DigitalOcean 云资源,例如云服务器的创建和管理。

MetaMCP

MetaMCP MCP Server 是一个代理服务器,用于将多个 MCP 服务器聚合为一个统一的接入点,方便客户端管理和使用多源上下文服务。

Command Executor

Command Executor MCP Server是一个安全的工具服务器,允许LLM客户端执行预先批准的系统命令,用于扩展LLM的功能并与外部环境交互。

MCP Server Starter

MCP Server Starter Template:一个用于构建MCP服务器的生产就绪型模板,使用TypeScript编写,支持工具注册和Claude Desktop集成。

Awesome MCP FastAPI

Awesome MCP FastAPI 是一个基于 FastAPI 框架构建的 MCP 服务器实现,专注于提供增强的工具注册和管理功能,并自动生成 OpenAPI 文档,方便 LLM 应用集成和使用。

Eunomia MCP Server

Eunomia MCP Server是一个用于编排和管理多个MCP服务器的开源项目,并集成数据治理能力。

Pyodide Server

Pyodide Server是一个MCP服务器,允许LLM通过执行Python代码和访问挂载资源来扩展功能。

MSSQL MCP Server

MSSQL MCP Server 是一个基于 Model Context Protocol 的服务器实现,它提供工具以连接和查询 Microsoft SQL Server 数据库,为 LLM 应用提供数据访问能力。

MemGPT

基于 Model Context Protocol (MCP) 的内存增强型 LLM 服务端,支持 OpenAI, Anthropic, OpenRouter 和 Ollama,提供对话历史记录和模型切换等功能。