一个基于 Model Context Protocol (MCP) 的服务器,用于向 GitHub Copilot 客户端提供社区贡献的定制代理、Prompt 和指令,以增强开发体验。
这是一个基于生成式AI的IT自助服务代理快速启动项目,提供构建可扩展、可观测AI代理系统的通用框架和组件,并包含ServiceNow集成等MCP服务器工具。
一个智能的MCP(Model Context Protocol)工具包,能将任何API快速转换为AI代理,提供上下文信息和功能给LLM客户端。
一个多平台Kotlin库,提供功能齐全的AI代理和工具,并通过Model Context Protocol (MCP) 将其暴露为可被LLM客户端调用的上下文服务。
一个基于Express和Netlify Serverless Functions构建的MCP服务器,用于演示和测试Model Context Protocol用户界面(MCP-UI)组件和交互。
托管在AWS Bedrock AgentCore上的MCP服务器,提供AWS支持案例的智能化管理和LLM工具调用能力。
Enso Labs Orchestra是一个基于MCP和A2A协议的AI代理编排后端,为LLM提供上下文、工具和会话管理。
提供基于Model Context Protocol的营养餐饮工具服务,支持膳食推荐和图片获取,供LLM应用调用。
基于.NET Aspire构建的员工管理系统,其MCP服务器组件为AI代理提供标准化接口,以集成和管理员工数据及操作。
Wassette是一个安全导向的MCP服务器运行时,用于托管和执行WebAssembly组件作为LLM工具,提供沙盒隔离、权限管理和便捷的AI代理扩展能力。
连接大型语言模型(LLM)与去中心化物理基础设施网络(DePIN),构建可感知现实世界的先进AI代理后端。
Commune 是一个 Rust 库,用于构建可发现的 AI 代理网络,它基于 MCP 协议,提供资源、工具和 Prompt 管理等核心服务器功能,并支持 WebSocket 通信。
MCPMC是一个MCP服务器,使AI代理能够控制Minecraft机器人,通过JSON-RPC提供对Minecraft世界信息和操作的标准化访问。