找到 7 个结果
基于 Model Context Protocol (MCP) 的后端服务示例,提供可由 LLM 调用的功能工具。
一个使用 Python 及其 MCP SDK 构建的 Model Context Protocol (MCP) 服务器基础示例。
基于FastMCP框架构建的示例MCP服务器,演示了如何集成和使用各种工具,如天气查询、播客制作和代码评审。
ACI MCP Server 提供两种模式的服务,允许LLM客户端通过 Model Context Protocol 访问 ACI.dev 平台上的工具与功能,实现上下文增强。
Treelang是一个基于抽象语法树(AST)的功能调用框架,同时提供MCP服务器功能,支持通过LLM生成和执行复杂的工具调用工作流。
演示了如何使用MCP服务器为AI模型提供工具执行能力,实现AI与外部服务(如Twitter)的交互和功能扩展。
orq-node 是一个开发者友好的 Typescript SDK,同时也是一个可安装的 MCP 服务器,旨在为 LLM 应用提供资源、工具和 Prompt 管理能力,简化 AI 应用的后端开发。