基于 FastAPI 和 FastAPI-MCP 的 MCP 服务器开发框架,旨在帮助开发者快速构建高质量的 AI 工具。
基于 FastAPI 框架的 Agent2Agent (A2A) 协议服务器模板,用于快速构建可与 LLM 客户端交互的智能体服务后端。
一个基于FastAPI构建的MCP服务器,通过HTTP接口提供本地文件系统的读取能力,并集成了Gemini API进行文本处理。
Confluence Gateway 利用AI能力增强 Confluence 搜索和知识检索,未来计划提供 MCP 服务器功能。
基于FastAPI构建的OWL多智能体系统后端,提供RESTful API和WebSocket接口,用于上下文服务。
基于Nginx和FastAPI的高性能MCP服务器,支持WebSocket/SSE协议,集成OpenAPI,用于构建实时LLM应用。