← 返回首页

"RAG"标签的搜索结果

找到 101 个结果

CodeRAG

CodeRAG是一个闪电般快速的混合代码搜索MCP服务器,为AI助手提供高效的上下文和功能,支持TF-IDF与向量搜索。

Local Knowledge RAG MCP Server

这是一个基于Model Context Protocol (MCP) 的本地知识库检索增强生成(RAG)服务器,为大型语言模型(LLM)客户端提供私有文档的语义搜索、内容检索和定制化报告生成能力。

DAT (Data Ask Tool)

DAT 是一个企业级 AI 工具,通过自然语言处理和语义模型,让业务用户能够直接与多种数据库进行对话,实现智能问数。

EPIR AI 助理后端

EPIR AI 助理的后端服务,通过 Model Context Protocol (MCP) 向 LLM 提供商品目录、购物车、订单状态和政策信息等上下文与工具。

Beluga AI

一个Go语言框架,提供REST和MCP服务器实现,用于构建复杂的AI代理和RAG应用,支持LLM集成、工具管理和工作流编排。

Milvus RAG MCP服务器

一个基于Model Context Protocol (MCP) 实现的服务器,利用Milvus向量数据库为LLM提供文档存储、语义搜索及检索增强生成(RAG)功能。

语义搜索MCP服务器

一个生产级的模型上下文协议(MCP)服务器,通过高级RAG功能为大型语言模型(LLM)客户端提供零成本的本地知识检索和文档处理服务。

Atlas Chat UI 与模块化MCP服务器

一个现代化的LLM聊天界面,通过集成多个内嵌的Model Context Protocol (MCP) 服务器,提供丰富的工具调用、RAG数据源和可定制的LLM交互模式。

c4 GenAI Suite

一个功能丰富的AI聊天应用套件,通过其内置的Model Context Protocol (MCP) 服务器代理,能够集成并标准化外部MCP服务,同时提供RAG、多LLM支持和可扩展的助手功能。

MCP RAG内容检索与工具服务器

基于MCP协议,提供文档管理、智能检索和引文生成等RAG功能,赋能LLM应用。

LangChain FastAPI MCP服务器模板

一个基于LangChain和FastAPI的生产级应用模板,提供MCP协议兼容的动态工具集成、RAG、Agent工作流及其他AI能力。

LupAI Meinsvwissen MCP服务器

LupAI Meinsvwissen MCP服务器提供一个基于MCP协议的上下文服务,通过语义搜索和文本检索工具,为LLM应用提供联邦学习资源和法律文本的访问能力。

Vector MCP:向量数据库统一管理服务

提供基于MCP协议的统一接口,管理多种向量数据库的集合、文档和RAG检索功能,简化LLM的上下文集成。

KGrag MCP 服务器

基于Model Context Protocol(MCP)构建的KGrag服务器,用于管理、摄取和查询结构化与非结构化知识图谱数据,支持LLM交互。

Google Maps Platform AI 辅助服务器

一个基于MCP协议的服务器,为LLM提供Google地图平台文档和代码辅助,通过检索增强生成(RAG)技术赋能开发者。

RAGex:智能代码搜索MCP服务器

RAGex是一个高性能MCP服务器,为LLM(如Claude)提供代码库的语义和正则搜索能力,实现代码模式的智能发现与复用。

TrustGraph

TrustGraph是一个企业级AI代理平台,提供基于知识图谱和向量数据库的上下文工程,通过MCP服务器暴露资源、工具和可定制的Prompt模板,赋能LLM应用。

Skynet-Agent 记忆库 MCP 服务器

Skynet-Agent 项目中负责管理意识记忆的 MCP 服务器组件,提供记忆的保存、搜索等工具能力。

RAG MCP Server

基于MCP协议的RAG服务器,提供文档索引、查询和检索能力。

Ollama-RAG-Sync MCP 服务器

基于Ollama和MCP,为LLM客户端提供RAG上下文检索和工具调用能力的后端服务。

Obsidian-Milvus-FastMCP

通过MCP协议连接Obsidian笔记与LLM,利用Milvus进行智能搜索和RAG。

自然语言 Web 服务器示例

基于 MCP 协议,为 LLM 提供网站内容的自然语言交互后端,支持资源访问、工具调用和 Prompt 模板。

E-paper MCP 服务器 (带 RAG 功能)

通过 Model Context Protocol 为 LLM 客户端提供电子报纸数据和功能,包含 RAG 增强的检索和推荐。

提示词检索MCP服务器

基于MCP协议,提供强大的提示词检索及上下文增强能力。

SuperNova 文档 MCP 检索服务

基于 MCP 协议的服务器,通过 RAG 为 LLM 客户端提供 SuperNova 虚拟文档的语义检索和问答能力。

LightRAG MCP 服务器

用于连接 LightRAG API 与 MCP 兼容客户端的应用后端,通过 MCP 协议提供 LightRAG 的增强生成能力。

MCP PDF 文档知识库

一个基于MCP协议的PDF文档知识库服务器,支持上传、处理和检索PDF内容,可与AI工具集成。

Sodateru知识图谱服务器

提供基于Agentic GraphRAG的自更新知识图谱服务,作为MCP服务器为LLM提供上下文和工具。

MCP RAG 服务器

基于MCP协议的RAG服务器,支持多格式文档索引与向量检索,通过JSON-RPC为LLM客户端提供服务。

LegalContext

LegalContext是一个开源的Model Context Protocol (MCP) 服务器,为法律专业人士安全地桥接Clio文档管理系统与Claude Desktop AI,实现基于文档的法律问答和语义搜索。

BionicGPT

本地部署的企业级生成式AI平台,强调数据隐私、RAG、模型管理和团队协作。

Kollektiv MCP 服务器

为LLM客户端提供个人知识库上下文和工具访问,支持多客户端和OAuth认证。

Tiny Chat Search MCP

LLMクライアント向けに、Qdrantデータベース検索機能を提供するMCPサーバーです。

金融风险合规管理MCP应用

一个利用MCP服务器提供RAG和LLM能力,支持多智能体协作的金融风险与合规分析应用。

RuoYi AI 助手平台

基于RuoYi框架构建的AI助手平台,提供LLM所需的上下文、工具及Prompt服务,支持多种AI功能。

网页抓取与RAG的MCP服务

提供基于Crawl4AI的网页抓取和Supabase向量数据库RAG能力,供AI客户端使用。

Archive Agent

开源的语义文件追踪器,集成了OCR和AI搜索,通过MCP协议提供上下文和功能给LLM客户端。

FinClip Agent

基于Model Context Protocol (MCP) 构建的轻量级智能对话代理后端,支持快速嵌入网页和集成知识库/外部工具。

Azure AI Foundry MCP 工具服务

为LLM应用提供基于Azure AI服务的上下文与工具集成的MCP服务器示例。

Datavizion RAG

基于 Datavizion 应用的 RAG 后端,通过 MCP 协议提供文档检索与 LLM 问答服务。

MCP RAG工具服务器

提供基于MCP协议的RAG搜索及基础计算工具服务,支持LLM获取外部信息和能力。

Appliqué 文档 RAG 助手 (MCP)

为LLM提供Myntra Appliqué设计系统文档检索与应答的MCP服务器。

pyLLMSearch

基于Model Context Protocol (MCP) 的高级RAG后端服务,提供文档搜索、问答和上下文管理能力。

MCP 工具服务器

提供多种基于Model Context Protocol (MCP) 的工具服务器,封装了文件系统、网络、数据处理等功能,供LLM客户端调用。

Vectara MCP 服务器

通过MCP协议将LLM连接至Vectara RAG平台,提供搜索与问答能力。

本地RAG网页搜索MCP服务器

一个本地运行的MCP服务器,提供基于RAG(检索增强生成)的网页搜索工具,帮助LLM获取最新信息。

llms-full MCP 服务器

llms-full MCP 服务器是一个为 LLM 应用提供文档检索和 Web 搜索功能的后端服务,通过统一的 MCP 协议进行交互。

Recall.js MCP服务器

Recall.js 作为一个轻量级RAG系统,通过MCP协议提供语义搜索工具,为LLM应用提供本地知识库的访问能力。

Solon-AI MCP Server

Solon-AI MCP Server是基于Java实现的Model Context Protocol服务器框架,为AI应用提供标准化的工具、资源和Prompt服务接口。

Rocketnotes MCP Server

Rocketnotes MCP服务器为LLM客户端提供笔记内容的上下文感知搜索和互动能力,集成Rocketnotes笔记应用。

Anytype MCP服务器

Anytype MCP服务器为LLM提供语义搜索和RAG能力,使其可以访问和利用您的Anytype文档知识库。

RagChatbot MCP服务器

一个基于MCP协议实现的RAG聊天机器人后端,提供PDF文档问答和邮件发送等工具能力,支持LLM客户端通过MCP协议进行功能调用。

RAG-MCP:RAG增强型PDF语义搜索服务器

RAG-MCP服务器是一个基于MCP协议实现的后端,专注于提供PDF文档的语义搜索和问答能力,支持OCR,可与任何MCP客户端集成,实现智能文档检索。

Ragflow MCP服务器

基于MCP协议的RAGFlow集成服务器,提供知识库管理、文档上传和问答等工具,简化LLM应用开发。

Godot RAG MCP Server

一个基于MCP协议的服务器,为Godot RAG模型提供Godot引擎文档的上下文检索工具。

Contextual MCP Server

基于 Contextual AI 平台的 MCP 服务器,为大语言模型客户端提供 RAG 能力,实现知识库问答和上下文感知交互。

GroundedLLM - 可落地AI Agent服务

GroundedLLM是一个开箱即用的AI Agent服务器,集成了搜索和信息提取工具,通过MCP协议为LLM客户端提供知识增强和工具调用能力,降低大语言模型幻觉。

RAG MCP Server

RAG MCP Server是一个基于Model Context Protocol的服务器,提供文档索引和检索能力,支持LLM进行检索增强生成。

senpai.nvim

senpai.nvim 是一个 Neovim AI 插件,内置 MCP 服务器,支持通过 Model Context Protocol 协议与 Mastra 等 MCP 服务器交互,实现聊天、RAG、Prompt Launcher 等 AI 功能。

MindsDB

MindsDB 是一个开源AI平台,充当 MCP 服务器,连接 LLM 与企业数据源,实现基于联合数据的 AI 应用构建。

Beating Heart Nostr RAG服务器

基于Nostr协议文档的RAG系统,通过MCP服务器为LLM智能体提供Nostr规范的语义搜索能力。

Wandering RAG

Wandering RAG是一个个人知识库RAG工具,它将本地Markdown文档、Notion笔记等数据存入向量数据库,并以MCP服务器形式对外提供知识检索和存储能力,为LLM应用提供个人化上下文服务。

Confluence Gateway

Confluence Gateway 利用AI能力增强 Confluence 搜索和知识检索,未来计划提供 MCP 服务器功能。

MCP-RAG示例服务器

基于MCP协议实现的RAG应用服务器,通过工具向LLM客户端提供知识库检索能力,并集成LangChain和LangGraph。

LlamaCloud MCP 服务器示例

演示如何使用 LlamaCloud 搭建 MCP 服务器,通过工具集成 LlamaIndex 云端索引,为 LLM 客户端提供 RAG 能力。

LlamaCloud MCP服务器

基于LlamaCloud的本地MCP服务器,通过RAG工具为LLM客户端(如Claude Desktop)提供最新的私有信息访问能力。

Galician Dictionary MCP Server

为LLM提供加利西亚语词典查询工具的MCP服务器实现。

RAG Kit MCP Server

RAG Kit MCP Server是一个基于Model Context Protocol的服务器,专注于为LLM应用提供检索增强生成(RAG)能力,通过工具化接口访问向量数据库,实现高效的知识检索和上下文管理。

Quick-start Auto MCP Server

快速为 Claude 和 Cursor 等 LLM 应用添加 MCP 功能,支持 RAG、Dify 和 Web Search 等工具,并自动生成配置。

Llama Stack Server

Llama Stack Server是一个应用后端,旨在通过标准化的方式为LLM客户端提供上下文信息和功能,支持资源管理、工具调用和Prompt模板定制。

Shared Knowledge MCP Server

为各类AI助手提供共享知识库的MCP服务器,支持RAG检索,提升信息访问效率。

Inkeep文档知识库MCP服务器

基于MCP协议,通过Inkeep RAG API为LLM提供文档检索工具,实现知识库的上下文访问。

kb mcp server

基于txtai的kb-mcp-server项目实现了一个模型上下文协议(MCP)服务器,旨在通过标准化的JSON-RPC接口,为LLM客户端提供语义搜索、知识图谱查询和AI文本处理等上下文增强服务。

serverless rag mcp server

基于Model Context Protocol (MCP) 构建的服务器,集成了Sionic AI Storm平台的RAG能力,为LLM客户端提供工具和资源访问。

storm mcp server

Storm MCP Server是基于Model Context Protocol的服务器实现,旨在连接LLM应用和Sionic AI Storm Platform,提供RAG数据源和工具集成,支持上下文共享、工具调用和文件管理等功能,特别为Claude Desktop等MCP客户端设计。

genaiscript

GenAIScript是一个基于JavaScript的框架,用于编程式构建Prompt,协调LLM、工具和数据,为LLM应用提供上下文服务,并支持模型上下文协议(MCP)工具。

mcp docs rag

一个基于Model Context Protocol的MCP服务器,实现了本地文档的RAG (检索增强生成) 功能,支持用户查询本地Git仓库和文本文件。

imessage mcp

imessage-mcp 是一个本地 iMessage 消息检索 MCP 服务器,允许 LLM 客户端通过语义相似性搜索用户的 iMessage 消息历史记录,提供上下文信息。

quick mcp example

基于Model Context Protocol (MCP) 的文档搜索服务器示例,提供文档资源访问、工具调用和Prompt模板功能,可与MCP客户端配合实现RAG应用。

Openwebui server

OpenWebUI-server 是一个 MCP 服务器,它为 Cline 客户端提供 OpenWebUI 的知识库访问和工具集成能力,例如文件上传和基于 RAG 的对话功能。

rag retriever

RAG Retriever是一个Python应用,作为MCP服务器,为AI助手提供网页检索、向量检索和网页抓取功能,增强代码生成和上下文感知能力。

raglite

RAGLite是一个Python工具包,用于构建基于PostgreSQL或SQLite的检索增强生成(RAG)应用,并内置了Model Context Protocol (MCP) 服务器,可以与MCP客户端(如Claude桌面应用)连接,提供知识库检索工具。

minima

Minima MCP Server为Anthropic Claude等LLM客户端提供本地文件RAG能力,支持工具调用和Prompt定制,实现安全可扩展的上下文服务。

mcp ragdocs

基于MCP协议的RAG文档服务器,提供文档检索、管理和URL提取等工具,增强LLM的文档上下文能力。

mcp server rag web browser

此MCP服务器通过调用Apify RAG Web Browser Actor,为LLM提供网页搜索和内容抓取工具,支持LLM客户端访问网络信息。

mcp apple notes

该项目是一个MCP服务器,通过语义搜索和RAG技术,使AI助手能够访问和检索用户的Apple Notes内容,实现本地知识库的集成。

mcp rag

本仓库提供了一个基于Model Context Protocol (MCP) 的RAG服务器示例,通过“retrieve”工具,使LLM能够检索和利用外部文档进行上下文增强。

code helper

基于FastMCP框架构建的代码搜索MCP服务器,提供关键词和向量混合搜索能力,用于LLM进行代码检索增强生成(RAG)。

Website Downloader (Windows)

MCP Website Downloader 是一个简单的 MCP 服务器,用于下载网站文档并为 RAG 系统建立索引,提供结构化的文档资源访问能力。

Code Embeddings

Code Embeddings仓库实现了一个基于MCP协议的代码知识库工具,能够通过向量嵌入技术管理和检索代码知识,并作为RAG上下文提供器集成到RooCode/Cline等IDE中。

LanceDB

LanceDB MCP Server 是一个基于 LanceDB 向量数据库的 MCP 服务器,为 LLM 应用提供文档检索和上下文信息查询功能。

Apple Notes

MCP Apple Notes 是一个本地运行的MCP服务器,允许AI助手(如Claude)通过语义搜索和RAG访问和利用用户的Apple Notes数据。

QDrant RagDocs

QDrant RagDocs 是一个 MCP 服务器,它利用 Qdrant 向量数据库和 Ollama/OpenAI 嵌入技术,为 LLM 应用提供 RAG 文档检索与管理能力。

RAG Docs

RAG Docs 是一个 MCP 服务器,它允许用户通过语义搜索,在文档库中检索信息,支持从URL或本地文件添加文档,并使用向量数据库Qdrant进行存储和检索。

Tavily Search

使用Tavily搜索API的MCP服务器,为LLM提供高质量网络搜索能力。

Trieve

Trieve MCP服务器是为LLM应用提供搜索、推荐和RAG功能的一体化解决方案后端实现,支持自托管,并可通过Smithery等工具便捷安装。

Minima (Local RAG)

Minima MCP服务器为本地RAG应用提供与LLM客户端(如Anthropic Claude)进行上下文交互的桥梁,支持资源访问、工具调用和Prompt模板。

MCPunk (Roaming RAG)

MCPunk是一个MCP服务器,让LLM通过智能代码搜索和代码块分析理解和探索代码库,无需嵌入。

RAG Documentation

RAG Documentation MCP Server是一个基于MCP协议的后端应用,通过向量搜索技术,为LLM客户端提供文档检索和处理工具,增强AI助手处理文档上下文的能力。

RAG Web Browser Server

RAG Web Browser MCP服务器为LLM提供网页浏览和信息检索能力,通过工具调用实现网页搜索和内容抓取。

RAG Documentation

RAG Documentation MCP Server是一个基于向量搜索的MCP服务器,旨在为LLM应用提供文档检索和上下文增强工具,支持多种文档源和语义搜索。