← 返回首页

"本地LLM"标签的搜索结果

找到 13 个结果

FlockParse - 分布式RAG智能平台

FlockParse是一个GPU感知的分布式文档RAG系统,通过MCP协议为AI助手提供高效、本地化的文档处理和问答能力。

Presenton - AI演示文稿生成器

Presenton是一个开源的AI演示文稿生成器,可本地运行,集成了LLM模型和图像生成服务,并通过MCP服务器提供上下文服务。

Jarvis

Jarvis是一个本地AI助手,通过MCP架构集成了LLM和外部服务,当前支持使用自然语言发送Gmail邮件。

humanus.cpp框架

这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。

Wandering RAG

Wandering RAG是一个个人知识库RAG工具,它将本地Markdown文档、Notion笔记等数据存入向量数据库,并以MCP服务器形式对外提供知识检索和存储能力,为LLM应用提供个人化上下文服务。

CoD提示工具服务器

基于MCP协议的Chain of Draft提示工具,优化LLM推理效率并降低Token消耗,支持多种LLM模型。

Claude LM Studio 桥接器

连接 Claude Desktop 与本地 LM Studio,让 Claude 可以使用本地大语言模型进行文本生成和对话。

Deepdesk平台

企业级AI平台,支持MCP协议,用于创建、管理和部署AI Agent,安全集成企业数据和LLM。

Unity MCP Ollama 集成服务器

该项目实现了基于MCP协议的服务器,通过Ollama集成本地LLM,以自然语言控制Unity编辑器,实现自动化工作流程。

locallama mcp

LocaLLama MCP Server是一个应用后端,它利用本地LLM和付费API,根据成本、质量和速度等因素,智能地路由代码生成任务,优化LLM使用成本。

raglite

RAGLite是一个Python工具包,用于构建基于PostgreSQL或SQLite的检索增强生成(RAG)应用,并内置了Model Context Protocol (MCP) 服务器,可以与MCP客户端(如Claude桌面应用)连接,提供知识库检索工具。

Ollama Deep Researcher

Ollama Deep Researcher MCP服务器是一个基于Model Context Protocol的应用后端,它利用本地Ollama大语言模型和网络搜索API,为AI助手提供深度研究工具,并以资源形式持久化研究结果。

Deepseek R1 Reasoner

Deepseek R1 Reasoner MCP Server为本地LLM客户端提供基于 Deepseek R1 模型的推理规划工具,支持通过 Ollama 运行本地模型。