Deepseek Thinking Server是一个MCP服务器,通过Deepseek R1模型为LLM客户端提供思考推理能力,支持Claude Desktop等MCP客户端。
Deepseek Thinker MCP Server是一个基于MCP协议的服务,通过Deepseek模型为LLM客户端提供推理能力,支持OpenAI API和Ollama本地部署,并提供获取Deepseek模型思考过程的工具。
Deepseek R1 MCP Server是一个基于Model Context Protocol的服务器,它为LLM客户端提供Deepseek R1和V3模型的文本生成能力,支持通过Claude Desktop等MCP客户端调用。