← 返回首页

"AI推理"标签的搜索结果

找到 5 个结果

Perplexity MCP 服务器

该服务器通过 Model Context Protocol (MCP) 标准,为LLM客户端提供实时网络搜索、高级推理和深度研究等Perplexity API功能。

IPFS Accelerate MCP 服务器

一个企业级AI推理加速平台,通过MCP协议向LLM客户端提供硬件加速的机器学习推理能力、模型管理和分布式P2P缓存服务。

Rini MCP 工具集服务器

一个基于MCP协议实现的服务器集合,提供网页搜索、代码生成、YouTube处理、GitHub分析等多种AI驱动的工具能力。

macop

一个用于托管、管理和运行大模型的后端服务,支持模型分发、上下文控制和Prompt模板。

inference worker

一个MCP服务器,作为桥梁连接其他软件和Cerebras AI推理平台,提供提交任务到Cerebras平台进行AI模型推理的功能。