← 返回首页

"工作流编排"标签的搜索结果

找到 26 个结果

Plexus

Plexus是一个AI代理操作系统,它通过Model Context Protocol (MCP) 标准,为AI代理提供内容流分析、工作流编排、资源管理和工具调用能力。

Workstation 自动化平台

Workstation 是一个隐私优先的浏览器自动化平台,通过 Model Context Protocol (MCP) 标准,为AI代理和GitHub Copilot提供可定制的网页操作工具、工作流编排和代码自动化能力。

LettaPlus MCP工作流服务

LettaPlus MCP工作流服务是一个基于Model Context Protocol (MCP) 构建的后端服务,用于规划、验证和执行由瞬时Letta智能体和动态加载技能组成的复杂多步骤工作流,通过RedisJSON控制平面实现编排。

IOWarp

IOWarp是一个高性能上下文管理平台,专为AI代理设计,用于编排大规模数据、复杂多步骤工作流和自主智能体协同,通过提供标准化的MCP服务器支持LLM应用。

Workflows MCP 服务器

一个功能强大的Model Context Protocol (MCP) 服务器,将复杂的自动化任务转化为简单的、可由LLM驱动的工作流定义。

NVIDIA NeMo Agent Toolkit

灵活的NVIDIA NeMo Agent Toolkit,能够连接企业级代理与各类数据源和工具,并通过Model Context Protocol (MCP) 发布这些能力,使其成为可扩展的MCP服务器。

Deco AI-Native 应用平台核心服务

Deco CMS提供了一个基于 Model Context Protocol (MCP) 的AI原生应用后端框架,用于管理AI资源、工具、工作流及会话,支持Cloudflare Worker部署。

Claude Code MCP 服务集合

该仓库提供了一系列基于Model Context Protocol (MCP) 构建的服务器插件,为LLM客户端提供代码分析、API调试、知识库管理和工作流自动化等功能。

Mastra AI 框架

Mastra是一个用于构建AI应用和智能体的TypeScript框架,提供强大的工作流编排、上下文管理、工具调用和多模型集成能力,支持独立服务器部署。

Deco CMS MCP服务器框架

Deco CMS提供构建AI原生应用的MCP服务器框架,通过标准化协议管理资源、工具和Prompt模板,支持LLM应用上下文服务。

MCP Routine 服务器

允许用户将常用的工具调用序列保存为可重复使用的"例程",简化大型语言模型的工作流程。

Mnemo AI代理框架

一个基于 Model Context Protocol (MCP) 构建的Python框架,用于创建AI代理、编排工作流,并通过标准化的方式向LLM提供工具和数据访问能力。

Unified N8N AI Automation Suite

自托管AI与工作流自动化平台,集成n8n、多智能体(MCP服务器)及浏览器自动化。

NVIDIA AIQ Toolkit

灵活的AI Agent开发库,可集成多种数据源和工具,并支持作为MCP服务器对外提供能力。

Workflows MCP

Workflows MCP是一个MCP服务器,用于编排和组合多个Prompt和MCP服务器,简化AI工具的使用和管理。

Union MCP Server

Union MCP Server是一个基于Model Context Protocol的服务器,旨在将Union AI的任务、工作流和应用作为工具提供给LLM客户端,实现对Union AI计算能力的便捷访问和调用。

DocGen MCP服务器

DocGen MCP服务器是基于Model Context Protocol的应用后端,提供文档生成、GitHub集成和工作流编排等上下文服务。

Dify Workflow MCP Server

基于MCP协议,将Dify Workflow工作流作为工具提供给LLM客户端的服务器,支持 Claude 等客户端连接。

Workflows MCP

Workflows MCP 是一个 MCP 服务器,允许用户通过 YAML 文件灵活编排和管理 Prompt 工作流,并集成多种 MCP 工具。

Flock平台

Flock是一个低代码工作流平台,通过集成MCP服务器,实现协作式Agent的编排,用于构建聊天机器人和RAG应用。

MCP工具链服务器

通过链式调用多个MCP工具,实现复杂工作流编排,并优化Token使用,提升效率。

FLUJO

FLUJO是一个开源平台,本地化桥接工作流编排、模型上下文协议(MCP)和AI工具集成,为LLM应用提供安全可扩展的上下文服务框架。

AgentIQ

AgentIQ是一个灵活的库,旨在将企业级智能体与各种数据源和工具无缝集成,并兼容模型上下文协议(MCP),作为一个有效的MCP服务器实现。

dify mcp server

一个简单的MCP服务器实现,将Dify工作流作为工具暴露给LLM客户端,使其能够利用Dify的功能。

Human In The Loop

基于MCP协议的人机回路服务器,通过多维度评分系统评估AI任务是否需要人工干预。

Dify Workflow Server

Dify Workflow Server是一个MCP服务器,它允许LLM客户端通过工具调用来执行和管理Dify平台上的工作流。