Navigation
语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery - MCP Implementation

语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery

Mirror, secure, and master enterprise workflows – MCP Server's seamless cross-cloud synchronization delivers unmatched collaboration power and data resilience for modern teams.

Developer Tools
4.4(122 reviews)
183 saves
85 comments

Users create an average of 55 projects per month with this tool

About 语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery

What is 语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery?

语雀 MCP 服务器是一款基于 Model-Context-Protocol(MCP)架构的专用工具,旨在无缝集成语雀知识库平台与 AI 模型。它通过标准化接口允许 AI 系统安全访问、操作和分析语雀数据,同时支持跨云环境同步与企业级工作流管理。该服务器的设计灵感源自 Figma-Context-MCP,但针对语雀开放 API 的特性进行了深度适配,提供从文档管理到团队分析的全方位功能。

How to use 语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery?

部署与使用流程灵活多样:
1. 本地开发:通过 Node.js 环境安装依赖并运行开发服务器,支持 HTTP 或 CLI 模式快速调试。 2. 生产部署:构建项目后启动生产环境服务,推荐通过 Docker Compose 实现容器化部署,仅需简单配置即可管理多环境实例。 3. 动态配置:借助 SSE 端点的查询参数机制,可实时覆盖 API 令牌或基础 URL,满足多用户测试与云环境切换需求。 例如:访问 该链接 即可动态指定 API 凭据

语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery Features

Key Features of 语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery?

  • 全生命周期文档管理:支持创建/更新/删除文档,兼容 Markdown、HTML、Lake 等多格式,且提供细粒度权限控制
  • 智能搜索与分析:通过 search 工具实现跨知识库内容检索,搭配 get_group_statistics 系列接口生成团队协作洞察报告
  • 企业级安全架构:采用环境变量与查询参数双配置模式,确保敏感信息(如 API 令牌)的灵活管理与最小权限暴露
  • 多模式部署能力:同时支持标准 HTTP API 与 CLI 工具链,可无缝嵌入 CI/CD 流水线或作为服务端组件

Use cases of 语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery?

典型应用场景包括:
AI 辅助内容创作:结合自然语言处理模型自动整理文档结构或生成知识库摘要 • 自动化运维:通过 CLI 工具批量迁移知识库或执行文档版本回滚 • 数据看板集成:将语雀的文档活跃度、协作统计等指标接入企业分析平台 • 混合云环境管理

语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery FAQ

FAQ from 语雀 MCP 服务器:Cross-Cloud Sync & Enterprise Workflow Mastery?

如何验证 API 令牌有效性?
执行 get_current_user 工具,若返回用户信息则表明配置正确
支持同时连接多个语雀账户吗?
是的,通过独立的 SSE 连接实例即可实现多账户并行操作
文档删除后能否恢复?
删除操作为最终行为,建议在生产环境启用前通过测试环境验证业务逻辑
如何获取完整 API 参考文档?
访问官方 Swagger 接口文档 查看详细定义

Content

语雀 MCP 服务器

English Version

一个用于与语雀 API 集成的 Model-Context-Protocol (MCP) 服务器。此实现受 Figma-Context-MCP 的启发,并使用 语雀开放 API

概述

该服务器提供了与语雀知识库平台交互的 MCP 工具,允许 AI 模型:

  • 获取用户和文档信息
  • 创建、读取、更新和删除文档
  • 搜索语雀中的内容
  • 获取知识库信息
  • 获取统计数据和分析信息

安装

前提条件

  • Node.js 18+ (推荐)
  • 拥有 API 令牌的语雀账号

设置

  1. 克隆此仓库:

    git clone https://github.com/Henryhaoson/Yueque-MCP-Server.git

cd Yueque-MCP-Server
  1. 安装依赖:

    npm install

  2. 基于 .env.example 创建 .env 文件:

    cp .env.example .env

  3. (可选) 在 .env 文件中添加你的语雀 API 令牌:

    YUQUE_API_TOKEN=your_yuque_api_token_here

你也可以选择在连接到服务器时通过查询参数提供令牌,而不是在 .env 文件中设置。

使用方法

运行服务器

开发模式

# HTTP 服务器模式
npm run dev

# CLI stdio 模式
npm run dev:cli

生产模式

首先,构建项目:

npm run build

然后在 HTTP 或 CLI 模式下运行:

# HTTP 服务器模式
npm run start

# CLI stdio 模式
npm run start:cli

使用 Docker 部署

本项目提供了 Docker 支持,使您可以轻松地容器化和部署服务器。

使用 Docker Compose(推荐)

  1. 构建并启动容器:

    docker-compose up -d

  2. 查看日志:

    docker-compose logs -f

  3. 停止服务:

    docker-compose down

您可以通过环境变量或在 .env 文件中设置配置项:

# .env 文件示例
PORT=3000
YUQUE_API_TOKEN=your_token_here
YUQUE_API_BASE_URL=https://www.yuque.com/api/v2

手动使用 Docker

  1. 构建 Docker 镜像:

    docker build -t yuque-mcp-server .

  2. 运行容器:

    docker run -d -p 3000:3000 --name yuque-mcp-server yuque-mcp-server

  3. 使用环境变量:

    docker run -d -p 3000:3000
    -e YUQUE_API_TOKEN=your_token_here
    -e YUQUE_API_BASE_URL=https://www.yuque.com/api/v2
    --name yuque-mcp-server yuque-mcp-server

MCP 工具

语雀 MCP 服务器提供以下工具:

用户和文档管理

  • get_current_user - 获取当前认证用户的信息,包括用户ID、用户名、头像等语雀账号基本信息
  • get_user_docs - 获取当前用户的所有知识库文档列表,包括私人和协作文档
  • get_user_repos - 获取指定用户的知识库列表,知识库是语雀中组织文档的集合
  • get_repo_docs - 获取特定知识库中的所有文档列表,包括文档标题、更新时间等信息
  • get_doc - 获取语雀中特定文档的详细内容,包括正文、修改历史和权限信息
  • create_doc - 在指定知识库中创建新的语雀文档,支持多种格式内容(Markdown、HTML、Lake)
  • update_doc - 更新语雀中已存在的文档,可以修改标题、内容或权限设置
  • delete_doc - 从语雀知识库中删除指定文档,此操作不可撤销
  • search - 在语雀平台中搜索文档或知识库内容,支持范围和作者筛选

团队统计分析

  • get_group_statistics - 获取团队的汇总统计数据,包括成员人数、文档数量、阅读量和互动数据等
  • get_group_member_statistics - 获取团队成员的统计数据,包括各成员的编辑次数、阅读量、点赞量等
  • get_group_book_statistics - 获取团队知识库的统计数据,包括各知识库的文档数、字数、阅读量等
  • get_group_doc_statistics - 获取团队文档的统计数据,包括各文档的字数、阅读量、评论量等

与 AI 模型的集成

此 MCP 服务器可以与支持 Model-Context-Protocol 的 AI 模型一起使用,允许它们通过定义的工具与语雀交互。例如:

  1. 启动 MCP 服务器
  2. 从兼容的客户端连接到服务器
  3. AI 模型现在可以使用注册的工具与语雀数据交互

SSE 端点的查询参数

当连接到 SSE 端点时,你可以通过查询参数(query parameters)覆盖环境配置,这些参数的优先级高于环境变量:

  • accessToken: 覆盖在 .env 文件中设置的语雀 API 令牌
  • baseUrl: 覆盖在 .env 文件中设置的语雀 API 基础 URL

示例:

http://localhost:3000/sse?accessToken=your_token_here&baseUrl=https://custom.yuque.api/v2

这允许你在不修改 .env 文件的情况下动态配置服务,并且查询参数的优先级高于环境变量。这对于多用户环境或测试不同 API 端点特别有用。

每个 SSE 连接都可以使用不同的配置,这使得同一个服务器实例可以同时为不同的用户或环境提供服务。

开发

项目结构

src/
  ├── config.ts          # 服务器配置
  ├── index.ts           # 主入口点
  ├── cli.ts             # CLI 入口点 
  ├── server.ts          # MCP 服务器实现
  └── services/
      └── yuque.ts       # 语雀 API 服务

添加新工具

要添加新工具,请修改 src/server.ts 中的 registerTools 方法。

API 改进

最近的更新增加了以下功能:

  1. 团队统计数据 :添加了获取团队、成员、知识库和文档统计数据的功能,便于分析和监控团队知识库的使用情况。

  2. 文档管理增强

* 支持多种文档格式(Markdown、HTML、Lake)
* 完善的文档公开性设置(私密、公开、企业内公开)
* 搜索功能支持更多参数和过滤条件
  1. 数据类型完善 :更新了接口定义,使其与语雀 OpenAPI 规范保持一致。

许可证

ISC

致谢

Related MCP Servers & Clients