基于七牛云产品构建的 Model Context Protocol (MCP) Server,支持用户在 AI 大模型客户端的上下文中通过该 MCP Server 来访问七牛云存储、智能多媒体,直播服务等。 - 获取 Bucket 列表 - 获取 Bucket 中的文件列表 - 上传本地文件,以及给出文件内容进行上传 - 关于访问七牛云存储详细情况请参考 基于 MCP 使用大模型访问七牛云存储。 - 创建直播空间bucket - 获取推拉流直播地址 - Python 3.12 或更高版本 如果还没有安装 uv,可以使用以下命令安装: 具体安装方式参考 uv 安装 1. 在 vscode 下载 Cline 插件(下载后 Cline 插件后在侧边栏会增加 Cline 的图标) 3. 配置 qiniu MCP 1. 点击 Cline 图标进入 Cline 插件,选择 MCP Server 模块
Add this skill
npx mdskills install qiniu/qiniu-mcp-serverComprehensive MCP server for Qiniu Cloud with storage, CDN, live streaming, and media processing tools
基于七牛云产品构建的 Model Context Protocol (MCP) Server,支持用户在 AI 大模型客户端的上下文中通过该 MCP Server 来访问七牛云存储、智能多媒体,直播服务等。
能力集:
如果还没有安装 uv,可以使用以下命令安装:
# Mac,推荐使用 brew 安装
brew install uv
# Linux & Mac
# 1. 安装
curl -LsSf https://astral.sh/uv/install.sh | sh
# 2. 安装完成后,请确保将软件包安装路径(包含 uv 和 uvx 可执行文件的目录)添加到系统的 PATH 环境变量中。
# 假设安装包路径为 /Users/xxx/.local/bin(见安装执行输出)
### 临时生效(当前会话),在当前终端中执行以下命令:
export PATH="/Users/xxx/.local/bin:$PATH"
### 永久生效(推荐),在当前终端中执行以下命令:
echo 'export PATH="/Users/xxx/.local/bin:$PATH"' >> ~/.bash_profile
source ~/.bash_profile
# Windows
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
具体安装方式参考 uv 安装
步骤:
在 vscode 下载 Cline 插件(下载后 Cline 插件后在侧边栏会增加 Cline 的图标)
配置大模型
配置 qiniu MCP
{
"mcpServers": {
"qiniu": {
"command": "uvx",
"args": [
"qiniu-mcp-server"
],
"env": {
"QINIU_ACCESS_KEY": "YOUR_ACCESS_KEY",
"QINIU_SECRET_KEY": "YOUR_SECRET_KEY",
"QINIU_REGION_NAME": "YOUR_REGION_NAME",
"QINIU_ENDPOINT_URL": "YOUR_ENDPOINT_URL",
"QINIU_BUCKETS": "YOUR_BUCKET_A,YOUR_BUCKET_B"
},
"disabled": false
}
}
}
如果只使用直播功能时,支持两种鉴权模式
1 配置QINIU_ACCESS_KEY/QINIU_SECRET_KEY
{
"mcpServers": {
"qiniu": {
"command": "uvx",
"args": [
"qiniu-mcp-server"
],
"env": {
"QINIU_ACCESS_KEY": "YOUR_ACCESS_KEY",
"QINIU_SECRET_KEY": "YOUR_SECRET_KEY"
},
"disabled": false
}
}
}
2 可在七牛直播控制台获取apikey后,配置QINIU_LIVE_API_KEY
{
"mcpServers": {
"qiniu": {
"command": "uvx",
"args": [
"qiniu-mcp-server"
],
"env": {
"QINIU_LIVE_API_KEY": "YOUR_LIVE_API_KEY"
},
"disabled": false
}
}
}
在 Cline 中创建一个聊天窗口,此时我们可以和 AI 进行交互来使用 qiniu-mcp-server ,下面给出对象存储的几个示例:
在 Cline 中创建一个聊天窗口,此时我们可以和 AI 进行交互来使用 qiniu-mcp-server ,下面给出直播系统的几个示例:
注: cursor 中创建 MCP Server 可直接使用上述配置。 claude 中使用时可能会遇到:Error: spawn uvx ENOENT 错误,解决方案:command 中 参数填写 uvx 的绝对路径,eg: /usr/local/bin/uvx
# 克隆项目并进入目录
git clone git@github.com:qiniu/qiniu-mcp-server.git
cd qiniu-mcp-server
uv venv
source .venv/bin/activate # Linux/macOS
# 或
.venv\Scripts\activate # Windows
uv pip install -e .
复制环境变量模板:
cp .env.example .env
编辑 .env 文件,配置以下参数:
# S3/Kodo 认证信息
QINIU_ACCESS_KEY=your_access_key
QINIU_SECRET_KEY=your_secret_key
# 区域信息
QINIU_REGION_NAME=your_region
QINIU_ENDPOINT_URL=endpoint_url # eg:https://s3.your_region.qiniucs.com
# 配置 bucket,多个 bucket 使用逗号隔开,建议最多配置 20 个 bucket
QINIU_BUCKETS=bucket1,bucket2,bucket3
扩展功能,首先在 core 目录下新增一个业务包目录(eg: 存储 -> storage),在此业务包目录下完成功能拓展。
在业务包目录下的 __init__.py 文件中定义 load 函数用于注册业务工具或者资源,最后在 core 目录下的 __init__.py
中调用此 load 函数完成工具或资源的注册。
core
├── __init__.py # 各个业务工具或者资源加载
└── storage # 存储业务目录
├── __init__.py # 加载存储工具或者资源
├── resource.py # 存储资源扩展
├── storage.py # 存储工具类
└── tools.py # 存储工具扩展
强烈推荐使用 Model Control Protocol Inspector 进行测试。
# node 版本为:v22.4.0
npx @modelcontextprotocol/inspector uv --directory . run qiniu-mcp-server
uv --directory . run qiniu-mcp-server
uv --directory . run qiniu-mcp-server --transport sse --port 8000
Install via CLI
npx mdskills install qiniu/qiniu-mcp-serverQiniu MCP Server is a free, open-source AI agent skill. 基于七牛云产品构建的 Model Context Protocol (MCP) Server,支持用户在 AI 大模型客户端的上下文中通过该 MCP Server 来访问七牛云存储、智能多媒体,直播服务等。 - 获取 Bucket 列表 - 获取 Bucket 中的文件列表 - 上传本地文件,以及给出文件内容进行上传 - 关于访问七牛云存储详细情况请参考 基于 MCP 使用大模型访问七牛云存储。 - 创建直播空间bucket - 获取推拉流直播地址 - Python 3.12 或更高版本 如果还没有安装 uv,可以使用以下命令安装: 具体安装方式参考 uv 安装 1. 在 vscode 下载 Cline 插件(下载后 Cline 插件后在侧边栏会增加 Cline 的图标) 3. 配置 qiniu MCP 1. 点击 Cline 图标进入 Cline 插件,选择 MCP Server 模块
Install Qiniu MCP Server with a single command:
npx mdskills install qiniu/qiniu-mcp-serverThis downloads the skill files into your project and your AI agent picks them up automatically.
Qiniu MCP Server works with Claude Code, Claude Desktop, Cursor, Vscode Copilot, Windsurf, Continue Dev, Gemini Cli, Amp, Roo Code, Goose. Skills use the open SKILL.md format which is compatible with any AI coding agent that reads markdown instructions.