双向 API 转换 OpenAI ⇌ Claude,畅享 SophNet 算能平台

用 XAI Bridge 解锁 Sophnet(算能) 的全部潜力
你是否正在使用 SophNet (算能) 平台,并为其提供的 Qwen3-Coder
、Kimi-K2
、GLM-4.5
等高性价比模型而感到兴奋?
算能平台提供了标准的 OpenAI API 接口,这非常棒。但如果你的应用、工具链或个人偏好是基于 Anthropic Claude 的 API 格式呢?难道要为了接入新模型而重构现有代码吗?
现在,有了 XAI Bridge,你可以鱼与熊掌兼得!
它就像一个神通广大的“万能协议转换器”,架设在你的应用和算能平台之间。即使算能平台只“说”OpenAI 的语言,XAI Bridge 也能让它听懂 Claude 的指令。这意味着,你可以用你最爱的 Claude SDK 或工具,去调用算能平台上的任何模型!
为什么这个组合如此强大?
- 协议自由:你的应用代码无需任何改动。无论是基于 OpenAI 还是 Claude 的工具,现在都能无缝接入算能平台。
- 简化新模型集成:想在你的 Claude 应用里试试
Qwen3-Coder
的代码能力?现在就像切换一个模型名称一样简单。
三步解锁 Sophnet 平台的双协议访问
让我们通过一个具体的例子,看看配置有多么简单。
- 准备
docker-compose.yml
文件 这是实现所有魔法的核心。创建一个docker-compose.yml
文件,内容如下:
services:
xai-bridge-provider:
container_name: xai-bridge-provider
image: proxyxai/xai-bridge-provider
pull_policy: always
restart: always
ports:
- 8080:8080
environment:
# --- 核心配置: 指向算能平台的 OpenAI 兼容接口 ---
- OPENAI_API_URLS=https://www.sophnet.com/api/open-apis/v1/chat/completions
# --- 注意: 这里留空!---
# 因为我们的目标是算能,它只提供 OpenAI 接口。
# Bridge 会智能地将 Claude 请求也转换并发送到上面的 OPENAI_API_URLS。
- CLAUDE_API_URLS=
# --- 密钥配置: 留空以实现透明代理 ---
# Bridge 将直接使用客户端请求中附带的 API Key。
- OPENAI_API_KEY=
- CLAUDE_API_KEY=
# 模型映射
- MODEL_MAPPER=claude*=Qwen3-Coder
networks:
xai-bridge-provider:
driver: bridge
-
理解配置的精髓
OPENAI_API_URLS
: 我们将它指向算能平台提供的 OpenAI 兼容端点。这是我们所有请求的最终目的地。CLAUDE_API_URLS
: 这里是关键! 我们将其留空。XAI Bridge 在这种模式下会进入一个强大的“单目标转换”模式:它会把所有接收到的 Claude 格式请求,在转换后,也发送到OPENAI_API_URLS
指定的地址。API_KEY
变量: 我们同样将密钥留空,让 Bridge 成为一个透明的代理,直接使用你客户端发来的密钥,无论是Authorization: Bearer sk-xxx
还是x-api-key: sk-xxx
。
-
一键启动! 在
docker-compose.yml
文件所在的目录中,运行:docker-compose up -d
搞定!现在,位于
http://localhost:8080
的 XAI Bridge 已经准备好。
使用指南
你的双协议转换器已启动,现在让我们来调用算能平台上的 Kimi-K2
模型。
方式一:OpenAI 协议(原生代理)
这就像直接调用算能平台一样,请求会通过 Bridge 透明地传递过去。
curl http://localhost:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_SOPHNET_API_KEY" \
-d '{
"model": "Kimi-K2",
"messages": [
{
"role": "user",
"content": "用 Python 写一个快速排序算法"
}
]
}'
方式二:Claude 协议(协议转换)
我们现在使用的是 Claude 的 API 格式!
curl http://localhost:8080/v1/messages \
-H "Content-Type: application/json" \
-H "x-api-key: YOUR_SOPHNET_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-d '{
"model": "Kimi-K2",
"messages": [
{
"role": "user",
"content": "用 Python 写一个快速排序算法"
}
],
"max_tokens": 2048
}'
发生了什么?
XAI Bridge 接收到这个 Claude 格式的请求,在内部将其无缝转换为 OpenAI 格式,然后发送给算能平台。对你而言,你仿佛在直接与一个支持 Claude API 的算能服务对话!
同理,你可以用这两种方式调用 Qwen3-Coder
、GLM-4.5
等所有算能平台支持的模型。现在,你的应用可以真正实现协议无关,自由选择最适合的模型,而无需担心任何集成障碍。