双向 API 转换 OpenAI ⇌ Claude,畅享 SophNet 算能平台

Diagram showing XAI Bridge connecting to SophNet

用 XAI Bridge 解锁 Sophnet(算能) 的全部潜力

你是否正在使用 SophNet (算能) 平台,并为其提供的 Qwen3-CoderKimi-K2GLM-4.5 等高性价比模型而感到兴奋?

算能平台提供了标准的 OpenAI API 接口,这非常棒。但如果你的应用、工具链或个人偏好是基于 Anthropic Claude 的 API 格式呢?难道要为了接入新模型而重构现有代码吗?

现在,有了 XAI Bridge,你可以鱼与熊掌兼得!

它就像一个神通广大的“万能协议转换器”,架设在你的应用和算能平台之间。即使算能平台只“说”OpenAI 的语言,XAI Bridge 也能让它听懂 Claude 的指令。这意味着,你可以用你最爱的 Claude SDK 或工具,去调用算能平台上的任何模型!

为什么这个组合如此强大?

  • 协议自由:你的应用代码无需任何改动。无论是基于 OpenAI 还是 Claude 的工具,现在都能无缝接入算能平台。
  • 简化新模型集成:想在你的 Claude 应用里试试 Qwen3-Coder 的代码能力?现在就像切换一个模型名称一样简单。

三步解锁 Sophnet 平台的双协议访问

让我们通过一个具体的例子,看看配置有多么简单。

  1. 准备 docker-compose.yml 文件 这是实现所有魔法的核心。创建一个 docker-compose.yml 文件,内容如下:
services:
  xai-bridge-provider:
    container_name: xai-bridge-provider
    image: proxyxai/xai-bridge-provider
    pull_policy: always
    restart: always
    ports:
      - 8080:8080
    environment:
      # --- 核心配置: 指向算能平台的 OpenAI 兼容接口 ---
      - OPENAI_API_URLS=https://www.sophnet.com/api/open-apis/v1/chat/completions

      # --- 注意: 这里留空!---
      # 因为我们的目标是算能,它只提供 OpenAI 接口。
      # Bridge 会智能地将 Claude 请求也转换并发送到上面的 OPENAI_API_URLS。
      - CLAUDE_API_URLS=

      # --- 密钥配置: 留空以实现透明代理 ---
      # Bridge 将直接使用客户端请求中附带的 API Key。
      - OPENAI_API_KEY=
      - CLAUDE_API_KEY=

      # 模型映射
      - MODEL_MAPPER=claude*=Qwen3-Coder
networks:
  xai-bridge-provider:
    driver: bridge
  1. 理解配置的精髓

    • OPENAI_API_URLS: 我们将它指向算能平台提供的 OpenAI 兼容端点。这是我们所有请求的最终目的地。
    • CLAUDE_API_URLS: 这里是关键! 我们将其留空。XAI Bridge 在这种模式下会进入一个强大的“单目标转换”模式:它会把所有接收到的 Claude 格式请求,在转换后,也发送到 OPENAI_API_URLS 指定的地址。
    • API_KEY 变量: 我们同样将密钥留空,让 Bridge 成为一个透明的代理,直接使用你客户端发来的密钥,无论是 Authorization: Bearer sk-xxx 还是 x-api-key: sk-xxx
  2. 一键启动!docker-compose.yml 文件所在的目录中,运行:

    docker-compose up -d
    

    搞定!现在,位于 http://localhost:8080 的 XAI Bridge 已经准备好。

使用指南

你的双协议转换器已启动,现在让我们来调用算能平台上的 Kimi-K2 模型。

方式一:OpenAI 协议(原生代理)

这就像直接调用算能平台一样,请求会通过 Bridge 透明地传递过去。

curl http://localhost:8080/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_SOPHNET_API_KEY" \
  -d '{
    "model": "Kimi-K2",
    "messages": [
      {
        "role": "user",
        "content": "用 Python 写一个快速排序算法"
      }
    ]
  }'

方式二:Claude 协议(协议转换)

我们现在使用的是 Claude 的 API 格式

curl http://localhost:8080/v1/messages \
  -H "Content-Type: application/json" \
  -H "x-api-key: YOUR_SOPHNET_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -d '{
    "model": "Kimi-K2",
    "messages": [
      {
        "role": "user",
        "content": "用 Python 写一个快速排序算法"
      }
    ],
    "max_tokens": 2048
  }'

发生了什么?

XAI Bridge 接收到这个 Claude 格式的请求,在内部将其无缝转换为 OpenAI 格式,然后发送给算能平台。对你而言,你仿佛在直接与一个支持 Claude API 的算能服务对话!

同理,你可以用这两种方式调用 Qwen3-CoderGLM-4.5 等所有算能平台支持的模型。现在,你的应用可以真正实现协议无关,自由选择最适合的模型,而无需担心任何集成障碍。