responses-proxy:用 Python 搭建 OpenAI 兼容代理服务
背景:为什么需要代理
OpenAI 推出了 Responses API,它是 Chat Completions API 的下一代接口,支持更复杂的交互模式——多轮 tool call、reasoning 内容输出、多模态输入等。但问题来了:
- 工具链滞后:Codex CLI、Cursor 等工具已经对接了 Responses API,但很多国产模型(MiMo、DeepSeek、Qwen)只提供 Chat Completions 接口。
- 接口不兼容:Responses API 和 Chat Completions API 的请求/响应格式完全不同,直接替换行不通。
- 多 provider 管理混乱:不同模型散落在不同平台,每个平台一套 API key、一个 endpoint,切换成本高。
responses-proxy 就是为了解决这三个问题:它是一个 FastAPI 代理服务,接收 Responses API 请求,自动转换为 Chat Completions API 转发给后端 provider,再把响应转换回来。对上游工具来说,它就是一个标准的 Responses API 端点。