AIClient-2-API。
作为一个产品经理,我经常需要在不同的AI模型之间切换:Claude、Gemini、Qwen Code……每家厂商都有自己的API格式,配置起来让人头大。
这个项目就像是一个“AI接口的万能适配器”,帮我把所有复杂的接口都统一成OpenAI的API标准。
换句话说,不管你想用什么模型,只要把调用地址替换成本地代理的API,就能直接跑起来,几乎零成本切换。
项目介绍

AIClient-2-API 的定位非常明确:
-
多模型统一接入:支持 Gemini、Claude、Qwen Code、Kiro、OpenAI 等主流模型。
-
突破官方限制:部分服务可绕过使用频率和额度限制。
-
零成本兼容:不用修改业务逻辑,直接替换 API 地址即可。
-
账号池管理:支持多账号轮询,避免单账号被封或限流。
对开发者来说,它相当于一层本地代理,把复杂性屏蔽掉,让所有调用接口看起来就像在用 OpenAI API 一样。
安装与上手
整个项目的安装部署体验很友好,三分钟就能跑起来:

环境准备
需要 Node.js 20+
node --version
克隆项目
git clone https://github.com/justlovemaki/AIClient-2-API.git
cd AIClient-2-API
npm install
启动服务
node src/api-server.js
# 或者自定义端口和密钥
node src/api-server.js --port 8080 --api-key your-secret-key
调用API
本地会启动一个兼容 OpenAI 格式的 API 服务器(默认 3000 端口)。
只要把原来的 https://api.openai.com
换成 http://localhost:3000
,就能无缝切换到其他模型。
进阶功能
除了基本的代理功能,AIClient-2-API 还提供了一些进阶玩法:
多账号轮询:通过 provider_pools.json
配置多个账号,系统会自动切换,避免掉线或限流。
统一系统提示词:支持 SYSTEM_PROMPT_FILE_PATH
配置,为所有对话加统一的“人设”。
请求日志与审计:开启 PROMPT_LOG_MODE: "file"
,记录所有请求响应,方便分析优化提示词。
代理设置:在网络受限环境中,可设置 HTTP Proxy 来突破访问限制。
支持的服务商
目前已支持的模型和服务商包括:
-
Gemini CLI(可突破官方限制)
-
Claude Kiro(免费使用 Sonnet 4)
-
Qwen Code(通义千问代码版)
-
OpenAI 自定义接入
-
Claude 自定义接入
项目本身架构设计得很灵活,未来扩展新的模型会非常容易。
应用场景
统一管理多AI工具:开发者只需一个 API 地址,就能调用 ChatGPT、Claude、Gemini 等不同模型。
突破免费额度限制:部分模型可通过 CLI 接入绕过官方限制。
企业级应用:在公司内部部署,实现统一调用、账号池管理、请求审计,甚至能构建私有 AI 服务平台。
类似项目推荐
如果你对类似的“AI API 适配器”工具感兴趣,还可以看看:
-
llama.cpp server:轻量本地模型推理 API 服务器。
-
OpenRouter:统一管理不同 AI 模型的 SaaS 平台。 但从开源角度看,AIClient-2-API 更适合自己动手部署、完全掌控。
总结
从我个人的体验来看,AIClient-2-API 解决了一个很核心的问题:开发者不用再被不同厂商的API格式折腾。它用一个本地代理的方式,把复杂性封装掉,让你轻松切换和管理多个AI模型。
更重要的是,它是完全开源免费的,部署成本极低,非常适合个人开发者、团队甚至企业内部使用。
在我看来,这类项目才是真正体现了“AI 技术普惠”的价值。
如果你也经常和不同的 AI API 打交道,强烈推荐你试一试。
项目地址: