作为一名长期关注AI开源生态的产品经理,我最近发现了一个有趣的现象:随着大模型厂商数量增加,真正的痛点不再是"缺少模型",而是"如何高效管理多个模型"。
今天要介绍的New API项目(14K+ Star)恰好解决了这个核心问题——它提供了一套系统化的多模型聚合方案,让开发者能用统一的OpenAI接口调用30多个不同来源的模型服务。

项目概览
New API是一个基于Go和React开发的开源模型中转网关系统,定位为企业级的多模型接口管理平台。

其核心价值在于:
- 技术栈合理:后端采用Go语言保证高性能,前端使用React提供现代化交互体验
- 生产级别验证:已被阿里云、北京大学、优云智算等机构采用,具有实战验证的稳定性
- 即插即用:开箱即用的部署方案,降低使用门槛
核心功能模块
| 功能类别 | 具体能力 |
| 模型集成 | 覆盖OpenAI、Anthropic、Gemini、DeepSeek等30+主流模型服务,统一转换为OpenAI API格式 |
| 接口管理 | 单一API端点接入所有服务;支持多渠道负载均衡、故障自动切换、加权随机分发 |
| 成本管理 | 灵活计费模式(按次数/按量)、预付费充值、多倍率配置,成本可视化追踪 |
| 权限管理 | 令牌粒度的权限控制、模型级别访问限制、完整的API调用审计日志 |
| 数据分析 | 实时看板展示、用量统计分析、成本对标 |
| 架构扩展性 | 原生多租户支持,适配个人开发者到企业级部署 |
应用场景分析
New API适合以下场景:
- 企业内部API网关:统一管理多个模型供应商的调用,降低集成成本
- SaaS产品的模型层:为上层应用提供标准化的模型调用接口,便于模型切换和灾备
- 模型成本优化:通过负载均衡和智能路由,在不同模型间灵活分配流量,降低整体成本
- 团队协作场景:多成员共享同一套模型配置,实现成本中心化管理
- AI应用快速开发:开发者无需处理多个API集成细节,专注业务逻辑
部署与配置
New API提供6种部署选项以适配不同基础设施:Docker、Docker Compose、宝塔、1Panel、本地部署、集群部署。
Docker Compose部署(推荐):
# 克隆项目
git clone https://github.com/QuantumNous/new-api.git
cd new-api
# 编辑配置
nano docker-compose.yml
# 启动服务
docker-compose up -d
Docker单容器部署(使用SQLite):
docker pull calciumion/new-api:latest
docker run --name new-api -d --restart always \
-p 3000:3000 \
-e TZ=Asia/Shanghai \
-v ./data:/data \
calciumion/new-api:latest
Docker单容器部署(使用MySQL):
docker run --name new-api -d --restart always \
-p 3000:3000 \
-e SQL_DSN="root:password@tcp(localhost:3306)/newapi" \
-e TZ=Asia/Shanghai \
-v ./data:/data \
calciumion/new-api:latest
部署完成后访问 http://localhost:3000 即可使用。

详细文档参考:https://www.newapi.ai/zh/docs/installation
配置管理要点
- 渠道配置:在管理后台添加各模型服务商的API密钥和端点
- 令牌管理:为不同用户或应用创建独立令牌,设置权限边界
- 模型映射:配置本地模型名称与上游服务的映射关系
- 限流策略:设置按用户/模型的速率限制和配额
- 监控告警:通过看板监控异常调用,设置成本预警
对标项目对比
| 项目 | 定位 | 技术栈 | 模型覆盖 | 企业级功能 | 社区活跃度 |
| New API | 企业级网关 | Go + React | 30+ | 完整 | 14K Star |
| Antigravity | IDE内置工具 | 专有 | 特定集成 | 中等 | 3.9K Star |
| LiteLLM | 轻量级代理 | Python | 100+ | 基础 | 活跃 |
使用建议
- 小型团队/个人开发者:使用SQLite本地部署快速开始,后续按需迁移至MySQL
- 中等规模应用:推荐Docker Compose在云服务器上部署,配合MySQL存储
- 企业部署:考虑采用集群模式,配合LB和监控系统
- 成本优化:充分利用负载均衡和多渠道配置,定期分析成本数据调整路由策略
总结
经过一段时间对各类AI中转工具的观察,我的结论是:New API不是在做"模型转换",而是在建立"模型治理体系"。它用一套清晰的架构将混乱的多模型调用收敛为可管理、可审计、可扩展的形态。无论你是在评估多模型方案的CTO,还是在构建AI应用的工程师,New API都值得被列为技术栈的考虑对象。它可能不是功能最丰富的产品,但从"降低多模型管理复杂度"的单一维度看,是目前开源生态中最务实的选择。
声明:本站原创文章文字版权归本站所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表本站立场,图文版权归原作者所有。如有侵权,请联系我们删除。
未经允许不得转载:New API:用统一接口管理30+大模型,一个开源网关解决模型集成难题