10+年产品经理聊聊产品、测测产品,产品人交流学习成长平台,按 Ctrl+D 收藏我们
关于我 留言板 小程序 标签云

苏米客

  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
    • AI智能体
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
  • 登录
  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
    • AI智能体
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
当前位置: 首页 » AI最新动态

Ollama 官宣支持 Anthropic API :本地模型也可以接入ClaudeCode写代码了

1月前 AI最新动态 677 0

Ollama 官宣支持接入 ClaudeCode,现在可以在本地使用自己的模型了

刚好看到 Ollama 官宣支持 Anthropic API 接入,意味着可以用本地模型对接 ClaudeCode 做编程辅助。

  • Ollama 增加了 Anthropic API 兼容能力,ClaudeCode 可以通过本地端口访问 Ollama 提供的模型,实现“本地推理 + ClaudeCode 工作流”。
  • 安装后的 Ollama 自带 GUI,可视化配置模型与参数,并可自定义模型存储路径,解决了早期默认挤占 C 盘空间的问题。
  • 接入步骤简单,主要是设置环境变量与模型选择;但在主流笔记本配置下,本地中大型模型的响应速度与稳定性逊于云端服务,团队场景更适合云厂商提供的编程套餐。

配置方法

目标是让 ClaudeCode 把请求发到本地的 Ollama 服务,由 Ollama 调用选定的本地模型完成代码生成或补全。

安装/更新 Ollama:建议升级到最新版。打开自带 GUI,在 Settings 中设置模型存储路径(避免挤占系统盘),并按需下载模型。

启动 Ollama 服务并确认端口:默认本地服务在 http://localhost:11434。

设置环境变量:让 ClaudeCode 走本地的 Anthropic 兼容端点。

  • Linux/macOS:
    export ANTHROPIC_AUTH_TOKEN=ollama
    export ANTHROPIC_BASE_URL=http://localhost:11434
    
  • Windows PowerShell:
    $env:ANTRHOPIC_AUTH_TOKEN = "ollama"
    $env:ANTHROPIC_BASE_URL = "http://localhost:11434"
    

如果需要在多套配置间切换,可以用第三方工具(如 CCSwitch)管理环境变量与端点。

在 ClaudeCode 指定模型:官方文档列出几款适合本地编程任务的模型,示例:

claude --model gpt-oss:20b

具体模型名称与兼容性以文档为准,建议先从体量较小、启动更快的模型试用,再逐步上探到更大参数量。

官方建议是使用下面三个模型用于本地编程任务。

本地 vs 云端的差异化

功能范围:

本地(Ollama):可选多种开源/社区模型,满足基础代码补全、注释、简单重构,依赖本机算力。

云端(MiniMax M2.1、GLM-4.7、等):模型规模与指令对齐更充分,通常在复杂重构、长上下文、跨语言迁移上更稳定。

技术特征:

本地:无外网依赖,更好的隐私与可控性;需要处理模型体积、显存/内存占用、CPU/GPU兼容。

云端:推理性能与可用性更一致,支持更完整的生态(如 MCP 扩展、检索、视觉),版本迭代快。

使用门槛:

本地:安装与环境变量配置较直接,但要考虑端口冲突、代理设置、模型下载路径管理。

云端:开通账号与密钥后即可使用,几乎无本地运维成本。

适合人群:

本地:对隐私敏感的个人/小团队、希望离线或内网环境使用的研发人员。

云端:需要稳定产出与复杂任务支持的专业开发者或团队,强调协作与服务等级保障。

使用中的注意点

  • 模型体积与硬件:中大型模型占用显存/内存较高,普通轻薄本跑起来会明显慢;可先选较小模型验证流程。
  • 路径与存储:在 Ollama 的 Settings 中自定义模型路径,避免默认盘满;定期清理不常用模型。
  • 端口与代理:确保 11434 无冲突;如使用公司代理,需在 ClaudeCode 与系统网络设置中一致配置。
  • 兼容性:不同模型对指令格式与代码任务的适配程度不同,遇到补全不稳定时,换模型通常能改善体验。

结语

Ollama 接入 Anthropic API,让“本地模型 + ClaudeCode”的组合变得更顺手:安装简单、图形化配置、路径可控,对个人开发者是一次实用增强。

但选择本地还是云端,核心仍在适配性,硬件条件、任务复杂度与协作方式决定了最合适的方案。

我的建议是先用小模型打通流程,再按需求升级模型或切换到云端,避免一开始就背负不必要的复杂度。

参考链接

  • Ollama Docs:ClaudeCode 集成
  • Ollama Blog:Claude 相关更新
  • 社区讨论示例链接
声明:本站原创文章文字版权归本站所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表本站立场,图文版权归原作者所有。如有侵权,请联系我们删除。
未经允许不得转载:Ollama 官宣支持 Anthropic API :本地模型也可以接入ClaudeCode写代码了
#Ollama #Anthropic API #ClaudeCode 
收藏 1
CalPerks:一句话拍照估算卡路里,让饮食记录零负担
腾讯云Coding Plan 悄悄上线首月低至 7.9 元,支持腾讯混元系列、GLM-5、Kimi-K2.5、MiniMax-M2.5 等按次消耗
推荐阅读
  • 开工速览:OpenClaw(小龙虾)的前世今生
  • Cherry Studio零门槛快速启动和切换 Qwen Code、Gemini CLI、Claude Code
  • 手把手教你白嫖一年Google Gemini Pro,学生免费订阅开通教程
  • CES 2026 观察:AI 不再是单独的产品,而是硬件的默认引擎
  • GLM-4.6V重磅开源!9B与106B两档视觉模型的本地与云端实测
评论 (0)
请登录后发表评论
分类精选
Cursor 限制国内使用 Claude 等模型解决方案!
25667 7月前
学生/非学生:如何申请Cursor Pro免费会员,如何通过SheerID验证快速激活全攻略
24355 10月前
即梦AI图片2.1:一句话快速生成带中文的海报图,免费AI文生图、视频工具、AIGC创作工具
16587 1年前
注意!Cursor单设备登录新规:一个账户最多可以3台设备登录,且限制单点登录
15382 10月前
DeepSeek宣布:降价,最高降价75%!别错过这个优惠时段,赶紧充值
14933 1年前
字节跳动发布"扣子空间":AI协同办公的通用Agent平台开启效率革命
13449 10月前
刚刚!Cursor风控又加强了,可能是因为这个原因!
13195 10月前
Trae国内版,搭载 doubao-1.5-pro、DeepSeek R1/V3模型,对比 Trae 国际版有什么不同
12243 1年前
Cline:自动化编程的VSCode插件Claude Dev + Gemini 2.0,快速构建智能应用
10570 1年前
字节推出Trae CLI :Claude Code 和 Gemini CLI的国产平替 ?手把手教你如何安装Trae Agent
10012 8月前

文章目录

关注「苏米客」公众号

订阅推送更及时,手机查看更方便
分类排行
1 腾讯云Coding Plan 悄悄上线首月低至 7.9 元,支持腾讯混元系列、GLM-5、Kimi-K2.5、MiniMax-M2.5 等按次消耗
2 GPT-5.4 和 GPT-5.4 Pro 发布了,Token半价碾压Opus!
3 Step 3.5 Flash 全链路开源,冲上 OpenClaw 调用榜
4 刚刚,Codex Windows 版上线:现可免费体验
5 本地部署开源大模型最新王者 Qwen3.5 原生视觉语言模型,24G显存的本地模型优选
6 MiniMax M2.5 发布:国产 Agent 迈入低成本高可用阶段,OpenClaw 之父多次点名推荐
7 字节再放大招:豆包 Seed 2.0 专家模式现已上线!
8 MiniMax 发布 MaxClaw:39 元起,上云即用
9 IMA 任务模式开放体验(邀请码):高校教师三类开学任务更高效
10 从零到一搭建 AI Agent 框架:理论拆解与实战落地
©2015-2024 苏米客XMSUMI 版权所有 · WWW.XMSUMI.COM 闽ICP备14005900号-6
微信文章助手 程序库 免费影视APP 免费字体下载 Axure RP 10 免费Axure模板 Axure元件库下载 申请友联