10+年产品经理聊聊产品、测测产品,产品人交流学习成长平台,按 Ctrl+D 收藏我们
关于我 留言板 小程序 标签云

苏米客

  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
  • 登录
  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
当前位置: 首页 » AI最新动态

Ollama 新命令 Launch,一条指令直连 Claude Code、Codex、OpenCode(零配置)

2小时前 AI最新动态 21 0

忘掉繁琐的环境变量和手工对接吧。

Ollama v0.15 带来了全新命令 ollama launch,一条指令即可拉起 Claude Code、OpenCode、OpenAI Codex、Moltbot 等主流 CLI 工具,并自动完成与本地或云端模型的连接与配置。

如果你不是 Medium 高级会员,也可免费阅读完整教程(read the full tutorial FREE here);同时欢迎通过 Medium 订阅支持创作。

背景补充:从 v0.14 起,Ollama 已兼容 Anthropic API,这让像 Claude Code 这样的工具可以直接接入开源模型。之前我写过详细的手动配置指南(I Tried New Claude Code Ollama Workflow, It's Wild & Free),但仍需自己导出环境变量、设定 base URL、试配合适的代码模型。如今 ollama launch 把这些步骤一键打包,流程顺滑不少。

Ollama Launch 是什么?

它是一个把编码工具与 Ollama 模型“拎包入住”的启动器:

你只需选择模型,剩下的对接与配置全交给它完成。

当前支持的集成包括:

  • Claude Code —— Anthropic 推出的终端内 agentic 编码助手
  • OpenCode —— 面向终端的开源替代方案
  • Codex —— OpenAI 的编码助手集成
  • Droid —— 另一款编码工具选项

启动方式很直接:

运行 ollama launch 会出现交互式菜单,也可用 ollama launch claude、ollama launch opencode 等命令直达目标工具。

Anthropic 相关配置会自动完成;

过去需要手动执行的命令如今可省略:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

5 分钟快速上手

步骤 1:更新 Ollama 至 v0.15+

确保已安装 v0.15 或更高版本:

ollama --version

若版本偏旧,到 ollama.com 下载并安装最新包。

安装完成后再次确认版本(建议 ≥ 0.15.2)。

步骤 2:拉取对代码友好的模型

你可以选本地模型(需要约 23GB 显存,支持 64K 上下文)或云端模型(硬件零门槛,完整上下文)。

推荐清单:

本地模型:

  • glm-4.7-flash
  • qwen3-coder
  • gpt-oss:20b

云端模型:

  • glm-4.7:cloud
  • minimax-m2.1:cloud
  • qwen3-coder:480b-cloud

拉取示例:

ollama pull glm-4.7-flash 
# 或使用云端: ollama pull glm-4.7:cloud

提示:云端模型在本地注册很轻量,实际推理在远端完成。

步骤 3:把 Context Length 调到位

Ollama 默认上下文长度为 4,096 tokens,不足以支撑多文件操作、长对话或频繁 tool calls。

建议将编码类场景至少调至 64,000 tokens(尤其是 Claude Code)。

使用云端模型会自动启用完整上下文长度;如果采用云端,可跳过此步。

步骤 4:一键启动

ollama launch claude

几秒内即可看到 Claude Code 以你选择的模型启动。

若你像我一样选择 GLM-4.7 的云端版本,需要先拥有一个 Ollama Cloud 账号。

我的订阅为每月 20 美元。

常用拉取命令速记:

# GLM 4.7 Cloud - 推荐用于编码
ollama pull glm-4.7:cloud

# MiniMax M2.1 Cloud - 备选
ollama pull minimax-m2.1:cloud

# Qwen3 Coder 480B Cloud - 体量较大的编码模型
ollama pull qwen3-coder:480b-cloud

# GPT-OSS 120B Cloud - 另一款大型模型
ollama pull gpt-oss:120b-cloud

我也拉取过 gpt-oss:120b-cloud、deepseek-coder:1.3b、qwen2.5-coder:7b,因此这些会出现在可用模型列表中。

实测:Claude Code 与 OpenCode

Claude Code 实测

先安装 Claude Code:

# macOS / Linux / WSL
curl -fsSL https://claude.ai/install.sh | bash

# Windows PowerShell
irm https://claude.ai/install.ps1 | iex

使用云端模型时,可能会提示登录或注册 Ollama 账号(访问 ollama.com 完成注册)。运行:

ollama launch claude

将出现模型选择提示,我这里同时能看到本地与云端选项:

deepseek-coder:1.3b (local)
glm-4.7:cloud
gpt-oss:120b-cloud
qwen2.5-coder:7b (local)

选择 glm-4.7:cloud 后,Claude Code 几乎秒开,无需再折腾配置。状态检查如下:

Model: glm-4.7:cloud
Auth token: ANTHROPIC_AUTH_TOKEN
Anthropic base URL: http://localhost:11434

功能测试(同一用例贯穿本文):

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

结果:几乎即时生成代码并准备写入文件。至此,借助简洁的 Ollama Launch 配置,Claude Code 已与 Ollama Cloud 模型顺利联动。

OpenAI Codex 实测

先安装 Codex CLI:

npm install -g @openai/codex

用指定模型启动:

ollama launch codex --model glm-4.7:cloud

同样复现测试指令:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

结果:数秒内生成代码,文件写入就绪。

OpenCode 实测

先安装 OpenCode:

npm install -g opencode-ai

使用 Ollama Launch 启动:

ollama launch opencode --model glm-4.7:cloud

首次启动会提示将修改 OpenCode 的配置,并给出备份文件路径。确认后即可进入。照例复现测试用例:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

结果:与前两者一致,快速产出代码并可直接落盘。

至此,我们已用三款流行的终端编码工具完成对 ollama launch 的验证。与之前“纯手动配置 Claude Code”的旧方法相比,这次明显更快、更省心。

总结

ollama launch 是 Ollama 工具集中极具实用价值的一次升级。它几乎抹平了集成成本,让更多开发者可以在本地或云端模型上,低心智负担地用起 Claude Code、OpenCode、Codex 等编码助手。从零开始到可用,只需一条命令。

文中涉及的链接与更多细节,可在官方文档中找到。欢迎你亲自试用,并分享在不同硬件条件下最顺手的模型与配置。我也很想听听你对 ollama launch 的体验。

资源

Ollama 下载:Ollama Download

Ollama 文档:Documentation

声明:本站原创文章文字版权归本站所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表本站立场,图文版权归原作者所有。如有侵权,请联系我们删除。
未经允许不得转载:Ollama 新命令 Launch,一条指令直连 Claude Code、Codex、OpenCode(零配置)
#Ollama #launch 
收藏 1
基于 OpenClaw + Codex + ClaudeCode 的智能体集群架构完整开源
用好 find-skills ,让你更高效的查找和使用 Skills
推荐阅读
  • 美团 LongCat-Flash-Thinking 上线,每日免费500W API 额度开放,赶紧领!
  • Trae国内版,搭载 doubao-1.5-pro、DeepSeek R1/V3模型,对比 Trae 国际版有什么不同
  • Nano Banana 免费玩到爽!Gemini 2.5 Flash Image使用地址汇总
  • GLM-5 技术报告深度解析|a16z:开源模型之首
  • 码上飞:只动嘴,App就能做出来?我用「码上飞」5分钟开发了一个AI应用
评论 (0)
请登录后发表评论
分类精选
Cursor 限制国内使用 Claude 等模型解决方案!
25191 7月前
学生/非学生:如何申请Cursor Pro免费会员,如何通过SheerID验证快速激活全攻略
24012 9月前
即梦AI图片2.1:一句话快速生成带中文的海报图,免费AI文生图、视频工具、AIGC创作工具
16334 1年前
DeepSeek宣布:降价,最高降价75%!别错过这个优惠时段,赶紧充值
14907 12月前
注意!Cursor单设备登录新规:一个账户最多可以3台设备登录,且限制单点登录
14881 10月前
字节跳动发布"扣子空间":AI协同办公的通用Agent平台开启效率革命
13399 10月前
刚刚!Cursor风控又加强了,可能是因为这个原因!
13077 10月前
Trae国内版,搭载 doubao-1.5-pro、DeepSeek R1/V3模型,对比 Trae 国际版有什么不同
12061 11月前
Cline:自动化编程的VSCode插件Claude Dev + Gemini 2.0,快速构建智能应用
10451 1年前
字节推出Trae CLI :Claude Code 和 Gemini CLI的国产平替 ?手把手教你如何安装Trae Agent
9536 7月前

文章目录

关注「苏米客」公众号

订阅推送更及时,手机查看更方便
分类排行
1 Anthropic 发布11 款 Claude 企业插件,一个 AI 顶一个部门,SaaS 将发生巨变
2 谷歌出手封禁接入OpenClaw的用户:Antigravity订阅账号不是 API
3 Ollama 新命令 Launch,一条指令直连 Claude Code、Codex、OpenCode(零配置)
4 Cline 升级:Minimax‑2.1、Kimi‑k2.5 限时免费开放,Cline CLI 2.0 同步上线
5 开工速览:OpenClaw(小龙虾)的前世今生
6 Claude-Mem 搭配 OpenClaw:为 AI 智能体装上持久记忆的终极组合
7 阿里云Coding Plan:告别烧token焦虑,按次计费,支持千问3.5、GLM-5、Kimi-K2.5等模型
8 GLM-5 技术报告深度解析|a16z:开源模型之首
9 Anthropic点名三家中国AI公司涉蒸馏攻击,马斯克反击:你们也不干净
10 Claude全新上线的 MCP Apps:一个聊天框打通全流程工具,让MCP自带UI
©2015-2024 苏米客XMSUMI 版权所有 · WWW.XMSUMI.COM 闽ICP备14005900号-6
微信文章助手 程序库 免费影视APP 免费字体下载 Axure RP 10 免费Axure模板 Axure元件库下载 申请友联