#Ollama

手把手教你部署 OpenClaw + Ollama + GLM-4.7-Flash 的纯本地方案,实现无需服务器、无模型调用费用、离线可用的 AI 助手
前面我已经先后分享了OpenClaw部署的多种方案了: 手把手教你用飞牛NAS+虚拟机部署 OpenClaw 全流程实操教程 手把手教你用1Panel一键搭建OpenClaw,并集成搜索打造热点捕手 手把手教你用阿里云服务器+百炼Codin…
如何用开源Agent框架 Nanobot + Ollama 快速搭建低成本本地AI助手
作为一名产品经理,我最近在尝试如何用更低的成本和门槛来部署一个功能完整的AI Agent系统。 春节期间看到Qwen3.5发布和OpenClaw引起的热议,我决定深入体验这个方向。 经过几周的测试,我发现了一个更值得推荐的方案:用香港大学开…
Ollama 新命令 Launch,一条指令直连 Claude Code、Codex、OpenCode(零配置)
忘掉繁琐的环境变量和手工对接吧。 Ollama v0.15 带来了全新命令 ollama launch,一条指令即可拉起 Claude Code、OpenCode、OpenAI Codex、Moltbot 等主流 CLI 工具,并自动完成与…
Ollama 官宣支持 Anthropic API :本地模型也可以接入ClaudeCode写代码了
Ollama 官宣支持接入 ClaudeCode,现在可以在本地使用自己的模型了 刚好看到 Ollama 官宣支持 Anthropic API 接入,意味着可以用本地模型对接 ClaudeCode 做编程辅助。 Ollama 增加了 A…
手把手教你本地部署大模型,用Ollama+Cherry Studio实战搭建本地AI知识库
越来越多的大模型没有你想象那么占空间了,不管是CPU还是GPU都能运行,对于一些小任务,本地搭建的大模型是完全能够胜任的。 传统的云端API方案存在隐私、成本和网络依赖的限制,而本地部署则提供了更多的自主性。 这次我手把手教大家用Ollam…
本地大模型部署实战:Ollama×魔搭社区从0到1搭建LLM私有环境
为什么选择本地化部署? 作为产品经理,我在过去一年里测试了20+个大模型部署方案。 今天分享的Ollama×魔搭社区组合,是我目前在企业级和个人项目中验证过的最优解。 我们的核心诉求很明确:在保证性能的前提下,最大化部署灵活性。…