#开源

本地部署开源大模型最新王者 Qwen3.5 原生视觉语言模型,24G显存的本地模型优选
作为一个长期在一线体验和落地AI工具的产品经理,我最近把本地可部署的大模型又系统跑了一遍。 目标很明确:在24G显存的设备上,选择一款稳定、覆盖面广、能支持文本和图片的统一模型,用来支撑我的日常原型验证和智能体开发。 前面我分享了:手把手教…
OpenFang:OpenClaw升级版,如何重新定义 Agent 框架的生产级标准
先是 OpenClaw 凭功能丰富占据主流,随后 ZeroClaw 用 Rust 重写把内存压到 5MB,启动速度媲美系统命令。 但社区的声音很统一:ZeroClaw 确实快,但功能还差点火候。 直到 OpenFang 开源,我才理解这个疑…
MindPocket——开源书签管理系统,用AI智能整理你的链接收藏
作为一个长期浏览和体验各类AI产品的产品经理,我经常需要整理来自不同来源的信息链接。 最近发现了一个有意思的现象:很多人的浏览器书签栏都有一个共同问题——收藏数量庞大但实际使用率极低。 在评测过多款书签管理工具后,我…
Nanobot:香港大学开源智能体框架,仅4000行代码复刻OpenClaw核心能力
近期浏览开源社区时,我注意到一个有趣的现象:当大型AI智能体项目动辄几十万行代码时,总有团队在思考——这些复杂度真的必要吗?香港大学数据智能实验室(HKUDS)的新开源项目Nanobot给了一个有说服力的答案。 它…
MiroThinker 1.5:开源的“深度研究”智能体与模型实测、差异化与部署
作为一个长期评测AI产品的产品经理,我越来越不满足于“流畅回答”。 在投研、技术调研、健康风险核查这类容错率极低的场景里,“大概率正确”往往等于不可用。 过去一年,我把多款主流LLM用于深度研…
TranslateGemma:Google开源专业翻译模型,55语言覆盖+图文识别
最近在浏览Google的AI开源项目时,发现了一个值得关注的动向:Google将其多年积累的翻译能力整合进了一个开源大模型,取名TranslateGemma。 这不是通用模型顺带的翻译功能,而是从架构设计到训练目标都围绕翻译任务专门优化的模…
n-skills:为中小团队量身定做的AI技能模块化框架,一个真正可用的开源技能集
最近在浏览开源AI项目时,我注意到一个有趣的现象:大多数AI框架都在追求"大而全",但真正在生产环境中落地的中小团队,往往被这些重型框架的学习曲线和复杂依赖所困扰。 直到我发现了n-skills这个项目,才意识到有些框架的价值恰好在于它的"…
10大开源LLM模型盘点|2025年开源大语言模型生态全景回顾
站在2026年初回望,2025年无疑是开源大语言模型(LLM)发展史上的分水岭。 在这一年中,以DeepSeek、Qwen和Moonshot AI为代表的国内力量扭转了全球开源格局,打破了"开源模型性能逊于闭源"的固有认知。 从Llama…
腾讯混元超强开源翻译模型 HY-MT1.5:本地部署的多语言翻译、方言,实时翻译
作为一名经常体验各类 AI 产品的产品经理,我发现许多开发者在集成翻译功能时,往往面临三个核心困境:对商用翻译 API 的成本担忧、数据隐私合规的压力,以及对翻译质量的不确定性。 最近在 Hugging Face 上接触到腾讯发布的混元翻译…
Zen Browser:比 Chrome 更好用的开源浏览器
过去一年,我观察到各大厂商在浏览器中集成AI功能成为普遍趋势。然而这也带来了实际问题——Chrome作为内存占用的已知大户,在加入AI能力后,单个页面内存占用已超过500MB。 对于16GB配置的设备而言,这直接压缩…