#大模型

国内大厂CodingPlan/TokenPlan 套餐对比:阿里腾讯字节百度智谱 MiniMax 最新价格
摘要:本文详细介绍国内六大厂(阿里、腾讯、字节、百度、智谱、MiniMax)的 CodingPlan/TokenPlan 套餐费用、限制及可用模型。4 月底最新数据,帮助开发者选择合适的 AI 编程套餐。 国内各大厂的按次 CodingPl…
Qwen3.6-27B 实测报告:本地模型跑出 GPT-4 水准,27B Dense 架构超越 397B MoE
阿里发布了 Qwen3.6-27B,27B 参数的 Dense 架构模型(不是 MoE),原生支持 262K 上下文,Apache-2.0 开源。 苏米注:Dense 架构相比 MoE 部署更简单,不需要考虑路由问题,推理更稳定。这是本…
llmfit 开源工具:一键检测你的电脑能跑哪些本地大模型
今年以来,OpenClaw、Hermes 这些 Agent 工具接连爆火,但 Token 消耗快得吓人,只是对话几次、简单设置个任务,一天就烧掉几十块。于是越来越多人把目光转向了本地模型部署,既省钱又能离线使用。 苏米注:但真动手的时候,…
Mac Mini M4 部署 Qwen3.5 最佳方案:MLX、Ollama、DFlash 全面对比评测
苏米注:手持一台 Mac Mini M4 16GB,想跑本地大模型但不知道选哪个方案?这篇文章帮你选。我来详细对比 MLX、Ollama 和 DFlash 三种部署方案的优劣。 一、Mac Mini M4 16GB 能跑什么模型 先算一笔账…
MiniMax-M2.7 量化版本地部署指南:Unsloth 22 个版本选择 +3 种部署方式详解
苏米注:MiniMax-M2.7 量化版发布后,Unsloth 团队第一时间推出了 22 个 GGUF 量化版本,从 1-bit 到 8-bit 全覆盖。最值得关注的是 4-bit 动态量化版只需要 108GB,一台 128GB 内存的 M…
国产大模型横向对比:Kimi K2.6、GLM-5.1、Qwen3、MiniMax M2 四大模型选型指南
2026 年 4 月,国产大模型井喷。Kimi K2.6 刚上线,GLM-5.1、Qwen3、MiniMax M2 紧随其后。四大模型正面竞争,参数、性能、价格全面对比。 四大模型速览 模型 厂商 架构 总参数 激活参数 上下文 …
1-bit Bonsai 8B 大模型详解:8B 参数压缩至 1.15GB,手机也能跑 AI
你手机里装了多少个 App?如果我问你,能不能在手机上跑一个 80 亿参数的大语言模型,你大概率会摇头——毕竟一个常规的 8B 模型至少需要 16GB 显存,手机那点内存根本装不下。 但就在上周,一家来自 Calte…
Meta 发布全新大模型 Muse Spark:多模态是强项,编程是短板
今天凌晨,Meta 发布了全新的大模型 Muse Spark,已上线到 Meta 旗下的各类产品。 Meta Superintelligence Labs(MSL)负责人 Alexandr Wang 在推特上宣布了这个消息。他说,九个月前团…
Gemma 4 端侧部署完整指南:手机/RK3588/笔记本硬件选型与部署步骤
Gemma 4 模型家族与端侧部署场景 Gemma 4 的开源将端侧 AI 推向工程化落地阶段。它提供四个变体,针对不同资源场景设计:E2B(最轻量)、E4B(平衡版)、26B A4B(MoE 架构)和 31B(最强性能)。 端侧部署的核心…
DeepSeek 网页版灰度测试双模式:快速模式基于 3.2,专家模式或为 V4 早期版本
2026 年 4 月 8 日,DeepSeek 网页版在无明显公告的情况下上线了两项新功能:输入框上方出现了「快速模式」和「专家模式」两个选项,分别标注为「适合日常对话,即时响应」和「擅长复杂问题,高峰需等待」。这被社区广泛解读为 Deep…