而今天,MiniMax 给出了一个相对克制但颇具竞争力的答案——MiniMax M2。

从体验出发
实际体验 M2 时,最明显的感受是「平衡」。
它既不像 Claude 那样高昂,也没有一些国产模型常见的“速度快但准确性偏低”的问题。
定价上,M2 的输入仅 0.3 美元 / 百万 token,输出 1.2 美元 / 百万 token。
对比 Claude Sonnet(输入 3 美元 / 输出 15 美元),价格直接降到 8%。
而 推理速度几乎快了一倍。
在全球权威测评榜单Artificial Analysis上,M2排名全球前五,数学、科学、编码能力全面在线。

这在多 Agent 协同、复杂长链任务中非常明显——比如自动生成网页、执行多轮代码调试、跨模态调用 Python 与浏览器的任务。
核心能力
M2的核心优势在三个方向:代码、Agent和深度搜索。
1. 代码能力:端到端开发的可用级表现
M2 在 Terminal-Bench 和 SWE-Bench 这些端到端编程评测中,表现接近 Claude Code 。

更重要的是,它不仅能写出代码,还能自动进入 运行 → 调试 → 测试 → 修复 的循环。
尝试让 M2 构建一个简单的 Flask Web 应用,它在生成多个文件结构、配置环境变量、运行测试时都能自我调整。
这意味着它的「可执行性」比大部分同价位模型要高。
2. Agent 能力:复杂任务的多工具链执行
MiniMax 在内部其实有大量 Agent 实验场景,包括数据分析、技术调研、HR 简历筛选等。
这些任务需要模型能稳定规划调用浏览器、Shell、Python 执行器和 MCP 工具。
在官方测试中,M2 的 BrowseComp 评测成绩逼近 GPT-5,具备自我恢复和追溯能力。
用一句产品经理的话说,它已经能「独立承担一部分多工具执行的角色」。
3. 多模态协同:从模型能力到产品化一体化
一个很有代表性的案例:
有开发者用 M2 构建了一个「故宫博物院网站」,模型自动完成图片展示、文字讲解、语音导览生成。 整个过程由模型自主规划——从调用语音模型到生成网页内容,几乎全程无人干预。
这背后的关键,是 MiniMax 自研的多模态全栈架构。 当音频、视频、文本模型来自同一体系,它们的交互不再是简单的 API 拼接,而是深度融合。
深度搜索
在 Xbench-DeepSearch 测评中,M2 全球第二,仅次于 GPT-5。
在 FinSearchComp-global(字节金融搜索基准) 上,同样排名第二,仅落后 Grok4。
有个实测案例:用M2做一篇关于建筑经济与房地产经济关系的文献综述。
-
M2 搜索约 800 篇文献,最终综述 200 篇;
-
相比之下,Claude 4.5 搜索 500 篇,综述 100 篇。
这类任务反映出 M2 的「深度搜索 + 知识整合」能力,尤其适合研究类、报告类工作流。
开放策略
M2发布的同时,MiniMax宣布全球限时免费14天。模型免费,Agent免费,还同步上线了iOS和安卓版MiniMax Agent APP。

MiniMax 同步发布了 M2 的开源权重,并在 HuggingFace 上可直接部署(支持 SGLang 与 vLLM)。
这意味着开发者可以在本地环境快速实验,而不仅限于 API 接入。
此外,MiniMax Agent 也已经在国内外同步上线,提供两种模式:
-
Lightning 模式:适合快速问答、轻量搜索与代码调试;
-
Pro 模式:面向深度研究、全栈开发、报告/PPT生成等复杂任务。
目前官方策略是「限时全免费,直到服务器扛不住」。
这种策略显然是为了快速建立使用习惯,降低用户迁移门槛。
MiniMax 的产品逻辑
M2 体现出的,不只是模型能力,更像是 MiniMax 在产品层面的策略:
| 维度 | 主要表现 | 战略目标 |
|---|---|---|
| 价格 | Claude 8% | 降低门槛,吸引开发者试用 |
| 开放性 | 开源权重 + 免费 API | 构建生态与反馈循环 |
| 应用层 | MiniMax Agent | 将模型能力场景化,转化为日常使用价值 |
| 能力结构 | 多模态 + Agent + 搜索 | 构建技术护城河 |
这其实反映了 MiniMax 的长期方向:
模型只是基础,真正的竞争在于「谁能把能力嵌入到产品体系中」。
体验总结
从体验角度看,M2 不追求极致智能,而是把「性价比、执行力、速度」三者平衡得恰到好处。
如果你是开发者、创业团队,或者需要大量任务执行的 Agent 用户,M2 是一个值得尝试的新选项。
我更倾向于把 M2 看成「Agent 时代的中坚模型」:它足够聪明,能执行复杂任务;又足够便宜,适合大规模部署。
使用入口:
MiniMax Agent(通用 Agent 产品):
MiniMax M2 API(开放平台):
模型权重开源地址(HuggingFace):可直接本地部署
结语
AI 模型的竞争,正在从“单点能力”走向“系统整合”。
M2 的发布让人看到一种新的方向:
不是拼最强,而是拼「最能用、最普惠、最开放」。