调研时间:2026-03-18 | 资料来源:MiniMax 官方文档 & 官方发布页
| 维度 | 内容 |
|---|---|
| 模型名称 | MiniMax-M2.7 / MiniMax-M2.7-highspeed |
| 上下文窗口 | 204,800 tokens(约 16 万中文字符) |
| 输出速度(标准版) | ~60 TPS(Tokens Per Second) |
| 输出速度(highspeed) | ~100 TPS(效果不变,速度提升约 67%) |
| 核心卖点 | 开启模型自我进化,Agent 能力显著增强 |
| 基准测试 | M2.7 得分 | 对比参考 |
|---|---|---|
| SWE-Pro(真实软件工程) | 56.22% | 接近 Opus 4 最好水平 |
| VIBE-Pro(端到端项目交付) | 55.6% | 与 Opus 4.6 持平 |
| Terminal Bench 2(系统深层理解) | 57.0% | — |
| SWE Multilingual(多语言编程) | 76.5% | 优于同类 |
| GDPval-AA(专业办公 ELO) | 1495-1500 | 开源最高,仅次于 Opus 4.6/Sonnet 4.6/GPT5.4 |
| Toolathon(工具调用) | 46.3% | 全球第一梯队 |
| MMClaw(Agent 真实任务) | 62.7% | 接近 Semon 4.6 水平 |
| MLE Bench Lite(22 个机器学习任务) | 66.6% 得牌率 | 仅次于 Opus-4.6(75.7%)、GPT-5.4(71.2%) |
M2.7 是第一个模型深度参与自身迭代的模型:
pip install anthropic
export ANTHROPIC_BASE_URL=https://api.minimaxi.com/anthropic
export ANTHROPIC_API_KEY=${YOUR_API_KEY}
import anthropic
client = anthropic.Anthropic()
message = client.messages.create(
model="MiniMax-M2.7", # 或 "MiniMax-M2.7-highspeed"
max_tokens=1000,
system="You are a helpful assistant.",
messages=[
{"role": "user", "content": [{"type": "text", "text": "Hi, how are you?"}]}
]
)
from openai import OpenAI
client = OpenAI(
api_key="your_api_key",
base_url="https://api.minimaxi.com/v1"
)
response = client.chat.completions.create(
model="MiniMax-M2.7",
messages=[{"role": "user", "content": "Hello"}]
)
| 模型 | 输入(元/百万 tokens) | 输出(元/百万 tokens) | 缓存读取 | 缓存写入 |
|---|---|---|---|---|
| MiniMax-M2.7 | 2.1 | 8.4 | 0.42 | 2.625 |
| MiniMax-M2.7-highspeed | 4.2 | 16.8 | 0.42 | 2.625 |
| 参数 | 支持情况 | 说明 |
|---|---|---|
model | ✅ | 支持 M2.7 / M2.7-highspeed |
messages | ✅ | 支持文本和工具调用,不支持图像和文档输入 |
max_tokens | ✅ | 最大生成 token 数上限 |
stream | ✅ | 流式响应 |
system | ✅ | 系统提示词 |
temperature | ✅ | 推荐使用 1.0(范围 0.0~1.0) |
thinking | ✅ | 推理内容输出 |
tools | ✅ | 工具定义(Function Calling) |
top_p | ✅ | 核采样参数 |
top_k | ⚠️ | 会忽略 |
stop_sequences | ⚠️ | 会忽略 |
多轮 Function Call 对话中,必须将完整的 response.content(包含 thinking/text/tool_use 等所有块)完整回传给下一轮对话,以保持思维链连续性。不能只回传 text 部分!
M2.7 的真正威力在 Agent 场景——给它一个目标 + 可用工具 + 约束条件,让它自主规划和执行。单纯的一问一答会浪费 70% 的能力。
M2.7 的 204,800 token 上下文窗口是能力的保障。上下文越丰富,输出质量越高。任务背景 + 约束条件 + 参考资料 → 直接作为 system 或 messages 传入。
M2.7 的 Function Calling 是原生能力,不是外挂。定义好 Tools = 给模型装上手。
tools = [
{
"type": "function",
"name": "search_code",
"description": "在代码库中搜索包含关键词的函数",
"parameters": {
"type": "object",
"properties": {
"keyword": {"type": "string", "description": "搜索关键词"}
}
}
},
{
"type": "function",
"name": "run_tests",
"description": "运行项目的测试套件",
"parameters": {"type": "object", "properties": {}}
}
]
| 场景 | 推荐版本 | 原因 |
|---|---|---|
| 复杂推理、代码生成、深度分析 | M2.7 标准版 | 速度 60 TPS,足够深度思考 |
| 快速聊天、简单任务、IDE 实时补全 | M2.7-highspeed | 速度 100 TPS,体验更流畅 |
| 长程 Agent 任务(>10 轮) | M2.7 标准版 | 标准版在长程任务中思维链更稳定 |
temperature=0.9~1.0(推荐 1.0,M2.7 在高 temperature 下表现更稳定)temperature=1.0temperature=0.5~0.8M2.7 支持 Prompt 缓存(Anthropic 主动缓存协议),缓存读取价格仅为正常输入的 1/5(0.42 元/百万 tokens)。技巧:将固定的工具描述、角色设定抽离为常量,每次请求只传变化的对话内容。
M2.7 与 Claude Code、Cursor、TRAE、OpenCode 等主流 AI 编程工具全面集成。
Claude Code 配置(推荐):
# 使用 cc-switch 工具(推荐方式)
brew tap farion1231/ccswitch
brew install --cask cc-switch
# 然后在 cc-switch 中选择 MiniMax 预设,填入 API Key
或在 ~/.claude/settings.json 中配置环境变量即可。
M2.7 是 OpenClaw 背后的大脑,在 MMClaw 评测集上达 62.7%,接近 Semon 4.6。能驾驭复杂 Skills(>2000 Token),保持 97% 遵循率。支持 Agent Teams(多智能体协作)。
关联监控指标 + 部署时间线做因果推理,主动读写数据库验证根因,自动生成并执行修复方案。实测:可将故障恢复时间压缩到 3 分钟以内。
| 场景 | 不适合原因 |
|---|---|
| 图像/文档理解 | 当前版本暂不支持图像输入和文档输入 |
| 实时性要求极高的聊天 | highspeed 更适合 |
| 需要严格确定性输出的任务 | 即使 temperature=0.9,仍有随机性 |
┌─────────────────────────────────────────────┐
│ 1. 明确任务类型 │
│ 代码 → 直接用 M2.7 + Function Calling │
│ 聊天 → 用 M2.7-highspeed │
│ 分析 → M2.7 + 丰富上下文 + 工具 │
├─────────────────────────────────────────────┤
│ 2. 设计工具(Tools) │
│ 工具定义要具体,参数要完整 │
│ 给每个工具清晰的 description │
├─────────────────────────────────────────────┤
│ 3. 设计 Agent 循环 │
│ while not 完成: │
│ result = M2.7(messages + tools) │
│ if result.tool_calls: │
│ execute_tools(result) │
│ messages += result # 关键:完整回传 │
│ else: │
│ 返回结果 │
├─────────────────────────────────────────────┤
│ 4. 成本优化 │
│ Prompt 缓存 + highspeed 日常任务 │
│ 标准版复杂任务 │
└─────────────────────────────────────────────┘
| 你是谁 | 怎么用 |
|---|---|
| 开发者 | 立即用 Claude Code + MiniMax M2.7 替代 Cursor/Windsurf,体验国内最接近 Opus 水平的编程能力 |
| 企业用户 | 用 M2.7 构建财务分析 Agent、办公自动化 Agent,API 直接调用 |
| AI 爱好者 | 在 OpenClaw 中体验 Agent Teams,用 M2-her 做角色扮演 |