文 | 字母AI
最近OpenClaw可以说是火遍了大江南北。各大厂商都说自己的模型如何支持小龙虾,唯独没人推荐ChatGPT。
事实上OpenAI才收购了OpenClaw。
原因就一个“贵”。
让AI帮你完成一个稍微复杂的任务,比如自动化处理一批客户邮件,背后可能要调用模型几十上百次:理解意图、检索信息、生成草稿、校对润色、逐封发送……如果每一步都调用满血版GPT-5.4,一轮操作下来,饲料费(token)比虾本身还贵。
特别是随着OpenClaw这类agent框架的爆发,AI的工作模式已经发生了根本性转变:从前我们向AI提问,它盯着问题想很久,然后吐出一长串文字;现在AI面对一个复杂任务,要将其拆解成微小步骤分步推进。每一步都调用旗舰大模型,不仅延迟让人崩溃,成本也会高到离谱。
在这种背景下,OpenAI正式发布GPT-5.4 mini与nano两款小型模型,并宣称其为公司“迄今最强大的小型模型”。
麻雀虽小五脏俱全,不要小瞧这两个小玩意,不仅GPT-5.4核心的优势和能力它们继承了下来,同时还更快、更省资源,并且适合于大批量、高频率的AI任务调用。
OpenAI貌似是觉得mini还不够小,所以做出了更轻量的nano。
nano是GPT-5.4最轻量、最快速的版本,专为对速度和成本要求极高的任务而设计。
事实就是,用单一模型处理所有事务性价比太低,经常陷入高射炮打蚊子的境况,不如调整成大模型决定任务方向,小模型进行大规模快速执行的方案。
OpenAI自家的Codex就是这么干的。
一个主模型负责理解任务意图、拆解步骤,然后调度mini/nano级别的子agent去执行具体的代码修改、测试运行、结果校验,每个子任务只消耗极低的成本。
大模型就像坐镇中军、运筹帷幄的主帅,只抓顶层战略、调度全局资源。小模型则是无数支精锐轻骑,身形轻便、行动迅捷、批量奔赴前线,专一完成细分任务。
OpenAI为什么这么做
mini和nano在价格上确实“mini”以及“nano”。要理解OpenAI为什么押注轻量化,先看看这两款模型到底便宜到什么程度。
mini和nano均支持 400k tokens 的上下文窗口。在输入价格上,GPT-5.4旗舰版是2.5 美元/百万token,mini版是0.75美元/百万 token,nano版更是夸张,仅0.2美元/百万token,输入成本仅为旗舰模型GPT-5.4的8%。
而输出价格上,GPT-5.4是15美元/百万 token,mini版约为它的1/3(4.5 美元),nano版约为它的1/12(1.25 美元)。
换句话说,OpenAI用户们的账单直接砍到了零头。
![]()
价格只是表象,真正驱动OpenAI做这件事的,是整个行业的使用趋势已经发生了根本性转向。
轻量化小模型主要有调用成本低、响应快这两大特征,不少证据表明小模型已经成为当前AI落地最具性价比、最具增长潜力的选择。
在OpenRouter本月度最受欢迎LLM排行榜前十中,轻量化模型占到了6个席位,它们参数量普遍集中在数十亿至数百亿级别,和Claude Opus这类动辄数千亿甚至万亿参数的通用旗舰大模型形成鲜明的差异。
榜单Top 2席位被轻量化小模型包揽,第1名MiniMax M2.5以8.29T tokens的调用量断层领跑全榜,月度涨幅高达 476%;第2名Google Gemini 3 Flash Preview,调用量也达到4.24T tokens,远超多数通用旗舰大模型。
![]()
Hugging Face Hub的模型下载量统计同样印证了这一趋势:92.48%的下载量来自少于10亿参数的模型,86.33% 为5亿以下,69.83% 为2亿以下。
大模型也进入了薄利多销的时代。
1B+参数量的模型,即便包含多款舆论热度极高的开源大模型,整体下载占比仅为7.52%,不足轻量化模型的十分之一,这说明大模型的高关注度,似乎并未转化为真实的落地与采用。
![]()
从OpenAI自身的商业账本来看,做小模型更是一道必答题。
今年2月底,OpenAI宣布ChatGPT全球每周活跃用户已突破9亿,付费用户约5000 万,付费转化率仅约5%左右,绝大多数用户仍停留在免费版本。这也成为其未来商业化最核心的增长空间。
绝大多数的C端付费用户,核心使用场景是日常对话、文案润色、信息检索、轻量代码编写等高频轻量需求。
这类场景完全不需要GPT-5.4这类旗舰大模型的极限复杂推理能力,百亿级以内的轻量化小模型足以覆盖大部分需求,同时又能提供毫秒级响应、无排队等待的使用体验,完美匹配绝大多数用户的核心诉求。
说了这么多“为什么”,接下来看看这两款模型到底交出了怎样的答卷——毕竟,饲料便宜了,虾的个头要是也缩水了,那就不叫降本增效,叫偷工减料。
mini、nano能力几何
mini和nano的优势就只是小和便宜吗?
No No No
根据OpenAI官网的一系列跑分测试,可以说它们能力表现也很突出。
在业内公认最权威的AI程序员测试SWE-bench Pro 中,GPT-5.4 mini的准确率达到了54.4%,表现极具杀伤力,逼近满血版GPT-5.4的57.7%。
GPT-5.4 nano的准确率为52.4%,再考虑到它极低的成本,非常适合作为快速迭代的代码审查和辅助子agent。
以下两张图表看得更直观,横轴分别代表模型的响应时长和所用成本,纵轴均表示模型在任务中的准确率。
GPT-5.4虽然准确率稳居第一,但是在横轴上却延伸了太远,也就是不仅思考久,烧的钱还多。而nano和mini的折线则整体居于坐标图左侧,标志了它们极高的性价比。
![]()
它们只是牺牲了一点点终极的逻辑上限,就换来了极快的响应速度和极低的成本。
对此,不少网友戏称:小龙虾的饲料费终于被打下来了。
的确,mini和nano未来可能会成为养虾的主流API选择。
在OSWorld-Verified(真实电脑环境操作测试)中,GPT-5.4 mini达到了72.1%的准确率,几乎追平了满血旗舰版的75%。
![]()
这项测试主要是让AI像人一样,通过看显示器、动鼠标、敲键盘来使用一台真的电脑,包括使用Chrome、Office、VS Code等软件。
这才是OpenClaw等agent玩家最看重的指标。
过去让AI操控电脑,AI经常会瞎点或者反应迟钝。mini版本的这个高分意味着,它识别按钮、滑块、输入框的精度极高,在一些自动化任务上可以更加得心应手。
然而,也不是所有场景都适合用小模型。
nano模型在OSWorld-Verified上的得分仅为39.0%,甚至低于上一代GPT-5 mini的42.0%。
这意味着在需要精细操控电脑界面的复杂任务上,nano还力有不逮。
同样,对于需要深度推理、长链条逻辑的高难度任务,旗舰版GPT-5.4仍然不可替代。
小模型的价值不在于取代大模型,而在于和大模型搭配使用——把对的模型放在对的位置,才是子agent架构真正的精髓。
这也恰恰是nano和mini发布的深层意义,它们不是来抢旗舰版饭碗的,而是来帮旗舰版分担那些“高射炮打蚊子”的活儿。
当大模型不再需要亲自处理每一个琐碎步骤,整个系统的效率和成本结构都会发生质变。
OpenAI想打的不是一场简单的价格战,OpenAI内心OS是这样的:“我可以每个token少赚你点钱,但是我要让你多用我的小模型,把总收入抬上去。”
典型的薄利多销。
过去“便宜”是国产模型的护城河,可是这道护城河正在被填平。对普通开发者和企业用户而言,AI可能很快就会变成各行各业用得起、跑得快的新基础设施。
小龙虾的饲料费打下来了,养虾的门槛也在悄悄降低。接下来的问题是:谁能养出最肥的虾?







快报
根据《网络安全法》实名制要求,请绑定手机号后发表评论