3月17日,OpenAI发布了GPT-5.4 mini和nano。
这次发布最反常的地方在于:OpenAI最引以为傲的不是模型更大了,而是模型更小了。
先看价格。
![图片[1]-子代理架构——OpenAI正在押注蚂蚁雄兵-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260327193013416-1774611013-2321789645acc5c59cb807b5f37d455c.jpeg)
GPT-5.4 nano的定价是每百万输入token 0.2美元,输出1.25美元——比Google最便宜的Gemini 3.1 Flash-Lite还低。而GPT-5.4 mini是0.75美元输入、4.5美元输出,只有旗舰GPT-5.4的三分之一。对比竞品,Claude Opus 4.6的输入价是nano的25倍,输出价是nano的20倍。
再看能力。
![图片[2]-子代理架构——OpenAI正在押注蚂蚁雄兵-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260327193016263-1774611016-1d547796266628d6e1bc2b1fc93c520d.png)
nano在SWE-Bench Pro上拿到了52.4%,直接超过了上一代GPT-5 mini的45.7%。也就是说,今天最便宜的模型已经比几个月前的"中端"模型更强了。而mini更夸张,SWE-Bench Pro 54.4%,逼近旗舰的57.7%,但速度快了两倍以上。在OSWorld视觉测试中,mini拿到72.1%,几乎追平旗舰的75%——这意味着它能看懂复杂的用户界面截图并自主操作电脑。
Django框架联合创始人、知名 AI 开发者博主Simon Willison做了一个直观的测试:用nano描述一张博物馆照片,消耗了2751个输入token和112个输出token,成本是0.069美分——不到一毛钱的十分之一。按这个单价算,他个人相册里的76000张照片全部用AI描述一遍,总共只要52美元。
这个数字值得停下来想一想。两年前,用AI处理一张图片的成本可能是几美分。现在是万分之几美分。降了几百倍。
GPT-5.4全家族:谁干什么活
GPT-5.4旗舰版是"总指挥"。支持最高等级的推理,适合复杂决策、长链条推理、最终判断。你可以把它想象成一个经验丰富的架构师,只在关键节点出手。
GPT-5.4 mini是"高级执行者"。400K上下文窗口,支持文本、图像、工具调用、网页搜索、电脑操控。速度比上一代快2倍。
GPT-5.4 nano是"快速工兵"。专为高吞吐场景设计。分类、数据提取、排序、简单编程——这些不需要深度思考但需要快速完成的任务,是nano的主场。
TechRadar的测评标题说得很直白:"我测试了新的mini和nano模型——没想到它们这么强。"测评者发现,在很多日常任务中,mini和nano的输出"和完整版GPT-5.4几乎分辨不出来,只是明显更快"。
这句话的潜台词是:对于大部分日常使用场景,你根本不需要用最贵的模型。
子代理架构:一个将军带一群士兵
现在到了最关键的部分——OpenAI为什么同时推出这么多不同尺寸的模型。
答案藏在Codex的架构设计里。
Codex是OpenAI的云端编程Agent,每周超过200万活跃用户。它的工作方式不是让一个模型从头干到尾,而是分层协作。GPT-5.4旗舰负责理解你的需求、拆解任务、制定计划、做最终判断。然后它把具体的执行任务分发给mini和nano——搜索代码库、审查文件、处理文档、运行测试——这些任务由小模型并行完成。
OpenAI在官方文档里明确说了:在Codex里用mini做子任务,只消耗旗舰模型30%的配额。
这就是子代理架构。一个将军不需要亲自冲锋,他需要的是一群靠谱的士兵快速执行命令。将军只在战略层面做决策,战术执行交给士兵。
这个设计背后的逻辑很简单:10个mini并行处理的总吞吐量,远远超过1个旗舰串行处理。而且成本只有三分之一。在大多数编程任务中,mini的54.4%和旗舰的57.7%之间的差距,远没有速度和成本的差距重要。
Simon Willison用一个好玩的方式验证了这一点。他让GPT-5.4全家族在五个推理等级下各画了一只"骑自行车的鹈鹕",生成了下面这个对比网格图。
![图片[3]-子代理架构——OpenAI正在押注蚂蚁雄兵-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260327193018948-1774611018-f5c09c862e8a96d356120c8f2d99de93.jpeg)
在最高推理等级下,nano的画就已经相当不错了,mini和旗舰之间的差异在很多场景下肉眼难以分辨。最贵的GPT-5.4在最高推理等级画出的鹈鹕嘴里还叼着一条鱼——但这种"极致细节"的场景,在日常使用中其实很少遇到。
不只是OpenAI的选择
子代理架构不是OpenAI独创的,而是整个行业正在形成的共识。
Anthropic的Claude Code也在走类似路线。Google推出了极低价的Gemini 3.1 Flash-Lite。每家公司都意识到了同一件事:未来的AI系统不是一个超级大模型,而是一个模型编排系统。
这和软件工程的演进是同一个故事。二十年前是大型机时代,所有计算跑在一台超级计算机上。后来变成了微服务架构——把大系统拆成几十个小服务,各司其职,独立部署,水平扩展。
AI正在走同样的路。从"一个模型搞定一切"到"不同模型各司其职"。
这个转变的意义比任何单一模型的性能提升都大。因为它改变的不是能力的上限,而是能力的分配效率。你不需要用开豪车的价格去买一辆只用来送外卖的车。你需要的是一个合理的车队——几辆豪车做大单,一大批电动车跑日常。
成本坍缩正在创造新物种
回到Simon Willison那个52美元的例子。
当AI视觉理解的成本降到每张图不到0.1美分,一些以前"算不过来账"的事情突然变得可行了。
个人照片的全量语义搜索——不是按日期找,而是说"帮我找那张在海边穿红色衣服的照片",AI翻遍你7万张照片帮你找到。以前这需要人工标注或者昂贵的AI推理,现在52美元就能把所有照片都"看"一遍并建立索引。
电商平台的百万级SKU自动描述——每个商品拍几张照片,AI自动生成多语言的产品描述,成本几乎可以忽略。
医疗影像的普筛——以前用AI做一次CT影像分析可能要几美元,现在用nano级别的模型做初筛,成本降到几美分。初筛发现异常的再交给高级模型精查。这本身就是子代理架构的医疗版——nano做海量初筛,旗舰做少量精判。
每一次成本降一个数量级,就会催生一批之前不存在的商业模式。就像手机通话从按分钟计费变成无限包月后,出现了外卖、打车、直播这些全新的产业——它们不是因为技术突破而诞生的,而是因为成本结构改变而诞生的。
真正的竞争力在哪里
这一切对普通人和企业意味着什么?
最直接的结论:"用不起AI"这个借口正在消失。nano的定价已经低到可以大规模部署在几乎任何业务流程中。不是"能不能用AI"的问题,而是"怎么编排AI"的问题。
真正的竞争力不再是"能不能用上AI"——因为所有人都能用。也不是"能不能训练模型"——因为开源模型越来越强。
真正的竞争力是:能不能设计好AI之间的协作方式。
哪些任务用旗舰模型,哪些用mini,哪些用nano?怎么设计任务拆解的逻辑?怎么处理子代理之间的信息传递?怎么在成本和质量之间找到最优解?
这些问题的答案,就是未来AI产品的核心壁垒。
最好的将军不是最能打的那个人,而是最会排兵布阵的那个人。AI的时代,也是一样。
今日互动:你觉得未来AI产品的核心竞争力,是模型本身的能力,还是模型之间的协作方式?欢迎在评论区聊聊你的看法。
<












暂无评论内容