GPT-5.2发布,能力超人类11倍!谷歌揭露一个致命弱点,这才是普通人的活路

图片[1]-GPT-5.2发布,能力超人类11倍!谷歌揭露一个致命弱点,这才是普通人的活路-AI Express News

昨天,OpenAI憋了这么久,终于扔出新的重磅产品:GPT-5.2

在谷歌和其他竞争对手的围追堵截下,他们这次彻底盯上了打工人:

GPT-5.2官方文档白纸黑字写着:在涵盖44个职业的专业知识工作测试中,GPT-5.2 Thinking完成任务的速度是人类专家的11倍以上,成本不到人类的1%。

更扎心的是:在这个名为GDPval的测试里,GPT-5.2 Thinking与顶级行业专家正面PK,70.9%的任务中,AI赢了或打平。

一位参与评测的评委看完AI的输出后感叹:"这像是一家有专业团队的公司做出来的……虽然还有些小错要改,但布局和建议都出奇地专业。"

红色警报,GPT5.2靠啥大幅改进?

就在上个月,谷歌放出了Gemini 3,在多项基准测试中全面领先,一度把OpenAI打得措手不及。

OpenAI的CEO山姆·奥特曼在内部发了一封"Code Red"(红色警报)备忘录,要求团队暂停其他项目,全力冲刺ChatGPT的下一次迭代。

图片[2]-GPT-5.2发布,能力超人类11倍!谷歌揭露一个致命弱点,这才是普通人的活路-AI Express News

GPT-5.2这个代号就能看出来,OpenAI现在是提前亮剑。

这次发布的GPT-5.2有三个版本:

Instant:快、稳,适合日常查资料、写邮件;

Thinking:深度推理,适合编程、数据分析、长文档处理;

Pro:顶配,追求极致准确率,适合高风险决策。

在编程基准测试SWE-bench Verified上,GPT-5.2 Thinking拿下80%的成绩。在数学竞赛题AIME 2025上,得分100%

光看数字吓人没用,咱们得搞明白:这玩意儿到底是怎么突然变这么强的?

周四的前哨特训营直播中,王煜全和大家分享了预训练放缓的真正原因,告诉大家底层芯片的算力和存储没有大更新的情况下,AI大模型接下来的进步主要都会依靠后训练、强化学习和推理

知名的ARC测试中,领先模型主要都靠延长推理提高成绩

图片[3]-GPT-5.2发布,能力超人类11倍!谷歌揭露一个致命弱点,这才是普通人的活路-AI Express News

OpenAI这次发布验证了这个判断。GPT-5.2官方文档里有两个关键点:

第一,推理中纠错。 文档中提到"通过训练,模型学会精炼自己的思考过程、尝试不同策略、并识别自己的错误。"

这背后大概率就是通过强化学习,优化了模型的推理过程,让它学会了在内部“打草稿”并在输出前自我修正。

第二,通用推理反超垂直微调。 在模拟OpenAI内部代码工作的测试中,靠"思考"的通用版GPT-5.2,竟然击败了上一代专门针对代码优化的垂直模型(Codex Max)。

这证明了强化学习提升的逻辑推理能力,还能继续提高模型在不同场景的泛用性,简单说就是让模型能像人类工程师一样分析问题,而不是死记硬背代码库。

说人话就是:GPT-5.2这一代,核心变成了用强化学习教AI怎么"想",这才是它能在专业任务上碾压人类的底层原因。

死亡名单,哪些职业危险了?

好了,技术讲完了,咱们聊点更扎心的:哪些人的饭碗最危险?

要回答这个问题,得先说说OpenAI发明的GDPval测试

GDPval,全称是"GDP Validation",是OpenAI在2025年9月发布的一套评测体系。

它的核心思路很直接:不跟AI比考试分数,直接比"干活"。

OpenAI找来了一批真正的专业人士,平均从业经验14年,覆盖美国GDP贡献最大的9个行业、44个职业

这些人出题,出的都是他们日常工作中真实会干的活儿:做销售PPT、搭财务三表模型、排急诊室值班表….

然后让AI和人类专家各干一遍,再请专家盲评:谁做得更好?

结果就是我们开头说的:GPT-5.2 Thinking在70.9%的任务中,赢了或打平人类专家。

更恐怖的是:AI完成这些任务的速度是人类的11倍以上,成本不到人类的1%

图片[4]-GPT-5.2发布,能力超人类11倍!谷歌揭露一个致命弱点,这才是普通人的活路-AI Express News

那么问题来了:哪些岗位最危险?

从GDPval测试覆盖的44个职业来看,知识密集型白领岗位首当其冲。

投行分析师:OpenAI内部测试显示,GPT-5.2在投行初级分析师的建模任务上,平均得分比GPT-5.1高出9.3%。

客服和售后:AI在工具调用测试Tau2-bench中拿下98.7%的准确率,能协调航班改签、行李追踪、特殊座位安排等复杂流程。

程序员:编程能力继续飙升,Windsurf已经把GPT-5.2当成默认底座。

你的新角色:从"执行者"变成"审核员"

好在,AI虽然很厉害,但绝非万能。

这几天谷歌DeepMind联合Kaggle,正式发布了一个名为"FACTS Grounding"的测试榜单。

FACTS是什么?说白了,就是专门测AI"有没有在一本正经地胡说八道"。

测试方法很直接:给AI一份长文档(最长32000个token),让它基于文档生成回答,然后检查它说的每一句话是不是都有据可查、没有编造

结果呢?

目前市面上最强的AI模型,在这个测试里,准确率普遍卡在70%上下。

包括谷歌自家的Gemini系列,OpenAI的GPT系列,没有任何一个模型能保证100%的事实准确性

这就好比,你招了一个效率极高的员工,干活速度是别人的十倍,工资只要别人的零头。

但果这个员工有30%的概率会"信口开河",合同金额写错、法规条款引用错误、客户信息张冠李戴。

现在你敢让他独立负责重要项目吗?

AI的缺陷,恰恰是普通人最大的机会。

OpenAI自己也说了,GPT-5.2的定位是"在人类监督下协助专业工作"(when paired with human oversight)。

以前的打工人是什么?执行者。 老板说写个方案,你就写;说做个表,你就做。

以后的你必须成为AI的老板,要想清楚哪些事是有价值的,哪些事该安排给哪个AI干,干完如何判断靠不靠谱、有没有价值。

未来职场,不会淘汰"用AI的人",一定会淘汰"试图和AI竞争的人"。

给家长的话:与其焦虑,不如让孩子提前准备

我们这代人还在适应AI,但下一代可以从小学会"和AI协作"

就像计算机、互联网成为今天必不可少的职场工具,AI未来也会如此。

【前哨AI冬令营】 专为8-16岁设计,7天让孩子亲手做出自己的小游戏和微信小程序,边玩边学,作品还能发给同学一起玩。

零基础也能上手:从"玩游戏"到"做游戏"

抓住核心竞争力:培养和AI协作的能力

收获硬成果:可上线的作品,实打实的积累

原文链接:https://mp.weixin.qq.com/s/9iZgOWqvUKqzuFBQJA35bQ
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容