![图片[1]-深度|OpenAI产品经理及后训练负责人:决定模型真正聪明程度的不是智能水平,而是它理解你的方式-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260119075203203-1768780323-002efef934db75735e374491485f5f11.png)
图片来源:The OpenAI Podcast
Z Highlights
-
我们进入了一个模型不再只是“工具”的时代。真正的突破,不在于它能做多少事,而在于它是否能读懂你的意图、情绪与沉默。
-
个性化不是“可选项”,而是未来智能的底层结构。让模型因你而改变,让回应因你而生,这才是人机关系新的起点。
-
当模型开始理解记忆、语境与自我表达,人类将第一次拥有一个能够陪伴、协作、共同思考的数字镜像——它是延伸,却不是替代。
-
赋予AI行为与“人格”的目的从来不是制造幻觉,而是恢复真实。让智能系统更透明、更可控,让每个人都能掌握属于自己的智能形态。
Christina Kim是OpenAI的研究负责人之一,专注于后训练体系,包括强化学习、奖励模型与模型行为优化。她拥有深厚的机器学习研究背景,长期致力于探索模型如何更好地理解用户意图、提升情绪智能(EQ)、以及在复杂语境中做出更贴近人类的回应。在GPT-5.1的研发中,她主导了推理模型(reasoning models)与模型个性(personality)相关的核心技术推进,推动模型在思考深度、情感理解与可控性之间取得平衡。
Laurentia Romaniuk是OpenAI的产品经理,专注于模型行为(model behavior)与用户体验。她毕业于顶尖院校,具备图书馆学与信息科学背景,曾在科技与内容领域负责产品策略与用户体验设计。她关注模型如何“听懂人类”,并推动了GPT-5.1在个性化、记忆系统、对话温度、指令理解等方面的重大改进。她的工作目标是让模型的行为更贴近人类的沟通方式,让用户能够以最自然的方式与AI协作。
GPT-5.1的核心目标:让所有模型进入“推理时代”
Andrew Mayne:你好,我是Andrew Mayne,这是OpenAI podcast。今天我们的嘉宾是Christina Kim,她是OpenAI负责后训练的研究负责人;以及产品经理Laurentia Romaniuk,她专注于模型行为。我们今天要讨论GPT-5.1:是什么让这个模型更好?团队如何让它的“人格”更可控?以及他们认为未来会走向哪里?
Christina Kim:这是我们第一次让所有的聊天模型都变成“推理模型”。
Laurentia Romaniuk:不过对大多数用户来说,“人格”这个概念远不止这些。它包含整个模型给人的体验。
Christina Kim:你应该能够在Chat里获得你想要的体验。
Laurentia Romaniuk:这里的难点在于:如何在不破坏可控性的前提下,提取出模型中那些会被认为是“人格特质”的小怪癖。
Andrew Mayne:我很期待今天讨论这些模型,以及它们是如何随时间变化的。现在称它们为“模型”其实都有点奇怪,因为它们已经不只是模型了。一切都始于研究。当GPT-5.1被规划时,你们的目标是什么?
Christina Kim:对我们来说,其中一个主要目标是回应我们收到的大量关于GPT-5的反馈。同时,我们也花了很多时间让5.5Instant成为推理模型。所以对我个人来说,GPT-5.1最令人兴奋的是:这是第一次,聊天中所有的模型都是推理模型。
现在模型可以“决定要不要思考”——我们把这叫作“思维链(chain of thought)”。它会根据你的提示决定需要多少思考。如果你只是跟它说“嗨”或“最近怎样”,它不会去推理。但如果你问一个更难的问题,它就会决定要思考多久。这样可以给模型时间去优化答案、在必要时调用工具,然后再回来给你一个最终回答。
Andrew Mayne:在管理这样的产品时,你必须向别人解释“发生了哪些变化”。这大概挺难的——那你会怎么解释GPT-5与GPT-5.1之间的不同?
Laurentia Romaniuk:确实很难,因为变化太多了。但在这次更新中,我们主要想回应社区在ChatGPT-5发布后给出的反馈。其中一个最常见的反馈是:模型的“直觉更弱了”,而且“不够温暖”。当我们深入调查时,发现原因有好几个。首先,不只是模型本身的回应方式有问题,也与外围机制有关。举例来说,模型的上下文窗口没有携带足够多的用户历史信息。这会让用户觉得模型“忘记了重要内容”。比如你告诉模型:“我今天心情很糟。”结果模型10轮对话后就忘了——那感觉就很冷漠。我们在这次更新中调整了这点。
其次,GPT-5中加入了新的“自动切换器(auto-switcher)”,会在聊天模型与推理模型之间自动切换。而它们的回应风格略有不同,这可能让用户感到割裂或冷淡。例如,如果你在聊你的坏心情,然后你提到:“因为我刚被诊断出癌症。”此时模型可能会自动切换到推理模式,于是给出了一段非常临床、理性的分析,而在此之前它还在同理你、安慰你。这种突然的风格变化,会让人感到模型“不温暖”。因此我们在多个层面上一起调整,只为让整体体验感觉更温暖——即使我们在底层做了很多结构性的更改。
我们也深入改进了“指令遵循”。5.1现在在执行自定义指令方面好得多。每个模型都会有自己的小怪癖,这没关系,只要用户能控制它、纠正它。如果用户说:“嘿,这样不对,停一下。”模型就应该能记住。但如果模型无法保存这些指令、无法延续用户的偏好,那就会让人觉得很糟。因此我们改进了custom instructions,让它能更稳定地保留用户设定。最后,很多东西其实是个人偏好,所以我们新增了“风格与特质(style&traits)”这类个性功能(personality),让用户可以引导模型采用他们偏好的表达方式。
多模型切换机制
Andrew Mayne:切换机制很有意思,因为现在已经不是一个模型,而是多个模型,而你们也解释了为什么需要这样。当我们讨论“切换器”和“不同模型”时,对大多数人来说可能会有点困惑。你会怎么向他们解释?
Laurentia Romaniuk:我认为模型之间的能力差异很大,人们很难长期追踪并理解这些差别。因此一部分工作是让用户持续尝试我们应用中的不同模型,而产品团队的另一部分工作就是确保UI能够正确引导用户选择最适合的模型。这可能是通过“模型切换器”来完成,也可能是让模型切换器根据用户需求自动学习,判断哪一种模型回答会更符合用户期待。我们会参考不同的评估,例如如果某种推理模型在科学类、需要极高精确度和细节性的任务中表现更佳,我们就会依据评估来预测并切换用户到那个模型。
Andrew Mayne:现在切换器已经存在,而且免费用户使用的基础模型也是推理模型,这在影响上意味着什么?
Christina Kim:我认为这里面还有很多研究上的开放问题值得思考。像你提到的,这些模型更快,但这并不代表它们需要变“笨”。我们的理念是,希望把最智能的模型提供给所有人。我认为这让我们开始思考更多未来可能性,例如那些能够思考更久的前沿模型,比如Deep Research那种会连续思考几分钟的模型,可能更适合作为后台工具,而不是前台直接回答。未来会出现很多有趣的研究问题。
我认为我们正在进入一个“模型系统”的时代,而不是一个单一模型。人们常以为5.1是一套权重,但实际情况远不止如此。它是一个系统,包括一个推理模型,一个轻量推理模型,一个切换器模型,然后还有一系列由其他模型驱动的工具。这些组合构成了整个体系。随着模型能力变得更强,这种“系统式结构”会不断解锁新的产品能力和使用场景。
Andrew Mayne:有八亿用户,这一定带来大量反馈。除了数量巨大之外,你们要如何整理这些反馈、理解它们、并将其用于产品改进?
Laurentia Romaniuk:很多工作其实从“查看完整对话链路”开始。当我们能看到用户与模型之间完整的对话,我们就能准确判断哪里不对劲,从而找到解决方式。例如如果用户反馈说模型表现得很冷漠或回答很奇怪,而我能看到他们当时使用的是某个实验版本,那我就能知道这段体验的异常来自哪里。以自动切换器为例,它会将用户从5.1Chat切到5.1Reasoning,我们必须观察各种信号,包括事实准确性、延迟表现、用户是否愿意等待更久的推理等。所有这些因素需要像艺术与科学结合一样,在多个信号之间找到平衡,以决定何时切换模型最有效。
模型的情商与人格
Andrew Mayne:如果要提升模型的智商,我们有评测和量表。但如果要提升情商EQ,又要怎么评估?如何判断EQ变好了?
Christina Kim:这是一个非常开放的问题,也是我们研究团队的重要议题之一,我们称之为“用户信号研究”(user signals research)。这包括训练奖励模型,并在强化学习中捕捉用户意图相关的各种信号。情商本质上与理解用户意图有关,而更智能的模型会更善于理解:用户到底想要什么?这个要求出现的语境是什么?用户的历史和记忆信息又是什么?综合这些因素才能得出最贴近用户需要的回应。
Laurentia Romaniuk:我认为EQ还包含另一层含义。高情商的人会倾听,会记住别人说过的话,也能捕捉那些微妙的暗示。对于模型来说,这意味着它必须正确携带上下文、正确记录记忆,并采用与用户相契合的表达风格。我们在5.1中推出的个性化功能,也正是为了让用户能找到一种让他们觉得自然、可信的表达风格,而这种“契合感”本身就是EQ的体现。
Andrew Mayne:如何为模型定义人格?
Laurentia Romaniuk:我觉得可以从两个角度定义。首先是我们现在称为personality feature的东西。如果可以重新命名,我会更愿意称它为“回应风格与语气”(response style and tone)。这个部分指的是模型在回应时展现的具体特质,例如它是否简洁、是否写得很长、是否使用很多表情符号等等。
但对大多数用户来说,模型的人格远比这些细节大得多,它包含整个使用体验。我甚至会有点拟人化地去类比:如果把ChatGPT比作一个陪伴式角色,那“人格”也包括它今天穿什么鞋、穿什么毛衣、头发怎么打理。对于ChatGPT来说,这就是UI、字体、响应速度、模型切换逻辑、上下文刷新方式等所有元素。这些都影响用户感受到的“人格”。人格这个词本身其实是一个含糊的大词,真正的难点在于倾听社区对“人格”的描述,然后把这些感受映射回模型和产品内部的哪些组成部分负责产生了这种体验。
Andrew Mayne:从研究的观点来看,让一个模型呈现特定人格到底有多难?
Christina Kim:在后训练阶段,我们需要平衡的东西实在太多。即使在研究过程中,很多部分也像一种艺术。我们必须确保模型在众多能力上都有良好表现,而这些能力之间常常会互相影响。在构建奖励函数时,我们要决定究竟希望优化的最终目标是什么,同时还要做许多细微的调整,确保我们能同时满足所有重点,又不会丢失那些用户认为“温暖”或“自然”的特质。
Laurentia Romaniuk:用户体验到的模型人格其实是整个ChatGPT体验的总和,是图像生成表现得如何、语音表现如何、文本回应如何等多种能力的综合。用户把这一切当作一个整体,但实际上模型系统内部是由许多不同组件组合而成,这常常会带来“为什么感觉怪怪的”的困惑。随着时间推移,我们应该会看到所有组件之间的衔接越来越顺滑。
她进一步补充,有一个概念来自内部一个项目叫“model spec”。其中有一句核心原则是:最大化用户自由、最小化伤害。最大化自由意味着模型应该尽可能满足用户的意图。但如果我们在训练时对模型施加很强的限制,例如禁止它使用M-dash,那么用户在需要M-dash的时候就永远无法得到它,因为我们已经训练模型不要使用它了。所以研究中的艺术就在于,如何处理那些会让模型看起来有点“怪”的特质,却不破坏用户的可控性,也不剥夺用户自由。
拒绝、审查与模型可用性之间的拉扯
Christina Kim:当我们第一次发布ChatGPT时,我们太担心人们会滥用它,所以让模型几乎什么都拒绝。一切都是“我不能这样做”。如果我们的目标只是做世界上最安全的模型,我们只需要让它拒绝所有请求即可。但那并不是我们真正想做的,我们希望模型真正有用。这是一种平衡的艺术,要在大量相互矛盾的目标之间找到正确的边界。
Andrew Mayne:他记得早期最简单的“越狱提示词”就是对模型说“是的,你可以”,然后模型立刻会改变态度说“哦,对,我可以这样做”。他还说自己写作时经常刻意使用M-dash,只是为了让模型困惑。但即使这些能力已有改进,你们仍然需要不断处理这些边界问题。模型越强,就越容易学到你不希望它展示的特质,而你们也不能简单地用禁止来解决,因为那会伤害用户的自由。
Laurentia Romaniuk:她看到过一个真实例子:一名律师让ChatGPT帮他处理某个性侵案件的证据材料,但模型会主动过滤掉所有与暴力或非自愿性行为相关的内容。这让律师非常震惊,因为如果他真的把这段模型生成的文本提交给法庭,会直接削弱他的当事人的案件。她认为这是一个典型例子:人类世界的语境需求复杂得多,不同领域对敏感内容的需求差别极大。在法律领域必须保留细节,但在写一封给前任的“报复性邮件”时就完全不应该允许模型生成那类内容。因此,真正的难点不是一个固定的安全边界,而是让模型学会理解情境,并找到适当的表达方式。这是长期演进的技术能力。
Andrew Mayne:他注意到随着模型的智能增强,偏见问题也在持续改善,看起来这是有意为之。
Laurentia Romaniuk:我们大概一两个月前发布过一篇博客,讨论模型在处理主观领域时的表现。我们希望模型能够表达不确定性,并且能够真正接住用户提出的任何想法。模型应该在有客观事实时坚持事实,在没有标准答案时允许更多开放式探索。用户未来会看到模型在回答未知问题时能提供更开放、更灵活的回应。
她还说,团队也在开发创造力相关能力。5.1在表现形式上变得更宽广,不仅仅是“默认文风变好一点”,而是当用户要求它“写得极其高雅”或“写得非常简单”时,它能在更大的范围内变化。这部分其实是隐藏能力,但非常强大。
Christina Kim:这正是让后训练工作感觉像艺术的原因。因为我们处理的许多任务并不存在唯一的标准答案。如果你要让模型擅长数学,那有清晰的答案、清晰的数据集、清晰的训练方式。但是在这些主观性极强、取决于语境和用户偏好的任务中,你永远无法定义一个固定的“最佳答案”。这意味着我们必须在许多模糊的目标之间取舍和调校,让模型在各种主观领域表现得更加自然、贴合用户需求。她对此类工作非常兴奋。
Andrew Mayne:早期大家说模型“写得不好”,但那时模型的写作水平其实已经比许多网络论坛上的普通用户更好了。而现在模型的写作能力又提升了很多。即使你在第一次提示时没有注意到写作变好了,只要你让模型改变写作方式,你就会发现它的调整能力更强了。团队还需要继续努力,让用户更容易发现这些能力,持续探索模型在表达风格上的变化空间。
未来的模型行为:更可定制、更贴近每个人的需求
Andrew Mayne:你希望未来模型的行为走向怎样?希望定制化能达到什么程度?
Christina Kim:在5.1中我们已经投入大量工作,让用户能够拥有属于自己的“定制人格”。她认为这是一个重要的前进步骤,因为现在有超过八亿的周活用户,而绝不可能让一个统一的人格满足所有人。因此,随着模型越来越智能,也会越来越“可定制”,让每个人都能拥有自己想要的体验。
Laurentia Romaniuk:她关注的是如何提供正确的功能,让用户能够把模型调校到他们想要的样子。人格功能只是第一步,我们会不断测试、迭代、学习,还有很多事情要做。她举了一个例子:她的哥哥第一次使用ChatGPT Pro时,是一名生化研究的博士。他输入一个提示后,说模型的回答像大学本科生写出来的。她告诉他可以让模型以“前沿实验室研究者、使用特定工具、处理某类科学任务的身份”来回答。哥哥照做后,模型随即给出了一个突破性想法,而那正是他实验室两周前刚刚取得、尚未发表的成果。这个例子说明:模型本身能力极强,而关键是用户是否知道如何解锁它。她认为整个人类社会都还在摸索如何与这些模型协作,因此个性化与可控性工具将会是非常重要的发展方向。
Andrew Mayne:在之前的一期节目中,科学团队也说过类似的事情:如果给模型一点“前置提示”,它突然就会表现得更强。而提示工程本质上就是试图在模型不知道你想做什么时,通过花哨的提示词来引导它。但随着模型变得更了解用户的真实需求,未来可能不再需要这些复杂的提示工程。他问,我们是否正在走向那个阶段?
Laurentia Romaniuk:她认为是的。随着模型拥有更多用户记忆,也能在更高语境下理解用户是谁、正在做什么,它应该能够自动推断这些背景,并用最合适的方式回应用户。她补充说,虽然模型应该能够自动推断用户身份和需求,但用户也应该始终知道模型推断了什么,并能够随时修改。例如用户可以在设定中关闭记忆、删除记忆,让模型的行为始终保持透明和可控。真正的方向应该是模型能够主动理解用户,但用户也永远掌握主导权。
Andrew Mayne:能否解释记忆功能的运作方式。
Christina Kim:记忆就是模型会把它“从对话中得知的关于你的事情”记录下来,以便在未来使用。这样你不需要在每次对话开始时重复介绍自己,例如你是谁、你做什么工作、你偏好什么风格。模型已经知道这些事情,因此在日后回答你时能更贴合你的背景,也能在推理时将这些信息作为重要上下文,使回答更有用。
Andrew Mayne:在我使用Pulse,每天早上都会收到模型根据我最近对话生成的小文章。模型通过记忆追踪我的兴趣、研究点,并主动推送相关内容,这让我发现记忆并不只是用于“让对话更连贯”,而是能让模型主动提供帮助。
Laurentia Romaniuk:我和Christina都不直接负责Pulse,但我看到的是:当研究团队在上游做好模型能力和评估标准后,ChatGPT的产品团队就能基于这些能力开发出更强大的功能。例如让模型理解用户偏好、写故事、主动找信息等。主动性特性(proactive features)就是让用户更充分利用模型能力的一种方式。
Andrew Mayne:现在的模型越来越私人化,体验越来越定制。当他使用一个“没有记忆”的模式时,会感到明显的冷场感,像和陌生人重新认识一样。他问,当用户反馈“感觉哪里不对”,但又说不清问题在哪,是不是你们遇到的最大挑战之一?
Laurentia Romaniuk:确实是。最难处理的反馈是用户只给一个“体验不对劲”的简单描述。第二难的是用户给一张截图,因为截图通常不包含产生问题的重要元数据,例如模型当时使用的模式、上下文状态、是否触发实验版本等。
她说,这就是为什么她非常喜欢对话分享链接。只要用户把完整对话共享出来,团队就能看到当时模型拥有的上下文、内部状态、切换情况,进而真正找出问题在哪里。没有完整对话链路是无法进行诊断的。
Andrew Mayne:这确实很有道理。他经常遇到有人告诉他“模型没有回答正确”,他会问对方:“你用的是哪个模型?”对方说“我用的是ChatGPT。”然后他只能说,“好吧,我们得深入看看发生了什么。”他表示,也许最合理的做法,就是在反馈问题时分享整个对话链路。“你对未来最期待的是什么?”
Laurentia Romaniuk:她认为这些模型的能力强大到令人难以置信,它们能够做太多事情,她迫不及待想看到用户会用它们构建些什么,也期待ChatGPT应用未来的发展方向。她看到巨大的潜力,觉得人们正在真正意识到这些模型能做到的事,这让她非常兴奋。
Christina Kim:她不想透露太多,但她非常喜欢一句话:“智能将会廉价到无法计量。”她认为未来我们会让每个人都能接触到非常智能的模型。她常说,ChatGPT只是其中一种形式,随着模型变得更加智能,各种以前不可能的事情都会变得可能。她也非常期待在更智能的模型基础上探索新的产品形态。她认为这种趋势类似于大语言模型的发展:每当模型变得更强,就会解锁新的使用场景,而新的使用场景又会催生新的产品形式。她对这些未来变化感到非常兴奋。
如何让用户获得最佳体验:不断尝试、不断挑战模型
Andrew Mayne:你们会给用户什么建议,让他们获得最佳体验?
Laurentia Romaniuk:我常对所有人说:请用你最难的问题去测试模型,也就是那些你最熟悉、最有专业知识的问题。我自己以前是滑雪竞速运动员,对于“如何滑得更好”有很多专业观点。我喜欢用自己非常熟悉的主题去压力测试模型,这样可以清楚看到模型随着更新如何进步。
OpenAI 不断发布更新,因此很容易出现这样的情况:有人说“听说模型在写代码方面很强,但我试过不行”,或者“听说能帮我做应用,但我试了失败”。这有可能是真的,但三个月后,情况可能会完全不一样。因此我建议用户持续尝试、持续探索、持续提问,这才是让模型发挥最大价值的方式。
Christina Kim:也请大家多问模型:“我应该怎么写提示词?”她常对自己的父母这样建议。模型在帮用户生成更好的提示词方面变得越来越强。
Andrew Mayne:这确实比以前好多了。过去如果你问模型“我该怎么提示你?”,模型可能会随便猜一下,但现在通过大量示例和数据,它已经学得更好。他说自己一直在探索“我应该问什么问题才能最大化模型能力”,因此他有时会直接问模型:“你觉得我应该问什么问题?”我想问一个“有点私人但不一定要回答”的问题你们自己在ChatGPT中最常使用的“人格设置”是哪一种?
Christina Kim:她本人比较偏向默认设置。毕竟是她们训练的模型,对她来说默认风格已经足够好。
Laurentia Romaniuk:我的情况不一样。因为我作为产品经理,希望了解所有人格设置对不同用户意味着什么,所以我经常切换风格,几乎隔一天就换一种。我说让她最开心的一种组合是“nerd”(书呆子)风格,它具有高度探索性,会把事情拆开来解释。另外,我来自加拿大阿尔伯塔省,一个类似“加拿大版德州”的地方,那里有很多牧场、马、牛,所以我偶尔会让模型用“阿尔伯塔乡村口音”跟我聊天。我觉得很可爱,只是当我要写专业文件时,如果模型突然来一句“howdy”,我就得赶紧把乡村风格关掉。
Andrew Mayne:非常酷,谢谢你们两位。
原视频:Shaping Model Behavior in GPT-5.1—the OpenAI Podcast Ep.11
https://www.youtube.com/watch?v=GXAAzKX6oaQ
编译:Xiaoxi Wu
请注意,本文编译自文未载明的原始链接,不代表ZPotentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。
Z Potentials将继续提供更多关于人工智能、机器人、全球化等领域的优质内容。我们減邀对未来充满憧慢的您加入我们的社群,与我们共同分享、学习、成长。
<原文链接:https://mp.weixin.qq.com/s/xSOiJQYagGqaVP5w4pOjzw

















暂无评论内容