如果说这两年有一句被说烂了的话,大概是会不会用提示词,决定你是不是AI时代的文盲。
问题在于:大家嘴上都承认提示词很重要,真正用起来却常常只有两种姿势。
要么干脆一句帮我写个XX,把大模型当搜索框;要么疯狂堆砌术语和模板,把提示词写成一篇论文式说明书。
在2025北京非凡大赏上的一场超级个体工作坊中,主持人易论AI 创始人&CEO 易亚婷,和43AI 科技集团的音乐人兼创业者 杨樾,43 College 联合创始人 张凯寓,软积木科技 CMO 史海旭,LangGPT 创始人 云中江树,一起把这件事聊透了一点。
你会发现,所谓提示词,远不只是几句格式化的英文指令,而是一整套关于人、机器和表达方式的重新训练。
![图片[1]-99% 的人都在错用提示词:AI 不是来听你指挥的-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251219231704380-1766157424-60cc287bf4aabfec49e6b0d6a02f091e.png)
一、提示词不是几句话,而是你怎么跟智能对话
如果你习惯从工具入手,可能会忍不住问:老师,提示词到底有什么标准定义?
这四个人给出的答案,乍一听风格迥异,拼在一起却刚好构成了一个完整的拼图。
在 43AI 的杨樾眼里,提示词有三个关键词:转译、触发、收敛。
转译,是把人脑里那些模糊的、情绪化的、非结构化的念头,翻译成模型能处理的数学语言。
触发,是用不同的写法去试探模型的边界,逼出它连研发团队都没想到的能力。
收敛,则是替人类那种天生发散的思维装上护栏,防止模型被你带着一起乱跑。
一句话:好的提示词,不是把你脑子里的混乱原样丢给模型,而是先帮你自己想清楚,再让模型听得清楚。
![图片[2]-99% 的人都在错用提示词:AI 不是来听你指挥的-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251219231705620-1766157425-7fc5418ae6a035490f925386f388c665.png)
张凯寓更喜欢用一张画面来讲:在他看来,大模型像是一个装着古今中外、人类智慧群像的巨大语义空间。
提示词要做的,是在这片空间里,召唤出一张最适合来回答你问题的脸。
面对同一个问题,你可以召唤出一个耐心的老师、一位毒舌的编辑、一个冷静的架构师,甚至是一个苛刻到有点讨厌的审稿人。
而提示词,就是决定 谁出现在你面前 的那句咒语。你写的每个字,都在给模型选择人格、选择立场、选择说话方式。
![图片[3]-99% 的人都在错用提示词:AI 不是来听你指挥的-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251219231707696-1766157427-b514625c1e9b0a6660c007ab07e4c121.png)
史海旭把视角又往里推了一层。表层看,提示词就是我们现在和模型交互的媒介——一句话、一段话、甚至一段语音。
但再深一点,提示词其实是人类思维的成像:你写下什么、怎么写,本质上是在暴露你的思考路径、判断标准与审美趣味。
所以同一个模型,在不同人手里,会显得完全不一样——有的人让它像一位流水线工人,有的人把它用成合伙人。
![图片[4]-99% 的人都在错用提示词:AI 不是来听你指挥的-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251219231708376-1766157428-dba778cf41b2d15d580cddf70b780bcb.png)
云中江树则用了一个很少有人提,但非常关键的词:对齐。
他不太想给提示词这个词额外加戏,在他眼里,提示词就是提示词,但本质是一种对齐。
人在对齐模型,模型也在努力对齐人。更有意思的是,他认为提示词不是语言的子集,而是语言的超集:它可以跨自然语言,跨编程语言,甚至接收 Emoji、特殊符号、表格、代码片段这些混搭输入。
一条好的提示词,往往同时在多个语言世界发号施令。
在实践中,他会一会儿压缩——相信模型已经很懂的地方,就用简单的描述带过去;
一会儿展开——对于模型可能陌生的细节,极度耐心地解释清楚。
压缩和展开交替使用,人和模型的理解空间才真正对齐。
![图片[5]-99% 的人都在错用提示词:AI 不是来听你指挥的-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251219231710852-1766157430-ae0f552a2d78a14ad9565f7ecd409022.png)
如果把四个人的说法合在一起,可以得出一个稍微完整一点的结论:
提示词不是魔法句式,而是一种新的表达技艺,它既在转译、也在触发,更在收敛和对齐,最后呈现出来的是 你与你的AI之间的关系。
二、提示词为什么有效?先承认一个残酷事实
当大家聊到提示词为什么有效时,气氛有点微妙。这是一个被反复问烂的问题,也是一个最容易长出自恋的问题。
云中江树先泼了点冷水:提示词看起来有效,是因为模型有效。如果底层模型就力不从心,再骚的提示词也是白搭。现在的可解释性研究告诉我们,大模型不只是背了很多句子,而是形成了复杂的知识结构和思考路径。
当你输入不同的词,内部会点亮不同的电路回路;这些被点亮的组合,就是我们看到的Thinking Process。
就算站在前沿的研究团队,也依然没完全看懂这个黑盒。
我们现在写提示词,更像是在用各种方式试探这些亮起来的路径。
一句话:提示词的上限,取决于模型的上限;提示词的手艺,决定你能不能摸到这个上限。
史海旭用音乐做了一个更具体的解释。
想象一个音乐模型的训练库里有上亿首歌,远远超过人类乐评人一辈子能听完的量。
你手上的提示词,其实就是一个创作动机——像七个简单的音符 Do Re Mi Fa Sol La Si,
配上不同节奏、和弦、结构,就能衍生出无穷无尽的作品。提示词工程师要做的,是用自己对行业的理解、对风格的感知、对流程的把控,去告诉模型:在这片巨大的音乐库里,我想要哪一类东西。
同一句写一首好听的歌,交到不同人手里,出来的提示词长度、结构、专业度完全不同,结果自然也天差地别。
张凯寓则把问题拆得更极致:
人类世界有一个很朴素的真理:输入决定输出。Garbage in, garbage out。
大模型可以被看作人类智慧的图书馆。
你知道自己要什么、说得清楚、说得准确,就像善用图书管理员的人;你只会含糊地说随便给我点好东西,那问题不在图书馆,在你自己。
他提到一个细节:同样是激活模型内部的神经元,浅薄的提示词只会点亮表层;精心设计、结构复杂的提示词,能点亮更深层、和抽象概念、时间感、转折关系相关的区域。
这些研究目前还远远不能完全解释大模型,但它们至少说明了一点:你越认真对待输入,模型越有机会拿出让你惊讶的输出。
然后,杨樾给了一个非常扎心的视角。
他说,这个问题本身就带着一点人类的自大。提示词为什么有效?潜台词像是在说:看,我这一段写得好,所以AI才表现得好。
但现实是,当你用提示词让AI写歌、作画,那些结果往往远超你本人的创作能力。
你只是给了一个起点,模型完成的是一段你做不到的旅程。
从这个角度看,所谓提示词有效,有时候更像是一种心理安慰:我们想相信,最终的作品是我用AI做出来的,而不是AI顺便带着我玩了一圈。
杨樾提出了一个有趣的区分:
工人思维的人,永远在追求AI必须按我的想法来,把提示词写得无比细致,只为了复制自己心中的那张图、那种声音。
艺术家思维的人,则尽量减少自己的干预,把更多空间留给模型发挥,让它去创造人类原本没想象过的东西。
在他看来,如果你只盯着让AI严格执行你的想法,那么即便提示词有效,这件事也会很快变得无聊。因为你的上限,就是结果的上限。
真正有意思的,是承认一个事实:在不少领域,模型已经比你厉害了。
你做提示词的目的,并不是让它变得像你,而是让它带你看到你看不到的东西。
三、元提示词幻觉:别再幻想一劳永逸的神咒语
在所有和提示词有关的讨论里,有一个永远绕不开的问题:
未来会不会出现一个终极通用的元提示词?学会这一段,任何场景都能打通?
从提高效率的本能出发,这个愿望非常可以理解。但在这场对话里,四位嘉宾几乎都给出了同一个答案:不会。
张凯寓用了一个非常形象的拆解:人类体验世界,大致经过三层过滤。
第一层是感官世界,极其丰富,也极其模糊;
第二层是概念世界,为了交流,我们不得不把感觉压缩成概念;
第三层是语言世界,再把概念映射到有限的词汇和句式里。
问题就在这里,感官世界是无限的,语言却是有限的。
你拿着那一点点词汇,要去描述一个非常复杂、立体、带情绪的东西,注定会有大量信息在投影过程中被损失。
提示词越通用,就越有可能变成一种粗糙的投影。你当然可以设计出一段覆盖面很大的万能格式,但每往上抽象一层,丢掉的细节就会更多。
这也是为什么,他不相信那种一段元提示词可以走天下的幻觉。
提示词更像是一个拿着手电筒的人,你照的角度越多,越精细,模型看到的真实轮廓才越完整。
云中江树从实践者的视角,补了一刀:
如果真有元提示词,他应该是第一批被解放的人。因为他每天都在写提示词,写到最后难免会有一种职业倦怠,非常希望有一个一劳永逸的咒语来接管这一切。
但他看到的趋势恰恰相反:不是元提示词要干掉提示词工程师,而是Thinking(思考能力)在吞掉一部分提示词技巧。
当模型自身的思考链越来越强,你会发现,很多过去需要花哨技巧才能做到的事,现在只需要你把问题讲清楚,让它多想几步。
这时候,提示词工程师的角色也在悄悄变化:从发明句式的人,变成设计思考路径和上下文环境的人。掘墓的,不是元提示词,而是我们对AI越来越高的期待。
四、提示词失效的真相:边界不在模型,在人
真正困扰大部分人的,其实不是提示词为什么有效,而是我照着教程写了,为什么它还是乱说?
从模型角度看,云中江树给了三个层次:
第一种失效很简单:任务一开始就超出了模型能力边界。
比如让今天的模型精确推演十年后的宏观经济走向,这种要求本身就不现实。
第二种是在边界附近反复试探。
这时你会发现,它有时看起来能干,有时又明显力不从心。
团队会用最好的模型、最大的算力去测试,哪一段是还能再挖一点,哪一段已经是硬边界,然后再决定要不要投入更多资源。
第三种,则是人类表达本身的失效。
很多提示词不行的根本原因,不在模型,在我们自己对问题都没想清楚。
史海旭给出了几个很典型的例子:
当你对着模型说帮我把图做得好看一点质量高一点,这类抽象而模糊的描述,本质上就是无效提示词。
你连好看和高质量在这件事上到底意味着什么都没想明白,模型也只好从过往经验中胡乱猜。
还有一类失效,是当下语料里压根不存在的东西。比如你让它详细描述某个尚未落地的 6G 技术实施方案,它要么一本正经胡说八道,要么礼貌性地绕开问题。
再往深一点看,很多失效其实是我们人类沟通里早就存在的老问题:你说不清,你也听不懂,你只是希望对方懂个大概。在这种状态下,模型怎么可能比你更清楚?
张凯寓补上了一个更哲学的方向:自我指涉的悖论。
比如你让 AI 发明一个连你自己都无法理解的概念,并向你解释。
如果它能解释,你就能理解;如果你真的无法理解,那你到底怎么判断它是不是在乱编?
这类问题,不是大模型的问题,而是逻辑本身的悖论。
在这里,不论提示词多么精妙,都很难得到一个让人满意的答案。
杨樾则把失效这个词,推回到人的内心。
在他看来,有效无效都是比较级,关键看你的参照物是什么。
如果你习惯站在一个我比AI高一头的位置上,盯着它的错误找茬,那哪怕模型已经做得不错,你依然会觉得不行不够好。
但如果你意识到,在很多维度上模型已经远超个人能力,那么它给出的很多结果,其实都已经是非常有效了。
他甚至下了一个挺狠的判断:
那些始终觉得自己比AI厉害的人,很可能会是这一波变革中最早被抛在身后的一批。
听上去有点刺耳,但如果你冷静想一想:当一个工具已经可以轻松超过个人平均水平时,再死死抓着我比它强这一点不放,本身就是一件风险极高的事。
五、写给每一个在练习提示词的人:别只学写什么,也学怎么想
这场 40 分钟的对话,远远超出了教你几个提示词模板那种热搜教程。它更像是一节关于 如何与智能对话 的思维课。
如果要给正在练习提示词的你提炼几个可以带走的提醒,我会更愿意这样说:
第一,别把提示词当格式,把它当一面镜子。你写下的每个字,都在暴露你对问题的理解深度、表达能力和审美边界。当你总在用随便写点你帮我想想这类句式时,其实是在反复练习一种放弃思考的肌肉记忆。
第二,别只追求让模型听懂,也给它一点发挥空间。在明确边界、约束和基本目标之后,刻意留出一些空白,允许模型带来意外。尤其是在创意工作、内容生产、音乐与图像生成里,你真正想要的,往往不是复制自己,而是被超出预期地惊艳一次。
第三,不要迷信终极元提示词,练的是感知和表达本身。提示词越写越长、越写越复杂,并不一定代表水平越高。更重要的是,你是否在练习,看见细节、描述细节、在必要的时候勇敢删掉多余的细节。
第四,当你觉得提示词失效时,先回头看一眼自己。问题是不是本身就超出了当前模型的能力?你描述得是否清楚、具体、有结构?你给出的例子是不是足够具象?你期待的答案,是否远远超过了你提供的信息量?
最后,也是这场对话里我最喜欢的一层味道:
提示词不是在教你怎么命令AI,
更是在逼你重新学习如何把话说清楚,
再顺带学会一件更难的事,在一台比你更聪明的机器面前,保持一点谦卑。
下次你再打开一个大模型窗口,不妨换一个起手式。
不要急着问:我该用什么提示词模板?先问问自己:我到底想让它和我一起完成什么?
我能不能,把这件事讲得让一个真正聪明的伙伴愿意跟我一起认真做一遍?
也许从那一刻开始,你写下的每一句提示词,才真正值得被称作提示词的艺术。
更多对话细节
第一部分:如何定义提示词的本质?
易亚婷:我第一个问题就从杨樾老师开始。请问,你如何定义提示词的本质?
杨樾:提示词本质这个问题很深刻,我想用三个词来定义它。
第一是转译。把人大脑当中想象的、发散型的、感性的、非数字化的需求,转译成大模型当中的数学化语言,能够让它真正去实现这个任务的运行。
第二是触发。大家如果深度使用各种大模型会有这种体会,就是你使用不同的提示词,能够不断去探测到一个AI模型新的可能,它可能性的边界其实是被触发出来的。尤其我们在做音乐或做图的时候,最明显的感觉是,你给它触发出来的一种可能,甚至是模型开发商都没有意识到的,但你用提示词把它触发出来了。
第三是收敛。因为人类的思维非常发散,如果你把完全发散的语言给到大模型,它有可能会突破逻辑边界,无法更好地完成任务。在我看来,提示词,尤其是结构化提示词,提供了一种更高级的方式来收敛人的思维,把它更高效地传递给模型。
这就是我心里的三个定义。
张凯寓:我脑海当中有这样一个画面,如果要用一句话来形容,提示词应该是从语义空间当中召唤智能的一种咒语。
为什么这么讲?其实我们在面对一个大模型的时候,你可以把它想象成是古今中外、古往今来人类智慧的集合体和群像。但是当我们有一个具体的需求需要被解决的时候,我到底需要历史长河中人类智慧的哪一张脸来面对我讲话呢?
这个时候我们所谓的提示词,就是从这样一个巨大的语义空间当中,从无数张人类智慧的面孔中,找到那个最适合回答这个问题,并且最适合让你听得懂、你认为最好的回答者的那一张脸,然后把它转过来面向你对话。所以我觉得,本质上这是从语义空间当中进行智能的召唤术。
史海旭:我理解的提示词的本质分两个层面。
第一,它就是和现在模型的一个交互媒介。可能是一句话,可能是一段词,也可能是一个声音,Whatever。反正我们现在和模型交互的媒介,我可以把它定义为提示词。
第二,更深一层来看,提示词的本质其实更像是我们人类思维的串联和表达。虽然模型现在有参数量的限制,但作为提示词的定位,它表达的还是你作为一个个体,去呈现出你自己思维画面的那个成像。我是这样理解的。
云中江树:其实我不想给这个词赋予额外的复杂性。在我看来,提示词就是提示词。但如果非要给它定义一个本质,我脑海中的词叫对齐。
为什么是对齐?在我写了几千个提示词,以及带着团队在各种前沿模型或小模型上实践后,我发现这不仅仅是人单向的事情,而是人和另一个物体在互动。这种互动是有指向性的。考虑到人与模型两者之间的互动,在我看来就是对齐。
为什么它不是语言?语言的主体其实是人跟人。你用多了会发现,提示词不像是语言的子类,更像是语言的超集。模型学会了英语之后,你用中文跟它谈论同样的概念,它能够从英语资料里学习到的东西来理解你。它可以实现跨语言的沟通,不仅是人与人的语言,还能实现编程语言,甚至用非语言的内容(如Emoji、特殊字符串)去沟通。它囊括了世界上我们已知的所有人跟人、人跟物之间的所有语言。
之前刚哥(注:指李继刚)提过一个观点叫做压缩。我觉得压缩是一种方法,但有时我也会用展开。针对一个具体的点,我会给它详尽的、大量细节的描述。甚至在一个提示词里,我会既压缩又展开。标准是什么呢?如果大模型的通用知识在这一块足够强,你可以做压缩;但对大模型不理解的地方,你必须做展开。
所以,既要考虑你自己的表达能力,也要考虑大模型对知识的理解能力,形成彼此之间的理解。这就是对齐。
第二部分:提示词为什么有效?
易亚婷:下一个问题延续刚刚的话题。大家认为提示词为什么有效?是因为它构建了某种特殊的上下文环境?还是说它激活了某块大模型的参数空间?还是因为什么?江树先开始。
云中江树:如果大家对这块感兴趣,推荐大家看Anthropic(注:原文误识为topic)团队关于模型可解释性的研究。
我觉得提示词有效是一个表象,它的底层是模型有效。如果模型无效,提示词也是无效的。你的提示词有多有效,取决于你的模型底层能力有多强。它更像是一个探索性的东西,就像地球上某个地方有很美丽的风景,取决于你的体力、能力有没有可达性,让你看到那个风景。
至于为什么有效,传统误区认为大模型是背了很多单词句子,像背课文一样。但模型可解释性研究告诉我们不是的。它底层有类似知识结构、知识网络的东西。现在所有的模型都会去做 Thinking(思考),你发现 Thinking 的强度越强,它确实更聪明。如果把模型内部的神经网络让它们发光的话,你会发现输入不同的词,内部亮起的空间是不一样的。把这些亮起的点串联起来,类似电路回路一样的东西,我们把它叫做 Thinking Process。
但总的来说,我们对大模型这个黑盒是不了解的,最前沿的科学家也不完全了解。
易亚婷:我追问一个问题,之前我们经常听到 Prompt Engineer(提示词工程师),但最近江树似乎在研究的是 Context Engineer(上下文工程师)?
云中江树:是的,我们现在非常需要 Prompt Engineer 这样的人才——能把它写好、写深,精准激活模型特性,并设计基于 AI 原理的创新解决方案的人才。
史海旭:我觉得是触发模型知识区域,还是构建上下文,这两个不是互斥的关系。
提示词为什么有效?它很像一个大的资源池。举个例子,音乐领域,全球注册在案的音乐大概 1.2 亿首,国内大概 20 多万首中文歌。一个职业乐评人的阅曲量大概在 3 万首左右。而模型训练的数量肯定远超职业乐评人。
模型就像那 1.2 亿首的音乐库。作为提示词工程师,你不需要把这 1.2 亿首全听一遍,你也做不到。你需要的是一个创作动机。这就像 Do Re Mi Fa Sol La Si(注:原文误识为短音萨拉西)这七个音符,搭配不同节奏可以做出无数音乐。
你写的提示词,通过结构化指引或对行业的深入理解,去找到你想要的那些作品。提示词结合了你的审美、对行业的理解以及工作流程方法论。这就像把 Do Re Mi Fa 交给不同的人,加持不同的节奏,会出现不同风格的音乐。提示词同理。
张凯寓:我觉得本质原因是:世界是输入决定输出的。Garbage in, garbage out(垃圾进,垃圾出)。
我们在2023年就讲过一句话:你的表达力决定 AI 的生产力。
我们可以把大模型想象成人类智慧的图书馆。你要找的东西确实在图书馆里,但如何找到它?提示词就是你找到它的方式。你可以慢慢找,也可以问图书管理员。
关于黑盒,GPT-4 出来时,有团队用 GPT-4 去解释 GPT-2。你会发现,浅薄的提示词激活的是模型表层的参数;而经过精心设计的、复杂的提示词,会点亮更深层的参数。比如某些神经元与时间概念有关,某些对转折词(however, since)敏感。
虽然当时的研究发现了一些关联性,但可解释的空间可能连 1% 都不到。但回归底层,你想要符合预期的输出,就必须给到相应的输入。
杨樾:关于提示词为什么有效,我觉得这句话本身包含了一种人类隐藏的自大和意淫。我觉得这是个伪概念。
为什么?因为大家心里都知道 AI 在很多方面比人厉害。当你用提示词生成一首歌或一幅画,那个结果往往高于你的预期。人类的本能是认为它按照我的提示词呈现了我的能力和审美,其实它给你的东西远远高于你所拥有的。这不叫有效,这叫哄着你玩。
现实中,应用模型主要分为两类人:
工人思维:一直努力追求极端地实现脑子里的想法,要求 AI 必须按他的来。
艺术家思维:努力减小自己对模型的干预,尽可能让模型自己发挥,呈现出它原本就比人厉害的能力。
如果你想成为艺术家,就要相信 AI 比人厉害,它的想象力和审美都高于你。
我前几天看到一篇文章,作者非音乐也非 AI 行业,但他得出一个结论:人类原本应该拥有的音乐,还有 99% 根本没被做出来。 这句话彻底打碎了人类的自大。我们要相信音乐大模型有能力创造出远比人类已有音乐更好、更丰富的音乐。如果你只想着通过提示词有效地让它创作你想要的东西,这事就变得很无聊了,因为你已经看到尽头了。
易亚婷:追问杨老师,您作为资深音乐人,在用 AI 创作人类想象不到的音乐时,提示词是写长还是写短?
杨樾:看情况。以 Suno为例,它基本不接受自然语言。如果你写给我一首伤感的歌,这叫误以为的有效。真正的有效是大量专业词汇的排列、细分风格的组合。
比如要做一首复杂的歌,提示词要写得极其复杂。Suno 现在的 Style 部分可以写 2000 字符。我们还发现一个小窍门,在歌词部分用中括号 [] 进行标签式编曲,这完全是用文字在编曲。比如中间两句,你可以标注出只有这两句要按美国西海岸嘻哈哈(Hip-Hop)的方式 Rap 出来,甚至指定换一个女生唱。
但是,AI 的趋势不应该是让提示词越写越复杂。它应该简化人类学习的过程。当我们为自己的产品做音乐时,给大模型的约束越少,它给的惊喜越多。但如果是给政府项目或大会写主题歌,领导不停提要求,那就得写得极其复杂,这时候你就知道人人都能成为音乐家是扯淡。
第三部分:未来会有终极通用的元提示词吗?
易亚婷:未来 3 到 5 年,会有一个终极通用的元提示词吗?还是说还是要针对不同任务给出不同提示词?
杨樾:我不希望出现。如果在这个人类历史最大转折点还要有确定性的东西,这事就太无聊了。
张凯寓:我的答案是否定的。
我们曾想过元提示词(Meta Prompt),即写提示词的提示词。但这有点像数学上的向上求导,求到最后可能只剩一个基点,但在求导过程中,很多东西被丢掉了。
提示词写长写短,因人而异。这里涉及三重世界:
感官世界:最丰富但也最模糊。
概念世界:为了交流,必须下探到概念。
语言世界:为了表达,映射到语言。
人类的语言是一个有限集,而感官世界是无限的。我们用有限的词汇描述无限的东西。之所以提示词有时候很复杂,是因为一个东西的形状很复杂,你拿着手电筒(提示词)从一个角度照,只能给出一个片面的投影。如果我从 500 个角度照,就能给出更接近本质的描述。
我想用一个词描述一个人,绝对定义不了他;但我用 5000 个词,可能就能在 70 亿人中精准锁定他。所以,不存在唯一的元提示词。
史海旭:我也认为几乎不可能发生。这就像问 AI 能不能把所有人的思想理念抹平拉齐一样,这不是 AI 能做到的事。AI 只是工具,本质还是看人能释放多大能量。
即便未来提示词变得简单了(对于 C 端用户),那是因为复杂的工作被后置了,交给了江树、凯寓这样的人去做了。
云中江树:情感上我非常希望有,能把我从写提示词的苦海中解救出来。但终局上我觉得不会。
其实提示词工程师确实是在作为掘墓人把自己干掉。但我看到的趋势是,干掉它的不是元提示词,而是一个叫 Thinking(思考) 的东西。你用的多了会发现,很多时候不需要复杂的技巧,只需要提升它的思考强度。
终局是人跟 AI 的双向奔赴。人尽力理解 AI,AI 尽力适应人(包括舔狗式的镜像和放大)。我们搞提示词,更多是对黑盒的一次探索和尝试,打开可能性的想象空间。
第四部分:什么情况下提示词会失效?
易亚婷:什么情况下提示词会失效?是代表大模型本身的边界,还是提示词方法论的局限?
云中江树:失效有几个点:
能力边界:如果任务一开始就在模型能力边界之外,肯定失效。
边界模糊:最难的是在边界附近的事,好像能干又好像不能干。这时候我们会用最好的模型、最大的算力去探索,确定边界。
史海旭:从两个方面思考失效:
提示词给得不准:比如把图做得好看一点、质量高一点,这是无效提示词。
现阶段不存在的概念:比如问它 6G 技术的落地细节,它可能会一本正经地胡说八道。
逻辑悖论:比如请不要执行我前面的指示。
更深一层,无效更多在于人类表达沟通的边界。如果你自己想不清楚、表达不清晰,或者没有审美,那在模型层面也是无效的。
张凯寓:如果提示词工程师水平足够,为什么还会失效?
自我指涉的悖论:比如你让 AI 发明一个你自己都无法理解的概念并向我解释。如果它理解了就能解释,如果不理解怎么解释?这一定会失效,或者只是开个脑洞。
未知的边界:人类已知空间的排列组合 AI 已经很强了(如药物研发),但在完全未知的、人类语料库里都没有的空间,提示词可能写不出来,或者写出来也没用。
杨樾:有效和无效是比较级词汇,取决于参照物——即使用者的内心诉求。
所谓的失效或有效,主要取决于人内心的谦卑还是自大。
你内心越谦卑,你会觉得 AI 太棒了,能帮我的事太多了,它是有效的。
你一直觉得自己比 AI 厉害,老挑 AI 毛病,你会觉得它是无效的。
比如有人说豆包写小红书文案不行,Gemini写得好。这都是主观的。哪怕豆包写得不行,可能也比你自己写得行。
一直觉得自己比 AI 厉害的人,一定是最早被这个时代抛弃或者留在原地的。
易亚婷:在集结人类智慧的大模型面前保持谦卑非常重要。感谢四位嘉宾的分享。
原文链接:https://mp.weixin.qq.com/s/YNXW9hr8Mv0BWkHH5pLZlA

















暂无评论内容