![图片[1]-Seedance 2.0 出片万能模板-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260224010131106-1771866091-8d3b5128e7553411c253700809f2f70e-scaled.jpeg)
你有没有在 Seedance 2.0 里输过「一个女孩在街上走」,然后生成了一段毫无运镜、像素级 PPT 的东西?
问题不在工具,在提示词。准确说,在两件事上:结构和运镜。
结构决定视频「能不能看」,运镜决定视频「好不好看」。大多数人两样都缺。这篇把两个问题一次解决。
为什么自己写几乎必然翻车
大多数人用 AI 视频工具的方式是:脑子里有个模糊画面 → 用自然语言描述 → 祈祷 AI 理解你。
结果通常是:画面静止、角色僵硬、镜头不动、转场生硬。不是 Seedance 2.0 不行,是你的提示词里缺了太多东西——运镜类型、镜头切换逻辑、光线氛围、特效节奏。这些术语你可能听都没听过,更别说准确使用。
@yanhua1010 说得很直接:AI 视频的质量,70% 取决于运镜描述,而不是场景描述。 你写「A girl walking in the forest」,出来的是监控录像;你写「A girl walking in the forest, Smooth Dolly Follow, golden hour lighting」,出来的才叫视频。
场景是骨架,运镜才是灵魂。
第一层:用万能模板搞定结构
@leslieyu0 公开了一个提示词模板,结构大致是这样的:
**(多镜头,快速呈现人物/高光动作,分镜衔接流畅)**
【@素材1】作为首帧参考,【角色名】为主角。
镜头1(【镜头类型】):角色出现在【场景】中,做出【核心动作】,搭配【局部特效】;
镜头2(【镜头类型】):镜头切换方式衔接,特写面部表情,强化情绪;
镜头3(可选):快速带过辅助元素,呼应核心动作;
整体【画风】,色彩【光线】,自带【音效/配乐】,时长5s。
看起来像一份分镜脚本的骨架。它把一个视频该有的要素全锁定了:多镜头结构、运镜变化、情绪节奏、风格统一。
你不需要懂这些术语。把模板丢给 ChatGPT、Gemini 或 Kimi,告诉它你想要什么风格、什么主角、什么氛围,AI 会帮你把每个槽位填满专业词汇。比如你说「赛博朋克风格,银发机械姬,5秒,视觉炸裂」,AI 会自动补上「极速推拉」「光子粒子流」「故障转场」这些你手写想不到的东西。
这套模板解决了「从 0 到能用」的问题。但模板里有个关键槽位——【镜头类型】——大多数人填不好,因为根本不知道有哪些选项。
这就需要第二层。
第二层:运镜词典——模板里那个填不好的槽位
@yanhua1010 结合 @yyyole 的运镜术语体系和 @YZCStella 的实战模板库,整理了一套三级进阶体系。我把它压缩成最实用的部分。
三个基础词
所有运镜都建立在这三个词上:
- Pan(摇移):镜头水平或垂直转动,机位不动。展示全景、交代环境用这个。
- Zoom(变焦):改变焦距,主体变大或变小。聚焦细节、制造冲击。
- Dolly(推轨):镜头物理前进或后退。跟随人物、营造沉浸。
Pan 和 Dolly 最容易搞混。Pan 是「头转了,人没动」,Dolly 是「整个人跟着走了」。我一开始就搞反了,生成出来的画面总觉得哪里不对,后来才意识到是运镜指令给错了。
加修饰词,超过 80% 的人
光写 Pan、Zoom、Dolly 太生硬,就像跟摄影师说「你动一下」。加一个修饰词,告诉 AI 这个镜头的「情绪」,效果天差地别。
速度:Smooth(流畅)、Slow(缓慢)、Fast(快速)、Subtle(微妙,极细微的移动,高级感全靠它)。
情绪:Cinematic(电影感,万能词,不知道加什么就加这个)、Dreamy(梦幻)、Aggressive(侵略性,恐怖片动作片用)、Intimate(亲密,人物特写用)。
风格:Handheld(手持,纪实感)、Aerial(航拍,史诗感)、Dutch Angle(荷兰角,画面倾斜,制造不安)。
组合起来就是:Smooth Dolly Forward、Slow Aerial Pan、Cinematic Handheld Tracking。
试过一次你就知道区别有多大。同样一个森林场景,「Dolly Forward」出来的是平淡的前进镜头,「Slow Cinematic Dolly Forward」出来的有呼吸感,光影在树叶间流动,完全不是一回事。
组合运镜
单一运镜够用了,但 Seedance 2.0 对组合运镜的理解特别好,不用白不用。几个经典组合:
- Orbit + Zoom In(环绕 + 推进):镜头绕着主体转,同时缓缓靠近。人物登场、产品展示首选。
- Crane Up + Pan(升降 + 摇移):镜头向上升起同时水平转动。大气磅礴,开场结尾用。
- Dolly Zoom(推轨变焦):镜头前推同时焦距拉远,希区柯克的经典「眩晕」效果。用好了惊艳,用不好晕车。
- Tracking + Handheld Shake(跟踪 + 手持抖动):跟拍加适度晃动。战争片动作片标配。
一条视频不要超过 2 个组合。「快速推进 + 环绕 + 升降 + 变焦」四合一,AI 会精神分裂,出来的画面你自己都不知道它在干嘛。
中文也能用,而且效果不差
英文术语是底层逻辑,但 Seedance 2.0 对中文理解同样强。@YZCStella 总结了一套中文万能公式:
主体 + 动作 + 场景 + 光影 + 镜头语言 + 风格 + 画质 + 约束
几个可以直接复制的模板:
唯美人像:
一位年轻女生在林间缓慢行走,微风轻拂头发,自然微笑,暖光光影,中景,缓慢推镜,画面流畅稳定,4K高清,电影感,面部清晰不变形,人体结构正常,细节丰富。
氛围风景:
海边日落,海浪轻拍沙滩,镜头缓慢横移,暖橙色调,治愈清新,画面丝滑,4K超高清,无闪烁无重影。
图生视频(首帧固定):
基于参考图保持人物样貌与服装一致,动作缓慢抬手转身,自然流畅,不僵硬不变形,稳定运镜,高清细节,电影质感。
如果想自己写,套这个框架:
[景别] + [主体描述] + [动作(慢、连续、具体)] + [运镜指令(1-2 个组合)] + [光影氛围] + [风格标签] + [画质标签] + [稳定性约束]
五条铁律
这几条是踩坑踩出来的,每一条背后都有翻车的教训。
动作写慢,写连续。 不要写「跳舞」「走路」这种大词,要写「缓慢转身、轻轻抬手、脚步轻移」。AI 生成慢动作的成功率远高于快动作。你写「高速奔跑」,出来大概率是鬼畜。
运镜写稳,写简单。 一条视频最多 2 个运镜组合。前面说过了,贪多必乱。
必加稳定约束词。 无论什么场景,结尾加上「画面流畅稳定 / stabilized / 无抖动无闪烁」。不加的话画面稳定性全靠运气,十次里有七次抖。
必加角色约束词。 人物视频最大的坑是变脸变形。加上「面部稳定不变形,五官清晰,人体结构正常,服装一致」。这不是锦上添花,是保底。
模糊词换精确词。「move」→「Smooth 3-second dolly forward」;「好看」→「治愈清新,暖光光影」;「很酷」→「赛博朋克,暗调高级,霓虹反光」。模糊词等于没描述,AI 全靠猜。
速查表
铁律是通用底线,具体到场景,这张表更直接:
- 人像特写 → 缓慢推镜 / Dolly In,加 Intimate、Smooth。快速变焦会让脸崩掉。
- 风景全景 → 缓慢横移 / Pan / Aerial,加 Cinematic、Dreamy。手持风格和大全景天然矛盾,别用。
- 动作追逐 → Tracking + Handheld,加 Fast、Aggressive。这是少数适合用 Handheld 晃动的场景,固定机位拍追逐像在看监控。
- 产品展示 → 环绕推进 / Orbit + Zoom,加 Smooth、Subtle。产品要稳,大幅度运动会抢主体的注意力。
- 开场结尾 → 升降摇移 / Crane Up + Pan,加 Cinematic、Slow。多重复合运镜在这里很诱人,忍住,两个够了。
- 回忆梦境 → Dolly Zoom / Slow Pan,加 Dreamy、Subtle。
- 城市夜景 → 俯冲 / Aerial Crane Down,加 Cyberpunk、Cinematic。
去哪里用
现在用 Seedance 2.0 有两个入口:
小云雀 APP,专业版,功能更全,参数控制更细。适合已经知道自己想要什么的人。
豆包 APP,刚全量推送,免费使用。打开对话框就能看到 Seedance 2.0 入口,支持 5 秒和 10 秒视频。还有个「分身视频」功能——通过人脸识别创建你自己的视频分身。豆包内置了不少模板,新手可以先从这些模板起步,熟悉了再用万能模板自定义。
操作流程很简单:
- 把万能模板 + 你选好的运镜组合一起发给 AI(ChatGPT / Gemini / Kimi),让它生成完整的提示词
- 在小云雀或豆包里上传参考图 + 粘贴提示词。注意检查 @图片引用是否生效
- 参数设 16:9、时长约 5 秒,点生成。想更长可以试 10 秒,但对提示词精度要求更高
一个限制:豆包目前不允许上传真人图片作为主体参考,想用真人形象只能走分身视频的人脸验证流程。
最后
这些模板和术语能解决「从 0 到 80 分」的问题。结构不塌,运镜不乱,画面稳定,角色不变形——做到这四点,你的出片质量已经超过大部分人了。
但 80 分以上靠的不是提示词写得多精确。是你知道这个镜头为什么要这样切,这个节奏为什么要这样走,这个故事为什么值得讲。
工具在被拉平,模板在被公开,运镜术语人人可查。最后拼的还是那个老问题:你拍的东西,有没有人想看?
信息来源:
- @leslieyu0:Seedance 2.0 万能模板教程
- @yanhua1010:Seedance 2.0 运镜提示词完全指南
- @yyyole:AI 运镜提示词不完全指南
- @YZCStella:Seedance 2.0 提示词技巧
- Higgsfield 团队:Seedance 2.0 详细测评
- @xiaohu:豆包全量推送 Seedance 2.0
<原文链接:https://mp.weixin.qq.com/s/VlN4tFHMxtwJ2hvCD4Ri_Q


















暂无评论内容