![图片[1]-Runway Multi-Shot App:一句话生成一整段带对话、音效和剪辑的视频-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260330002037663-1774801237-4b2ec0b4f9e33c9c73b400c7b1c7d4b6.png)
Runway 上线了一个新 App 叫 Multi-Shot:
你打一段文字描述,它能帮你生成一段包含多个镜头的完整视频场景,对话、音效、镜头切换、节奏控制全自动安排好。
不用自己一个镜头一个镜头生成再拼,不用单独配音效,不用手动剪辑。一次输入,出来就是一段有节奏感的短片。
之前用 Runway 生成视频,流程是这样的:写提示词生成一个镜头,再写提示词生成下一个镜头,然后还得自己剪到一起、配对话、加音效。做过 AI 短片的人都知道,单个镜头的质量现在已经很能打了,但把镜头变成一段完整的、有节奏感的视频,中间的工作量其实比生成本身还大。
Multi-Shot App 把这个过程压缩成了一步。你写一段场景描述,它自动拆解成最多 5 个镜头,每个镜头的构图、运镜、节奏都帮你规划好,还会自动匹配对话和音效。
两种输入方式:
- 给一张图作为起点,让它基于画面往下发展
- 纯文字描述,从零开始生成
自动处理的五件事
① 镜头切换
不是简单的画面拼接,是有意图的剪切。远景建立场景、中景交代关系、特写抓表情,这种镜头语言的逻辑它在自动做。
② 对话
角色之间的对话直接生成,嘴型和语音同步。不需要另外找 TTS 工具配音再对口型。
③ 音效
场景里该有的环境音、动作音效自动匹配。门关上有关门声,脚步有脚步声,不用自己去素材库里翻。
④ 节奏控制
镜头之间的停顿、切换速度、画面持续时长,这些构成"节奏感"的东西,它也在自动调节。紧张的场景切得快,安静的场景停得久。
⑤ 电影化构图
景深、光线方向、画面比例这些影响"画面质感"的参数,模型会根据场景类型自动选择。
实际效果:6 个提示词,6 段成片
Runway 在推文串里放了 6 个生成案例,全是一句话提示词直接出片,对话、音效、镜头切换都是自动生成的。
① 松鼠尬聊海鸥
Prompt: A squirrel is having awkward small talk with a seagull.
提示词: 一只松鼠正在跟一只海鸥尬聊。
松鼠怯生生地问"你经常来这儿吗",海鸥直接一声怒吼,松鼠赶紧圆场"好的好的,我理解"。15 秒,两个镜头,对话和表情都对得上。
Prompt: Two small mice in a discussion about whose idea it was to go fishing on a Thursday. A damn Thursday. They know it rains every Thursday.
提示词: 两只小老鼠在争论是谁的主意要在周四去钓鱼。该死的周四。它们明明知道每个周四都下雨。
一只老鼠暴怒吐槽"每个周四都下雨你不知道吗",另一只淡定回"我觉得今天是周三"。情绪节奏拿捏得很准。
Prompt: The therapist calls on Gary and asks him what he's afraid of. He says the thing that keeps him up at night is accidentally making a mistake on his tax returns.
提示词: 心理咨询师问 Gary 他害怕什么。他说让他夜不能寐的事是怕自己报税的时候不小心填错了。
两个镜头,咨询师提问切到 Gary 回答,画面构图是标准的对话正反打
Prompt: The two sit in awkward silence as the tension rises.
提示词: 两人坐在那里,气氛越来越尴尬。
这条几乎没有对话,纯靠画面和环境音营造紧张感。证明 Multi-Shot 不只会做对话场景,沉默和氛围也能处理。
Prompt: A hyper realistic lion lying on a therapist couch, talking about how hard it is for him to eat the cutest animals in the savanna.
提示词: 一只超写实的狮子躺在心理咨询椅上,倾诉吃草原上最可爱的动物有多痛苦。
这条是 6 个案例里对话最密集的。狮子连珠炮吐槽:"为什么不能是蜘蛛呢,没人心疼蜘蛛""斑马有大眼睛,小的跟着妈妈跑,我就..."。6 段对话,镜头切换自然,情绪层层递进。
Prompt: A cinematic feature film about humanoid-toad wearing a wide brimmed hat and a long cloak visits an old hag to get his teeth checked.
提示词: 一部电影级画面,一只穿着宽边帽和长斗篷的拟人蟾蜍去找老巫婆检查牙齿。
4K 分辨率输出,电影宽画幅。巫婆检查完说"三颗牙,跟上次一样"。画面质感最接近真实电影片段。
Multi-Shot App 跑在 Runway 最新的 Gen-4.5 模型上。这个模型 2025 年 12 月发布时就带了原生音频和多镜头生成能力,在 Video Arena 排行榜上排名超过了 Google 和 OpenAI 的方案。
Gen-4.5 的一个核心能力是理解复杂的连续指令。你可以在一段提示词里写"镜头从远景推到特写,角色说一句话,然后切到另一个角度",它能把这些指令按顺序执行。Multi-Shot App 就是在这个能力上面套了一层更好用的操作界面,降低上手门槛。
什么人会用到
做短片的创作者是最直接的用户。以前从提示词到一段像样的片子,中间要经过生成、筛选、剪辑、配音、配乐好几个环节,现在能跳过其中大部分。
做产品演示视频的团队也可能用到。写一段产品使用场景的描述,直接出一段带旁白和环境音的演示片段,比自己拍摄或者找外包快很多。
但要注意,目前单个镜头最长 10 秒,最多 5 个镜头,输出分辨率 720p。做社交媒体内容够用,做正式的商业广告可能还差一截。
怎么用,花多少钱
Multi-Shot App 在 Runway 网页端可用,进入后在 Apps 列表里找到 Multi-Shot 就能开始。
Runway 的付费计划从 Standard 起步,$12/月(年付),每月 625 个 credits。Gen-4.5 模型生成视频按 12 credits/秒计费。算一下,如果生成一段 5 个镜头、每个镜头 5 秒的视频(总共 25 秒),大概消耗 300 credits,差不多半个月的额度。
免费计划有一次性 125 credits,可以试试效果但做不了太多。
![图片[2]-Runway Multi-Shot App:一句话生成一整段带对话、音效和剪辑的视频-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260330002040127-1774801240-f40473e7dbc3570e852d645e1177c2e2.png)
AI 视频生成公司 Runway 在 2026 年 2 月刚融了一轮 3.15 亿美元,估值 53 亿。过去几个月动作密集:
- 3 月 9 日上线了 Runway Characters(实时 AI 虚拟角色)
- 2 月 27 日接入了 Nano Banana 2 图像模型
- 2 月 20 日大批量接入第三方模型,包括 Kling 3.0、WAN2.2、GPT-Image-1.5、Sora 2 Pro
- 2025 年 12 月发布 Gen-4.5 和首个世界模型 GWM-1
Multi-Shot App 是 Runway Apps 生态中的一个。整个 Apps 体系现在有几十个垂直工具,从背景替换、色彩调整到角色表演捕捉、音效生成,每个都是把底层模型能力包装成特定用途的快捷方式。
所有 AI 视频工具都在卷单镜头画质的时候,Runway 开始卷"怎么把单镜头变成成品"了。Multi-Shot App 要解决的问题很具体:你打一段话,出来的直接是一段有对话、有音效、有剪辑节奏的片子,中间那些拼接和后期的活儿,全省了。
<原文链接:https://mp.weixin.qq.com/s/IFSV5kMEx7zlH1CD09h-3w












暂无评论内容