57.1%的人分不清真假!Runway新视频模型太爆炸

梦瑶 发自 凹非寺
量子位 | 公众号 QbitAI

不er,这个世界还有什么是真的?反正我是已经分不清了...

短短3秒,连续切了3个镜头,从人物脸上的皮肤纹理,到满天纷飞的大雪,细节真实到有点离谱!

图片[1]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

再看看这个,湿漉逼真的头发、肉眼可见的面部雀斑、超自然的景深,有点好莱坞大片内味儿了嗷:

图片[2]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

还没完,咱再来看这个,机械义体与人脸的融合,以及构图处理都非常到位,妥妥滴赛博大片即视感!

图片[3]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

你就说逼真不逼真吧…

不卖关子,就是Runway刚刚发布的——全新Gen 4.5」模型。

这次更新主打的是图生视频,在镜头控制故事叙事上,明显往next level推了一步~

这波效果一出来,网友当场坐不住了,直呼:感觉都能吊打好莱坞制作团队了好吧?太逼真!(doge)

图片[4]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

甚至逼真到,在Runway做的一项1000人参与的调查中,结果只有约一半的人能分辨出该模型和真实视频的区别……

图片[5]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

问题来了,那这超超超逼真的——Gen 4.5模型效果到底咋样?咱一起来看!

模型更会讲故事了、细节处理也更到位了

咱先来说说,这次全新的Gen 4.5在模型能力上的有啥亮点看头~

  • 长故事表达能力:能承载更长时序的内容结构,视频的完整度和长度大大提升。

  • 精准的镜头控制能力:镜头的景别、角度、运动轨迹以及切换节奏都更可控,输出效果更接近真实摄影语言。

  • 连贯的叙事能力:多个镜头之间的情节逻辑性更强,叙事表达比上个版本更到位。

  • 更稳的角色一致性:图像参考+模型内部一致性优化,主体在不同镜头中的跨帧效果更稳定。

咱直接边看效果边细细道来~

从官方给出的效果看,在镜头控制上,Gen 4.5能在5秒的时间内快速生成包含「近景」「中景」「远景」的三个镜头。

即便镜头不断晃动,人物面部依旧保持了较高的一致性。

哪怕骑在快速飞行的章鱼身上,小女孩依旧「面不改色」,面部细节完全没崩~

图片[6]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

还有下面这个让巨型毛绒大猩猩走在纽约街头徘徊的视频,不论是镜头比例、透视逻辑,还是主体与城市背景的光影一致性,都处理得相当稳:

图片[7]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

我们再来看看模型「讲故事」的能力。

下面这个Runway CEO用Gen 4.5生成的两分多钟剧情视频,在叙事完整性和场景一致性上,已经接近一条可用的短片水准:

即便在同一个车厢环境中,多次切换主体的镜头位置和动作,画面之间的空间关系和镜头衔接依旧保持连贯,没有出现明显的跳轴或场景漂移问题。

再来看看下面这位网友制作的超有「镜头漂移感」的视频,镜头一拖一拽,给到每个人的特写,再恢复远景镜头,感觉就差一段超热血的bgm了!!!

图片[8]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

怎么说呢,如果你跟我说这不是AI做的,我真会以为是哪个影视公司的新片片段。(真·脑子宕机了)

甚至,真实到什么程度呢?

连Runway自家公司里的《员工》,都已经分不清哪条是他们模型生成的,哪条是真拍的了……

图片[9]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

于是乎,灵机一动的Runway索性直接找了1000个人来测一把,看看Gen 4.5到底能把人「骗」到什么程度,其规则是:

Runway把自家AI生成的视频和真实视频放在同样的分辨率和时长条件下,让参与者在10秒内判断,哪些是真人拍的,哪些是AI做的。

结果您猜怎么着?

这一千个人里头,只有57%的人能成功识别出哪条是AI生成的。(天塌啦!)

图片[10]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

是的,在这场「安能辨我是AI」的大戏里,AI的生成水平,已经和人类的肉眼辨别能力打到了势均力敌的程度。

(好好好,这个世界到底还有什么是真的啊!!!)

没准哈,下一步可能真得靠AI去鉴别AI了……

视频模型能力,正在进入新一轮升级期

Runway这波模型更新,确实有亿点点不一般,与此同时带给我们的还有一个感受是:诶?这模型能力感觉好熟悉…

其实细细盘算一下,从去年年底到现在,市面上的视频模型一波接一波地更新,虽然各家厂商走的路线不完全一样,但整体看下来也有一些明显的共同趋势。

我也帮大家浅浅概括了一下:

  • 真实度 / 物理一致性大幅增强:模型在光影逻辑、动作规律、面部控制等方面越来越接近物理世界的表现。

  • 声画同步能力提升:模型可以直接生成配套音频,唇形同步精度明显提高。

  • 局部控制精细化:局部编辑能力成为重要趋势,越来越多模型支持单独局部面区域,无需重新生成整段视频。

  • 支持更久的生成时长:10–60秒的视频生成区间变得越来越常见,竖屏原生视频逐步占据主流。

  • 视频生成方式更加多元:从图生视频,到音频生视频,视频生成方式越来越多,创作路径也变得更加灵活。

直接拿俩个大家感受比较深的模型能力趋势和大家聊聊。

首先,就是真实度一致性的要求被整体抬高。

具体指的主要是纹理与细节保真、光影与氛围、整体画面质感等等,能体现物理世界的细节地方。

也就是说,现在的视频模型越来越注重AI是否能理解并遵守现实世界的物理规律,能否在「跨帧」这事儿上表现得更自然。

像Veo 3.1上一波的升级,就在视觉保真度和电影级打磨上大幅提升,许多官方demo的细节处理上已经接近电影级:

图片[11]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

咱们再来看看声画同步能力。

给我们最直接的感受就是:视频终于不只是画面更真了,声音也终于安排到位了,哪怕是侧脸、极端角度,或者多人对话场景,声画方面也不太容易崩。

各厂商们都确实都在想着怎么让AI视频开始真正具备做带台词的短剧 、广告 、社交内容的可用性。

就在昨天,马斯克也官宣了Grok Imagine的最新成果,原生声画同步能力同样迎来了一波明显升级~

图片[12]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

(这波热闹凑的好啊,好热闹啊)

总的来说,现在的主流视频模型,已经明显越来越接近可商业化应用、具备普适性的能力了。

当然了,各大厂商的发布节奏越来越「密」,说不定到了明天,又一个「新趋势」就会被端上台面。

但不管怎么说,Runway这波Gen 4.5的更新,确实有点出乎意料,也是真·一代更比一代强了。

感兴趣的朋友,可以直接上手搓搓试试~

参考链接:

[1]https://x.com/elonmusk/status/2014112911783084046?s=20

[2]https://x.com/runwayml/status/2014090404769976744

[3]https://www.youtube.com/watch?v=cOcsxd5mC8k

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

👑 年度「AI 100」产品榜单正式发布!

量子位智库通过三大板块——最强综合实力的「旗舰AI 100」、最具未来潜力的「创新AI 100」和十大热门赛道代表产品,全面梳理2025年度国内C端AI产品的发展脉络与创新成果。

图片[13]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News

一键关注 👇 点亮星标
科技前沿进展每日见

<原文链接:https://mp.weixin.qq.com/s/_CryhmDwnF9C3O-6LM2-iQ

© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容