梦瑶 发自 凹非寺
量子位 | 公众号 QbitAI
不er,这个世界还有什么是真的?反正我是已经分不清了...
短短3秒,连续切了3个镜头,从人物脸上的皮肤纹理,到满天纷飞的大雪,细节真实到有点离谱!
![图片[1]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002239836-1769098959-fe4ec8dece026f5137cd8932cc702254.gif)
再看看这个,湿漉逼真的头发、肉眼可见的面部雀斑、超自然的景深,有点好莱坞大片内味儿了嗷:
![图片[2]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002241876-1769098961-5c046af34086344dd3fb490a59ec86e7.gif)
还没完,咱再来看这个,机械义体与人脸的融合,以及构图处理都非常到位,妥妥滴赛博大片即视感!
![图片[3]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002244159-1769098964-591099ad7497ccb2cefa9734ebada549.gif)
你就说逼真不逼真吧…
不卖关子,就是Runway刚刚发布的——全新「Gen 4.5」模型。
这次更新主打的是图生视频,在镜头控制和故事叙事上,明显往next level推了一步~
这波效果一出来,网友当场坐不住了,直呼:感觉都能吊打好莱坞制作团队了好吧?太逼真!(doge)
![图片[4]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002245179-1769098965-d639ccb1f877c299377a0bae2b79c553.png)
甚至逼真到,在Runway做的一项1000人参与的调查中,结果只有约一半的人能分辨出该模型和真实视频的区别……
![图片[5]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002246462-1769098966-9fc3b50d57f4b8d06165024bbde37d65.jpeg)
问题来了,那这超超超逼真的——Gen 4.5模型效果到底咋样?咱一起来看!
模型更会讲故事了、细节处理也更到位了
咱先来说说,这次全新的Gen 4.5在模型能力上的有啥亮点看头~
-
长故事表达能力:能承载更长时序的内容结构,视频的完整度和长度大大提升。
-
精准的镜头控制能力:镜头的景别、角度、运动轨迹以及切换节奏都更可控,输出效果更接近真实摄影语言。
-
连贯的叙事能力:多个镜头之间的情节逻辑性更强,叙事表达比上个版本更到位。
-
更稳的角色一致性:图像参考+模型内部一致性优化,主体在不同镜头中的跨帧效果更稳定。
咱直接边看效果边细细道来~
从官方给出的效果看,在镜头控制上,Gen 4.5能在5秒的时间内快速生成包含「近景」「中景」「远景」的三个镜头。
即便镜头不断晃动,人物面部依旧保持了较高的一致性。
哪怕骑在快速飞行的章鱼身上,小女孩依旧「面不改色」,面部细节完全没崩~
![图片[6]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002249149-1769098969-ea9740ff3c15c249b026880ec175cd3b.gif)
还有下面这个让巨型毛绒大猩猩走在纽约街头徘徊的视频,不论是镜头比例、透视逻辑,还是主体与城市背景的光影一致性,都处理得相当稳:
![图片[7]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002254263-1769098974-efce452ef7c2bb55c005f20fe8310f3e.gif)
我们再来看看模型「讲故事」的能力。
下面这个Runway CEO用Gen 4.5生成的两分多钟剧情视频,在叙事完整性和场景一致性上,已经接近一条可用的短片水准:
即便在同一个车厢环境中,多次切换主体的镜头位置和动作,画面之间的空间关系和镜头衔接依旧保持连贯,没有出现明显的跳轴或场景漂移问题。
再来看看下面这位网友制作的超有「镜头漂移感」的视频,镜头一拖一拽,给到每个人的特写,再恢复远景镜头,感觉就差一段超热血的bgm了!!!
![图片[8]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002256134-1769098976-44a5b759a846fa32e13a2b4c3388dc29.gif)
怎么说呢,如果你跟我说这不是AI做的,我真会以为是哪个影视公司的新片片段。(真·脑子宕机了)
甚至,真实到什么程度呢?
连Runway自家公司里的《员工》,都已经分不清哪条是他们模型生成的,哪条是真拍的了……
![图片[9]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002257337-1769098977-64a5b6b4648a52816f4b72a4773b76c4.jpeg)
于是乎,灵机一动的Runway索性直接找了1000个人来测一把,看看Gen 4.5到底能把人「骗」到什么程度,其规则是:
Runway把自家AI生成的视频和真实视频放在同样的分辨率和时长条件下,让参与者在10秒内判断,哪些是真人拍的,哪些是AI做的。
结果您猜怎么着?
这一千个人里头,只有57%的人能成功识别出哪条是AI生成的。(天塌啦!)
![图片[10]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002258282-1769098978-92b9bb83ed894ddb324c3c6147f28cfe.png)
是的,在这场「安能辨我是AI」的大戏里,AI的生成水平,已经和人类的肉眼辨别能力打到了势均力敌的程度。
(好好好,这个世界到底还有什么是真的啊!!!)
没准哈,下一步可能真得靠AI去鉴别AI了……
视频模型能力,正在进入新一轮升级期
Runway这波模型更新,确实有亿点点不一般,与此同时带给我们的还有一个感受是:诶?这模型能力感觉好熟悉…
其实细细盘算一下,从去年年底到现在,市面上的视频模型一波接一波地更新,虽然各家厂商走的路线不完全一样,但整体看下来也有一些明显的共同趋势。
我也帮大家浅浅概括了一下:
-
真实度 / 物理一致性大幅增强:模型在光影逻辑、动作规律、面部控制等方面越来越接近物理世界的表现。
-
声画同步能力提升:模型可以直接生成配套音频,唇形同步精度明显提高。
-
局部控制精细化:局部编辑能力成为重要趋势,越来越多模型支持单独局部面区域,无需重新生成整段视频。
-
支持更久的生成时长:10–60秒的视频生成区间变得越来越常见,竖屏原生视频逐步占据主流。
-
视频生成方式更加多元:从图生视频,到音频生视频,视频生成方式越来越多,创作路径也变得更加灵活。
直接拿俩个大家感受比较深的模型能力趋势和大家聊聊。
首先,就是真实度和一致性的要求被整体抬高。
具体指的主要是纹理与细节保真、光影与氛围、整体画面质感等等,能体现物理世界的细节地方。
也就是说,现在的视频模型越来越注重AI是否能理解并遵守现实世界的物理规律,能否在「跨帧」这事儿上表现得更自然。
像Veo 3.1上一波的升级,就在视觉保真度和电影级打磨上大幅提升,许多官方demo的细节处理上已经接近电影级:
![图片[11]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002300771-1769098980-775c514585c2facd59191b47d0075e29.gif)
咱们再来看看声画同步能力。
给我们最直接的感受就是:视频终于不只是画面更真了,声音也终于安排到位了,哪怕是侧脸、极端角度,或者多人对话场景,声画方面也不太容易崩。
各厂商们都确实都在想着怎么让AI视频开始真正具备做带台词的短剧 、广告 、社交内容的可用性。
就在昨天,马斯克也官宣了Grok Imagine的最新成果,原生声画同步能力同样迎来了一波明显升级~
![图片[12]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002301928-1769098981-ec21c4dbf89898c31957ec77dffe92b4.jpeg)
(这波热闹凑的好啊,好热闹啊)
总的来说,现在的主流视频模型,已经明显越来越接近可商业化应用、具备普适性的能力了。
当然了,各大厂商的发布节奏越来越「密」,说不定到了明天,又一个「新趋势」就会被端上台面。
但不管怎么说,Runway这波Gen 4.5的更新,确实有点出乎意料,也是真·一代更比一代强了。
感兴趣的朋友,可以直接上手搓搓试试~
参考链接:
[1]https://x.com/elonmusk/status/2014112911783084046?s=20
[2]https://x.com/runwayml/status/2014090404769976744
[3]https://www.youtube.com/watch?v=cOcsxd5mC8k
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
👑 年度「AI 100」产品榜单正式发布!
量子位智库通过三大板块——最强综合实力的「旗舰AI 100」、最具未来潜力的「创新AI 100」和十大热门赛道代表产品,全面梳理2025年度国内C端AI产品的发展脉络与创新成果。
![图片[13]-57.1%的人分不清真假!Runway新视频模型太爆炸-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260123002302515-1769098982-0703436dae3ea9cbfa60507f673a05cf.png)
<原文链接:https://mp.weixin.qq.com/s/_CryhmDwnF9C3O-6LM2-iQ


















暂无评论内容