![图片[1]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251215190816763-1765796896-888b45711a1c482dccb564fa74d848be.gif)
©PaperWeekly 原创· 作者 | 许瑞航
单位 | 浙江大学本科生
研究方向 | 计算机视觉与生成模型
近年来,扩散模型(Diffusion Models)在图像生成领域取得了飞速发展,尤其在个性化定制方面展现出巨大潜力。
然而,要实现多实例图像生成(Multi-instance Image Generation, MIG)这一复杂任务,让模型精确控制多个物体的位置,并同时保持它们各自的身份细节,仍然面临核心挑战。
目前的主要瓶颈在于:在复杂的多主体生成场景中,模型难以同时兼顾对空间结构(Layout)的精确控制与对主体身份(Identity)的高度保真。
-
空间控制的精度问题:现有的布局引导(Layout-to-Image)方法不仅很少支持显式的主体参考图像输入,而且在处理复杂布局时,往往难以确保生成对象准确地位于指定位置,且经常会出现属性错误、实例遗漏等问题。
-
主体身份的鲁棒性问题:现有的主体参考驱动(Subject-Driven)的方法已经非常流行,但当需要生成的主体数量增加时,模型难以维持精细的身份细节,时常出现身份混淆、特征丢失等现象。
-
高质量数据的匮乏:现有数据集缺乏大规模、精确对齐的参考图像与布局标注对,限制了模型的训练效果。
![图片[6]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210230584-1766322150-2d46882b6b1701d0e069b09780a20685.jpeg)
浙江大学 ReLER 团队提出了一种基于 Diffusion Transformer(DiT)架构的生成框架 ContextGen,它创新性地将布局信息和参考图像信息两种模态统一融入生成上下文,利用双重注意力机制,协同解决了多实例图像生成中的位置精确控制与身份细节保真问题。
ContextGen 在多项基准测试中实现了显著突破,在身份保持方面比肩 Nano Banana 在内的闭源模型,为高度可控的多实例生成打开了新的可能性。
![图片[11]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210231994-1766322151-085a884cb092327f62f7a5659f9501f9.png)
论文链接:
https://arxiv.org/abs/2510.11000
代码链接:
https://github.com/nenhang/ContextGen
![图片[16]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210231695-1766322151-08c872d74c2965279c19a6b051459d95-scaled.png)
技术核心:双重上下文控制机制
ContextGen 框架的核心洞察在于,要实现高保真度与精确控制,必须设计专门的机制来统一管理这两种关键信息。ContextGen 包含两大核心组件,以解决“位置精确”和“细节稳定”的问题:
![图片[21]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210233390-1766322153-cc69382a2eac7782a92514fea3453a71.png)
1. Contextual Layout Anchoring(CLA,上下文布局锚定机制):
-
解决问题:实现对象位置的精确控制。
-
机制描述:CLA 将合成布局图像(composite layout image)作为一种鲁棒的结构先验,融入到生成上下文中。通过层级注意力架构,它在模型的前后层发挥作用,让注意力在文本、布局和待生成图像之间进行充分交互,使得模型能够将对象牢固地锚定在其目标位置,实现对空间结构的精确控制。
2. Identity Consistency Attention(ICA,身份一致性注意力机制):
-
解决问题:保证多主体身份细节的高度一致性。
-
机制描述:ICA 将高保真参考图像加入上下文,来避免重叠、压缩等各种原因导致的身份信息丢失。该机制在模型的中间层运行,通过隔离式的注意力掩码,强制待生成图像中某个实例的区域与其对应的参考图像之间建立连接,从而可靠地将高保真度的身份细节注入给每个生成的实例。
![图片[26]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210234661-1766322154-a3638dc89981e54bfa22268c04c73f6d-scaled.png)
数据支持:大规模高质量数据集 IMIG-100K
为了弥补高质量训练数据的缺失,团队还同步推出了 IMIG-100K 数据集。这是首个为图像引导的多实例生成任务提供详细布局和身份标注的大规模、高质量、分层结构合成数据集。
![图片[31]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210235762-1766322155-6e3811447c5ecb2e3f0e32b0c869c9bb.png)
![图片[36]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251208235644463-1765209404-89d4a43161b3ec8941f64e98ed38ba29-scaled.png)
优化策略:DPO 强化学习提升生成多样性
为了避免模型在微调过程中陷入对训练数据的过度拟合,ContextGen 引入了基于偏好优化(DPO, Direct Preference Optimization)的强化学习阶段。
该阶段在监督微调之后,引入布局图像作为非偏好样本,鼓励模型不僵硬复制布局,而是学会在保持布局一致性的同时,生成更多样化且高质量的图像。
![图片[41]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210237202-1766322157-d6f7816ba6fd48bae1f7f312da939a04.jpeg)
![图片[46]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210238534-1766322158-32069baa66245148f4f66fe291c8c389.jpeg)
![图片[51]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210239844-1766322159-53b6ab14ad1b62c0b2a26ac042970da0-scaled.png)
基准测试:多实例生成能力显著突破,比肩闭源模型
ContextGen 在三个关键基准测试上实现了当前 SOTA 性能,展现了其强大的位置鲁棒性和身份保真度。
身份保真比肩闭源巨头:在评估身份保留和特征一致性的 LAMICBench++ 任务上,ContextGen 不仅在开源模型的基础上提升显著,在实例数量较多时,ContextGen 在任务身份保持度(IDS)和物体特征一致性(IPS)指标上比肩甚至超过了 Nano Banana 等闭源模型,达到了 SOTA 水平。
![图片[56]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210240656-1766322160-b10fa82eda2ca0ae5717ba73d18925d0.png)
![图片[61]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210242106-1766322162-8e0df7df8a48e3cb45840de9a350ed5f.jpeg)
![图片[66]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210243911-1766322163-f2cf8441fd2becd4dba7754c1823e6b5.jpeg)
空间控制准确度大幅提升:在 COCO-MIG 基准测试中,ContextGen 的实例级成功率提高了 3.3%,空间准确性(mIoU)提高了 5.9%,验证了 CLA 机制在精确位置控制上的有效性。
属性正确性领先:在 LayoutSAM-Eval 基准上,ContextGen 在纹理和颜色正确性上保持领先,展示了其卓越的细节保留能力。
![图片[71]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210244830-1766322164-7526720a32513c5de1801cff1281ee71.png)
![图片[76]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210247384-1766322167-bc32af5d5fb146e25eda62f5caba4fd6.png)
![图片[81]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210249958-1766322169-63a030debc9d79412a97e6a32d1f1c2c.png)
![图片[86]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210250960-1766322170-49dc3882fb1f8056cf6f1cb4e3b9f471-scaled.png)
前端支持:方便易用的交互界面
为了方便用户体验,在项目文件中,团队还添加了一个交互式 Web 前端,允许用户上传自己的参考图像,通过拖拽来定制布局,并生成多实例图像。
![图片[91]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210253690-1766322173-dcf2725bda78956236e6e11cec7ea62b.gif)
![图片[96]-身份保真比肩Nano Banana!ContextGen统一上下文,实现布局与身份协同控制-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251221210254411-1766322174-e4301197be138aa104b974d450b39a88-scaled.png)
总结与展望
本文提出的 ContextGen 框架,通过创新的双重上下文注意力机制,成功解决了多实例图像生成中的位置控制与身份保真难题。
结合大规模高质量的 IMIG-100K 数据集,ContextGen 在多个基准测试中实现了显著突破,展现了其在高度可控图像生成领域的巨大潜力。
在论文中,ReLER 团队进一步指出,如何在保持身份一致性的同时,更加智能地理解和协调用户的文本意图与给定的多模态参考,仍是未来定制化图像生成的重要研究方向。
原文链接:https://mp.weixin.qq.com/s/jCwGsgoM3T8fTzjspMhF-Q


















暂无评论内容