Hotdry.
ai-systems

生成式AI图像编辑基准竞赛深度解析:SOTA模型的真实能力边界

通过2025年最新的多模态图像编辑基准竞赛,系统性评估生成式AI在复杂视觉编辑任务中的实际能力表现,揭示当前SOTA模型在编辑质量、理解深度和执行效率之间的关键差异。

在 AI 图像生成技术飞速发展的 2025 年,一个不可回避的问题正在引起业界深思:现有的生成式 AI 模型在复杂的视觉编辑任务中到底能走多远?通过分析最新的基准竞赛结果,我们发现了一个令人震惊的现实 —— 即使是行业领军模型,在真正的复杂推理任务面前仍然显得力不从心。

基准测试重新定义 "智能编辑" 标准

RISEBench:推理能力的终极考验

上海人工智能实验室联合多家知名学府发布的 RISEBench 基准彻底颠覆了传统图像编辑评测的认知。这套基准不再是简单的 "换颜色" 或 "改形状" 测试,而是引入了时间推理、因果推理、空间推理和逻辑推理四大核心维度,每个维度 90 道由人类专家精心设计的难题。

现实结果令人深思:GPT-4o-Image 作为公认的行业领军者,在 RISEBench 上仅能完成 28.9% 的任务;排名其后的 Gemini-Flash-2.0 系列模型,完成率分别为 13.3% 和 9.4%;而最强的开源模型 BAGEL 仅能完成 5.8% 的任务,其他开源模型的表现更是接近零。这组数据清晰地揭示了当前视觉编辑模型面临的严峻现实 —— 理解能力的欠缺而非技术实现才是决定性瓶颈。

RISEBench 的成功之处在于其三维细粒度评估体系:通过指令理解、外观一致性和视觉合理性三个维度的交叉评估,研究团队发现了一个关键规律:理解力成为决定性因素,即使能够生成高质量图像的模型,如果不能准确理解用户意图,其整体编辑能力也会大幅下降。

OneIG-Bench:全维度的能力体检

上海交通大学与 StepFun 公司联合推出的 OneIG-Bench 则从另一个角度定义了图像编辑评估的全面性。这套基准覆盖通用物体生成、人像生成、动漫与风格化、文字渲染、知识推理和多语言能力六大维度,每个维度约 200 个测试案例,对当前 19 个最先进的 AI 图像生成模型进行了一次彻底的 "能力体检"。

与传统评测方法依赖简单指标如 FID 和 SSIM 不同,OneIG-Bench 采用更像 "高考" 的全科目评估模式,不仅关注 AI 能否准确绘制指定物体,更要评估画面构图合理性、色彩搭配和谐性、艺术风格表达力以及文字渲染准确性。特别值得关注的是知识推理维度的设计 —— 例如要求 AI 绘制 "显微镜下的细胞分裂过程图解" 时,不仅要看能否画出细胞图形,更要评估是否真正理解细胞分裂的生物学原理。

技术架构与性能的现实差距

统一框架 vs 专门优化的博弈

在众多基准测试中,StepFun 发布的 Step1X-Edit 框架展现出独特的技术路线。该框架通过 MLLM 理解用户指令并生成编辑 token,再由 DiT 网络解码为图像,在 GEdit-Bench 等多个基准上取得优异成绩。这种 MLLM 与扩散模型深度融合的设计思路,与之前独立的扩散模型或纯 MLLM 方案形成鲜明对比。

相比之下,NextStep-1 采用的连续 token 自回归范式则在图像编辑任务中展现出另一番景象。虽然该模型在文本到图像生成任务中达到了新的 SOTA 水平,但在图像编辑方面,其 GEdit-Bench 英语提示得分 6.58 和 ImgEdit-Bench 得分 3.71 的成绩,表明了生成任务与编辑任务在技术路径上的根本性差异。

三阶段训练策略的启示

Step1X-Edit 的实验结果揭示了图像编辑训练的一个关键发现:特征对齐、全数据训练和质量微调的三阶段策略显著优于传统的单一阶段训练。具体而言,第一阶段的特征对齐通过 LoRA 部分引入 MLLM 参与,可以加速收敛;第二阶段引入 VAE 特征显著提高了编辑结果与原始视觉输入的保真度;第三阶段的质量微调则有效解决了低质量训练数据导致的视觉质感问题。

这种分层训练策略的成功表明,图像编辑能力的提升不能简单依赖模型规模的扩张,更需要精确的架构设计和训练策略优化。

评测方法学的重要演进

多模态大模型作为评估专家

2025 年图像编辑评测的一个重要趋势是采用多模态大模型作为评估专家,而非依赖传统的人工评估或简单算法指标。RISEBench 使用的 GPT-4.1 评估模型、ImgEdit-Bench 采用的 ImgEdit-Judge,以及 GEdit-Bench 的多维度评估体系,都体现了这一趋势的深入发展。

这种评估方法的优势在于其规模化评估能力 —— 可以在短时间内处理大量评估样本,同时确保评估标准的一致性。更重要的是,它能够有效评估指令遵循能力,这对于传统的 CLIPScore 或 FID 等指标来说是难以做到的。

分层难度评估的新范式

从 RISEBench 的基础测试集、挑战性测试集和多轮测试集的分层设计,到 OneIG-Bench 六维度的全覆盖评估,我们看到了图像编辑评测从 "单点突破" 向 "全面体检" 的范式转变。这种转变不仅反映了技术发展的成熟度提升,更重要的是为未来模型优化提供了更精确的导航坐标。

技术挑战与未来方向

理解能力 vs 生成质量的根本矛盾

当前图像编辑模型面临的核心挑战不在于能否生成高质量图像,而在于能否真正理解用户复杂意图并执行相应的视觉变换。RISEBench 的结果明确表明,即使是最先进的 GPT-4o-Image,其理解能力也远未达到及格水平;其他模型更是在这个关键维度上表现堪忧。

这种理解能力的缺失直接导致了指令遵循与视觉质量之间的矛盾:有些模型能够生成美观的图像,但无法准确执行复杂指令;有些模型能够理解简单指令,但在复杂场景中常常偏离主题;还有一些模型在某个维度表现优秀,但在其他维度上存在明显短板。

多模态推理能力的瓶颈突破

图像编辑任务本质上是一个多模态推理问题 —— 需要同时处理文本指令、视觉输入和生成输出三个模态,并在这三个模态之间建立准确的理解、转换和生成关系。当前的技术架构虽然在这三个方向上都有所发展,但在多模态融合推理方面仍然存在重大瓶颈。

未来突破的关键可能在于重新思考多模态表示学习 —— 不仅要学习单个模态的高质量表示,更要学习跨模态之间的深层语义映射关系。这可能需要引入更强的因果推理框架、更好的空间 - 时间建模机制,以及更有效的多模态交互学习算法。

工程实践的启示

基准测试的结果不仅为学术研究提供了指导,更为工程实践指明了方向。企业在部署图像编辑系统时,不应该单纯追求某一维度的 SOTA 指标,而应该建立多维度的评估体系,确保模型在指令理解、视觉质量和一致性等关键维度上都能达到可接受的水平。

同时,基准测试揭示的模型短板也提示我们,未来的图像编辑系统可能需要采用混合架构 —— 将不同技术路线的优势进行组合,通过系统级的优化来提升整体性能。这可能包括将 MLLM 的强大理解能力与扩散模型的高质量生成能力相结合,或者采用多阶段处理策略来分别优化不同类型的编辑任务。

通过对 2025 年这些前沿基准竞赛的深度分析,我们清晰地看到了生成式 AI 在图像编辑领域的真实能力边界。虽然当前模型在某些方面已经达到了令人印象深刻的水平,但在真正的智能理解和复杂推理任务面前,仍然有很长的路要走。这些基准测试的发布和演进,不仅为技术发展提供了准确的测量尺,更为整个行业指明了未来的努力方向。

查看归档