赶上最新的AI论文

Pref-GRPO:通过成对比较实现稳定文本图像生成强化学习的新方法

Pref-GRPO:通过成对比较实现稳定文本图像生成强化学习的新方法

三个要点
✔️ 传统的基于分数奖励的GRPO容易出现 "奖励黑客",并影响生成图像的质量
✔️ 所提出的方法Pref-GRPO通过成对比较利用相对偏好来实现稳定的优化
✔️ 新的UniGenBench基准允许进行逻辑推理、语法理解其他细粒度评估理解和其他细粒度评估。

Pref-GRPO: Pairwise Preference Reward-based GRPO for Stable Text-to-Image Reinforcement Learning
written by Yibin WangZhimin LiYuhang ZangYujie ZhouJiazi BuChunyu WangQinglin LuCheng JinJiaqi Wang
(Submitted on 28 Aug 2025)
Comments: Project Page: this https URL

Subjects: Computer Vision and Pattern Recognition (cs.CV)

本文所使用的图片要么来自论文、介绍性幻灯片,要么是参考这些图片制作的。

概述

本文为文本到图像(T2I)模型提出了一种新的强化学习方法。

传统的 GRPO(组相对策略优化)方法使用基于分数的奖励模型来评估生成图像的质量,并通过对组内分数进行归一化来更新衡量标准。
然而,这种方法容易出现一个被称为 "奖励黑客 "的问题,即分数增加,图像质量却下降。

作者指出,这是 "虚幻优势 "造成的。
当生成图像之间的分数差异非常小,而归一化会过度强调差异时,就会出现这种情况。

为了解决这个问题,研究提出了一种名为 Pref-GRPO 的新方法。
这是一种基于图像对之间的相对偏好(成对偏好)而不是绝对分数来更新测量结果的机制。

此外,作者还为模型评估设计了一种名为 "UniGenBench "的新基准,可从细粒度维度评估 T2I 模型的性能。
这项工作的意义在于,它克服了传统方法的局限性,能够以更稳定的方式学习图像生成,并符合人类的偏好。

建议的方法

Pref-GRPO 的核心思想是将学习目标从传统的奖励分数最大化转移到 "相对偏好匹配"。

具体来说,针对给定的提示生成多张图像,并进行配对比较。
使用成对奖励模型(PPRM)来确定哪张图片更受欢迎,并将胜率作为奖励信号。
每张图片的胜率在组内进行归一化处理,并用于更新衡量标准。

这种设计有三个优点。
首先,胜出率的使用增加了奖励的方差,可以更清楚地区分质量好和质量差的图像。
其次,由于它是基于相对排名而不是绝对分数差异,因此对奖励噪音具有很强的抗干扰能力,并减少了奖励黑客的出现。
第三,它能提供更自然、更忠实的奖励信号,因为它反映了人类的判断本质上是基于相对比较这一事实。

此外,在评估方面,作者提出的 UniGenBench 甚至可以对文本理解和逻辑推理等细节维度进行评估,从而可以对模型的优缺点进行详细分析。

实验

在实验中,Pref-GRPO 首先与现有的奖励最大化方法(HPS、CLIP、UnifiedReward 等)进行了比较。
实验使用 Flux.1-dev 作为基础模型,并使用 UniGenBench 进行评估。
结果显示,Pref-GRPO 的总分提高了约 6 分,尤其是在逻辑推理和文本绘制方面。

此外,传统方法会出现 "奖励黑客 "现象,即在训练过程中奖励分数增加,图像质量却下降,而 Pref-GRPO 则有效地抑制了这一现象。
此外,对生成的图像进行定性比较后发现,现有方法会出现过度饱和等不自然的倾向,而 Pref-GRPO 则能生成更自然、更稳定的表达。
此外,在外部基准(GenEval 和 T2I-CompBench)中也观察到了稳定的性能改进。

使用 UniGenBench 进行的广泛模型比较显示,GPT-4o 和 Imagen-4.0-Ultra 等封闭源模型表现良好,而 Qwen-Image 和 HiDream 等开放源模型也取得了快速进步。
总之,可以得出结论,这种方法是显著提高 T2I 强化学习稳定性和实用性的有效方法。

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们