論文の概要: Beyond VLM-Based Rewards: Diffusion-Native Latent Reward Modeling
- arxiv url: http://arxiv.org/abs/2602.11146v1
- Date: Wed, 11 Feb 2026 18:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.349108
- Title: Beyond VLM-Based Rewards: Diffusion-Native Latent Reward Modeling
- Title(参考訳): VLMに基づくリワードを超えて:拡散負遅延リワードモデリング
- Authors: Gongye Liu, Bo Yang, Yida Zhi, Zhizhou Zhong, Lei Ke, Didan Deng, Han Gao, Yongxiang Huang, Kaihao Zhang, Hongbo Fu, Wenhan Luo,
- Abstract要約: DiNa-LRMは、雑音拡散状態に基づいて好み学習を直接定式化する拡散ネイティブ潜在報酬モデルである。
本手法は拡散ノイズ依存の不確実性を伴う雑音校正サーストンの可能性を導入する。
画像アライメントベンチマーク全体において、DiNa-LRMは既存の拡散ベースの報酬ベースラインを大幅に上回っている。
- 参考スコア(独自算出の注目度): 58.59644539594293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preference optimization for diffusion and flow-matching models relies on reward functions that are both discriminatively robust and computationally efficient. Vision-Language Models (VLMs) have emerged as the primary reward provider, leveraging their rich multimodal priors to guide alignment. However, their computation and memory cost can be substantial, and optimizing a latent diffusion generator through a pixel-space reward introduces a domain mismatch that complicates alignment. In this paper, we propose DiNa-LRM, a diffusion-native latent reward model that formulates preference learning directly on noisy diffusion states. Our method introduces a noise-calibrated Thurstone likelihood with diffusion-noise-dependent uncertainty. DiNa-LRM leverages a pretrained latent diffusion backbone with a timestep-conditioned reward head, and supports inference-time noise ensembling, providing a diffusion-native mechanism for test-time scaling and robust rewarding. Across image alignment benchmarks, DiNa-LRM substantially outperforms existing diffusion-based reward baselines and achieves performance competitive with state-of-the-art VLMs at a fraction of the computational cost. In preference optimization, we demonstrate that DiNa-LRM improves preference optimization dynamics, enabling faster and more resource-efficient model alignment.
- Abstract(参考訳): 拡散およびフローマッチングモデルの優先最適化は、差別的に堅牢かつ計算的に効率的である報酬関数に依存している。
VLM(Vision-Language Models)が主要な報酬提供者として登場し、リッチなマルチモーダル事前を利用してアライメントをガイドしている。
しかし、その計算とメモリコストはかなり大きくなり、ピクセル空間の報酬によって遅延拡散発生器を最適化すると、アライメントを複雑にするドメインミスマッチが発生する。
本稿では、雑音拡散状態に基づいて好み学習を直接定式化する拡散ネイティブ潜在報酬モデルであるDiNa-LRMを提案する。
本手法は拡散ノイズ依存の不確実性を伴う雑音校正サーストンの可能性を導入する。
DiNa-LRMは、事前訓練された遅延拡散バックボーンとタイムステップ条件付き報酬ヘッドを活用し、推論時ノイズアンサンブルをサポートし、テスト時間スケーリングとロバスト報酬化のための拡散ネイティブメカニズムを提供する。
画像アライメントベンチマークを通じて、DiNa-LRMは既存の拡散ベースの報酬ベースラインを大幅に上回り、計算コストのごく一部で最先端のVLMと競合する性能を達成する。
選好最適化において、DiNa-LRMは選好最適化のダイナミクスを改善し、より高速で資源効率の良いモデルアライメントを実現する。
関連論文リスト
- Causal Autoregressive Diffusion Language Model [70.7353007255797]
CARDは厳密な因果注意マスク内の拡散過程を再構成し、単一の前方通過で密集した1対1の監視を可能にする。
我々の結果は,CARDが並列生成のレイテンシの利点を解放しつつ,ARMレベルのデータ効率を実現することを示す。
論文 参考訳(メタデータ) (2026-01-29T17:38:29Z) - G$^2$RPO: Granular GRPO for Precise Reward in Flow Models [74.21206048155669]
本稿では,サンプリング方向の高精度かつ包括的な報酬評価を実現する新しいグラニュラー-GRPO(G$2$RPO)フレームワークを提案する。
複数の拡散スケールで計算された利点を集約するマルチグラニュラリティ・アドバンテージ・インテグレーション・モジュールを導入する。
G$2$RPOは既存のフローベースGRPOベースラインを著しく上回る。
論文 参考訳(メタデータ) (2025-10-02T12:57:12Z) - Divergence Minimization Preference Optimization for Diffusion Model Alignment [66.31417479052774]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
DMPOは、異なるベースモデルとテストセットで既存のテクニックを一貫して上回り、適合させることができる。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - VARD: Efficient and Dense Fine-Tuning for Diffusion Models with Value-based RL [28.95582264086289]
VAlue-based Reinforced Diffusion (VARD) は、中間状態から報酬の期待を予測する値関数を初めて学習する新しい手法である。
提案手法は,バックプロパゲーションによる効果的な,安定したトレーニングを可能にしつつ,事前訓練されたモデルに近づき続ける。
論文 参考訳(メタデータ) (2025-05-21T17:44:37Z) - Inference-Time Alignment of Diffusion Models with Direct Noise Optimization [45.77751895345154]
拡散モデルのサンプリング過程において, 直接雑音最適化 (DNO) と呼ばれる新しいアライメント手法を提案する。
設計上、DNOは推論時に動作し、チューニングが不要で、即席で、アライメントは世代毎にオンラインに行われる。
我々は,いくつかの重要な報酬関数について広範な実験を行い,提案したDNOアプローチが,適切な時間予算で,最先端の報酬スコアを達成できることを実証した。
論文 参考訳(メタデータ) (2024-05-29T08:39:39Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。