論文の概要: Refine-IQA: Multi-Stage Reinforcement Finetuning for Perceptual Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2508.03763v1
- Date: Mon, 04 Aug 2025 22:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.376972
- Title: Refine-IQA: Multi-Stage Reinforcement Finetuning for Perceptual Image Quality Assessment
- Title(参考訳): Refine-IQA:知覚画像品質評価のための多段強化ファインタニング
- Authors: Ziheng Jia, Jiaying Qian, Zicheng Zhang, Zijian Chen, Xiongkuo Min,
- Abstract要約: 強化微調整(Reinforcement fine-tuning, RFT)は、LMMトレーニングのパラダイムである。
マルチステージ RFT IQA フレームワーク (-IQA) を提案する。
結果のRefine-IQAシリーズモデルは、知覚とスコアリングの両方で優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 22.184690568393126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement fine-tuning (RFT) is a proliferating paradigm for LMM training. Analogous to high-level reasoning tasks, RFT is similarly applicable to low-level vision domains, including image quality assessment (IQA). Existing RFT-based IQA methods typically use rule-based output rewards to verify the model's rollouts but provide no reward supervision for the "think" process, leaving its correctness and efficacy uncontrolled. Furthermore, these methods typically fine-tune directly on downstream IQA tasks without explicitly enhancing the model's native low-level visual quality perception, which may constrain its performance upper bound. In response to these gaps, we propose the multi-stage RFT IQA framework (Refine-IQA). In Stage-1, we build the Refine-Perception-20K dataset (with 12 main distortions, 20,907 locally-distorted images, and over 55K RFT samples) and design multi-task reward functions to strengthen the model's visual quality perception. In Stage-2, targeting the quality scoring task, we introduce a probability difference reward involved strategy for "think" process supervision. The resulting Refine-IQA Series Models achieve outstanding performance on both perception and scoring tasks-and, notably, our paradigm activates a robust "think" (quality interpreting) capability that also attains exceptional results on the corresponding quality interpreting benchmark.
- Abstract(参考訳): 強化微調整(Reinforcement fine-tuning、RFT)は、LMMトレーニングのパラダイムである。
高レベルの推論タスクと類似して、RFTは画像品質評価(IQA)を含む低レベルの視覚領域にも適用可能である。
既存のRFTベースのIQA法では、ルールベースの出力報酬を使用してモデルのロールアウトを検証するが、「思考」プロセスに対する報酬の監督は行わず、その正しさと有効性は制御されていない。
さらに、これらの手法は、通常、ダウンストリームIQAタスクを直接微調整するが、モデルのネイティブな低レベルな視覚的品質知覚を明示的に拡張することはできず、性能上の上限を制約する可能性がある。
これらのギャップに対応するため、我々はマルチステージ RFT IQA フレームワーク (Refine-IQA) を提案する。
ステージ1では、Refine-Perception-20Kデータセット(12の主歪み、20,907の局所歪み画像、55K RFTサンプル)を構築し、モデルの視覚的品質知覚を強化するためにマルチタスク報酬関数を設計する。
品質評価タスクを目標としたステージ2では、プロセスの監督を「考える」ための確率差報酬戦略を導入する。
得られたRefine-IQAシリーズモデルは、知覚と評価の両方において優れたパフォーマンスを達成し、特に、我々のパラダイムは、対応する品質解釈ベンチマークにおいて例外的な結果を得る、堅牢な「思考」(品質解釈)能力を活性化する。
関連論文リスト
- VisualQuality-R1: Reasoning-Induced Image Quality Assessment via Reinforcement Learning to Rank [23.613534906344753]
推論による非参照IQA(NR-IQA)モデルであるVisualQuality-R1を紹介する。
我々は、視覚的品質の本質的に相対的な性質に合わせた学習アルゴリズムである、ランク付けのための強化学習でこれを訓練する。
実験では、VisualQuality-R1は差別的なディープラーニングベースのNR-IQAモデルより一貫して優れている。
論文 参考訳(メタデータ) (2025-05-20T14:56:50Z) - Q-Insight: Understanding Image Quality via Visual Reinforcement Learning [27.26829134776367]
画像品質評価(IQA)は、画像の知覚的視覚的品質に焦点を当て、画像再構成、圧縮、生成などの下流タスクにおいて重要な役割を果たす。
グループ相対ポリシー最適化(GRPO)に基づく強化学習に基づくモデルQ-Insightを提案する。
評価結果から,Q-Insightは,評価結果の回帰と劣化知覚の両面において,既存の最先端手法を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2025-03-28T17:59:54Z) - IQPFR: An Image Quality Prior for Blind Face Restoration and Beyond [56.99331967165238]
Blind Face Restoration (BFR)は、劣化した低品質(LQ)の顔画像を高品質(HQ)の出力に再構成する課題に対処する。
本研究では,非参照画像品質評価(NR-IQA)モデルから得られた画像品質優先(IQP)を組み込んだ新しいフレームワークを提案する。
提案手法は,複数のベンチマークにおいて最先端技術より優れている。
論文 参考訳(メタデータ) (2025-03-12T11:39:51Z) - Teaching LMMs for Image Quality Scoring and Interpreting [71.1335005098584]
Q-SiT(Quality Scoring and Interpreting Joint Teaching)は,画像品質のスコアリングと解釈を同時に行うための統合フレームワークである。
Q-SiTは、Q-SiT-miniと共に画像品質スコアリングと解釈タスクを同時に実行する最初のモデルである。
実験結果から,Q-SiTはIQA能力の優れた両タスクにおいて高い性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-03-12T09:39:33Z) - Boosting CLIP Adaptation for Image Quality Assessment via Meta-Prompt Learning and Gradient Regularization [55.09893295671917]
本稿では,Gdient-Regulated Meta-Prompt IQA Framework (GRMP-IQA)を紹介する。
GRMP-IQAはMeta-Prompt事前学習モジュールとQuality-Aware Gradient Regularizationの2つの主要なモジュールから構成されている。
5つの標準BIQAデータセットの実験は、限られたデータ設定下での最先端BIQA手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-09T07:26:21Z) - DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [73.6767681305851]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - When No-Reference Image Quality Models Meet MAP Estimation in Diffusion Latents [92.45867913876691]
非参照画像品質評価(NR-IQA)モデルは、知覚された画像品質を効果的に定量化することができる。
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - A Lightweight Parallel Framework for Blind Image Quality Assessment [7.9562077122537875]
ブラインド画像品質評価(BIQA)のための軽量並列フレームワーク(LPF)を提案する。
まず,事前学習した特徴抽出ネットワークを用いて視覚特徴を抽出し,視覚特徴を変換するための簡易で効果的な特徴埋め込みネットワーク(FEN)を構築した。
本稿では,サンプルレベルのカテゴリ予測タスクとバッチレベルの品質比較タスクを含む,新たな2つのサブタスクを提案する。
論文 参考訳(メタデータ) (2024-02-19T10:56:58Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Norm-in-Norm Loss with Faster Convergence and Better Performance for
Image Quality Assessment [20.288424566444224]
画像品質評価(IQA)モデルにおける損失関数の設計における正規化について検討する。
結果として生じるNorm-in-Normの損失は、主観的品質スコアに対する線形予測をIQAモデルに促す。
2つの関連するデータセットの実験では、MAEやMSEの損失と比較して、新しい損失はIQAモデルを約10倍の速度で収束させることが示されている。
論文 参考訳(メタデータ) (2020-08-10T04:01:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。