論文の概要: VQAThinker: Exploring Generalizable and Explainable Video Quality Assessment via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2508.06051v1
- Date: Fri, 08 Aug 2025 06:16:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.099639
- Title: VQAThinker: Exploring Generalizable and Explainable Video Quality Assessment via Reinforcement Learning
- Title(参考訳): VQAThinker:強化学習による汎用的で説明可能なビデオ品質評価の探索
- Authors: Linhan Cao, Wei Sun, Weixia Zhang, Xiangyang Zhu, Jun Jia, Kaiwei Zhang, Dandan Zhu, Guangtao Zhai, Xiongkuo Min,
- Abstract要約: 映像品質評価は、知覚的品質劣化を客観的に定量化することを目的としている。
既存のVQAモデルには2つの限界がある。
推論に基づくVQAフレームワークである textbfVQAThinker を提案する。
- 参考スコア(独自算出の注目度): 50.34205095371895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video quality assessment (VQA) aims to objectively quantify perceptual quality degradation in alignment with human visual perception. Despite recent advances, existing VQA models still suffer from two critical limitations: \textit{poor generalization to out-of-distribution (OOD) videos} and \textit{limited explainability}, which restrict their applicability in real-world scenarios. To address these challenges, we propose \textbf{VQAThinker}, a reasoning-based VQA framework that leverages large multimodal models (LMMs) with reinforcement learning to jointly model video quality understanding and scoring, emulating human perceptual decision-making. Specifically, we adopt group relative policy optimization (GRPO), a rule-guided reinforcement learning algorithm that enables reasoning over video quality under score-level supervision, and introduce three VQA-specific rewards: (1) a \textbf{bell-shaped regression reward} that increases rapidly as the prediction error decreases and becomes progressively less sensitive near the ground truth; (2) a \textbf{pairwise ranking reward} that guides the model to correctly determine the relative quality between video pairs; and (3) a \textbf{temporal consistency reward} that encourages the model to prefer temporally coherent videos over their perturbed counterparts. Extensive experiments demonstrate that VQAThinker achieves state-of-the-art performance on both in-domain and OOD VQA benchmarks, showing strong generalization for video quality scoring. Furthermore, evaluations on video quality understanding tasks validate its superiority in distortion attribution and quality description compared to existing explainable VQA models and LMMs. These findings demonstrate that reinforcement learning offers an effective pathway toward building generalizable and explainable VQA models solely with score-level supervision.
- Abstract(参考訳): 映像品質評価(VQA)は、人間の視覚的知覚と一致して知覚品質の劣化を客観的に定量化することを目的としている。
近年の進歩にもかかわらず、既存のVQAモデルは2つの重要な制限を被っている: \textit{poor generalization to out-of-distribution (OOD) video} と \textit{limited explainability} である。
これらの課題に対処するために,大規模なマルチモーダルモデル(LMM)を活用した推論ベースのVQAフレームワークである‘textbf{VQAThinker} を提案し,映像品質の理解とスコアリングを共同でモデル化し,人間の知覚的意思決定をエミュレートする。
具体的には、スコアレベルの監督下での映像品質の推論を可能にするグループ相対ポリシー最適化(GRPO)を導入し、(1)予測誤差の減少に伴って急速に増大し、地上の真実の近くで徐々に感度が低下する \textbf{bell-shaped regression reward} 、(2)ビデオペア間の相対的品質を正確に決定する \textbf{pairwise ranking reward} 、(3) モデルが摂動したビデオよりも時間的に一貫性のあるビデオを好むことを奨励する \textbf{temporal consistency reward} という3つのVQA固有の報酬を導入する。
大規模な実験により、VQAThinkerはドメイン内およびOOD VQAベンチマークの両方で最先端のパフォーマンスを達成し、ビデオ品質スコアリングの強力な一般化を示す。
さらに、ビデオ品質理解タスクの評価は、既存の説明可能なVQAモデルやLMMと比較して、歪み属性と品質記述の優位性を評価する。
これらの結果から, 強化学習は, 総合的かつ説明可能なVQAモデルの構築に有効な経路であり, スコアレベルの監督にのみ寄与することが示唆された。
関連論文リスト
- Breaking Annotation Barriers: Generalized Video Quality Assessment via Ranking-based Self-Supervision [49.46606936180063]
ビデオ品質評価(VQA)は、様々なビデオ処理システムにおける品質の定量化に不可欠である。
我々はVQAのための自己教師型学習フレームワークを導入し、大規模でラベルなしのWebビデオから品質評価機能を学ぶ。
既存のVQAベンチマークよりも10倍のデータセットでトレーニングを行うことで、ゼロショットのパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2025-05-06T15:29:32Z) - VQA$^2$: Visual Question Answering for Video Quality Assessment [76.81110038738699]
ビデオ品質アセスメント(VQA)は、低レベルの視覚知覚において古典的な分野である。
画像領域における最近の研究は、視覚質問応答(VQA)が視覚的品質を著しく低レベルに評価できることを示した。
VQA2インストラクションデータセットは,ビデオ品質評価に焦点をあてた最初の視覚的質問応答インストラクションデータセットである。
VQA2シリーズは、ビデオにおける空間的時間的品質の詳細の知覚を高めるために、視覚的および運動的トークンをインターリーブする。
論文 参考訳(メタデータ) (2024-11-06T09:39:52Z) - Vulnerabilities in Video Quality Assessment Models: The Challenge of
Adversarial Attacks [15.127749101160672]
No-Reference Video Quality Assessment (NR-VQA) は,エンドユーザの視聴体験を改善する上で重要な役割を担っている。
近年,CNN と Transformer をベースとした NR-VQA モデルは優れた性能を発揮している。
敵攻撃に対するNR-VQAモデルの堅牢性を評価するための最初の試みを行う。
論文 参考訳(メタデータ) (2023-09-24T11:17:38Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。