論文の概要: MDS-VQA: Model-Informed Data Selection for Video Quality Assessment
- arxiv url: http://arxiv.org/abs/2603.11525v1
- Date: Thu, 12 Mar 2026 04:19:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.862253
- Title: MDS-VQA: Model-Informed Data Selection for Video Quality Assessment
- Title(参考訳): MDS-VQA:ビデオ品質評価のためのモデルインフォームドデータ選択
- Authors: Jian Zou, Xiaoyu Xu, Zhihua Wang, Yilin Wang, Balu Adsumilli, Kede Ma,
- Abstract要約: MDS-VQAは、ラベルなし動画をキュレートするためのモデルインフォームドデータ選択機構である。
難易度は、ランク付け目標で訓練された故障予測器によって推定され、多様性は深いセマンティックビデオ特徴を用いて測定される。
複数のVQAデータセットとモデルにまたがる実験により、MDS-VQAは多様な、困難なサンプルを識別することを示した。
- 参考スコア(独自算出の注目度): 39.416519746709305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based video quality assessment (VQA) has advanced rapidly, yet progress is increasingly constrained by a disconnect between model design and dataset curation. Model-centric approaches often iterate on fixed benchmarks, while data-centric efforts collect new human labels without systematically targeting the weaknesses of existing VQA models. Here, we describe MDS-VQA, a model-informed data selection mechanism for curating unlabeled videos that are both difficult for the base VQA model and diverse in content. Difficulty is estimated by a failure predictor trained with a ranking objective, and diversity is measured using deep semantic video features, with a greedy procedure balancing the two under a constrained labeling budget. Experiments across multiple VQA datasets and models demonstrate that MDS-VQA identifies diverse, challenging samples that are particularly informative for active fine-tuning. With only a 5% selected subset per target domain, the fine-tuned model improves mean SRCC from 0.651 to 0.722 and achieves the top gMAD rank, indicating strong adaptation and generalization.
- Abstract(参考訳): 学習に基づくビデオ品質評価(VQA)は急速に進歩しているが、モデル設計とデータセットキュレーションの切り離しによって進歩はますます制限されている。
モデル中心のアプローチは、しばしば固定ベンチマークを繰り返すが、データ中心の取り組みは、既存のVQAモデルの弱点を体系的にターゲットすることなく、新しい人間のラベルを収集する。
本稿では,基本VQAモデルでは困難であり,多種多様である未表示動画をキュレートするためのモデルインフォームドデータ選択機構であるMDS-VQAについて述べる。
難易度は、ランク付け目標で訓練された故障予測器によって推定され、より深いセマンティックビデオ特徴を用いて多様性を計測し、制約付きラベル付け予算の下で両者のバランスをとる。
複数のVQAデータセットとモデルにまたがる実験により、MDS-VQAは、特にアクティブな微調整に有用な、多種多様で挑戦的なサンプルを特定している。
ターゲットドメイン毎に選択されたサブセットは5%に過ぎず、微調整されたモデルでは平均SRCCが0.651から0.722に改善され、高い適応と一般化を示す最高gMADランクが達成される。
関連論文リスト
- CAMP-VQA: Caption-Embedded Multimodal Perception for No-Reference Quality Assessment of Compressed Video [9.172799792564009]
本稿では,大規模モデルの意味理解機能を活用した新しいNR-VQAフレームワークであるCAMP-VQAを提案する。
本手法では,フレーム間変動から抽出したキーフラグメントを統合する品質対応ビデオメタデータ機構を提案する。
我々のモデルは既存のNR-VQA法を一貫して上回り、手作業の細かいアノテーションを使わずに精度の向上を実現している。
論文 参考訳(メタデータ) (2025-11-10T16:37:47Z) - Towards Generalized Video Quality Assessment: A Weak-to-Strong Learning Paradigm [76.63001244080313]
映像品質評価(VQA)は、人間の視覚的知覚に合わせて映像の知覚的品質を予測することを目的としている。
支配的なVQAパラダイムは、人間のラベル付きデータセットによる教師付きトレーニングに依存している。
我々は、大規模な人ラベルデータセットに頼らずにVQAを進めるための新しいパラダイムとして、弱い対強学習(W2S)を探求する。
論文 参考訳(メタデータ) (2025-05-06T15:29:32Z) - Few-Shot Image Quality Assessment via Adaptation of Vision-Language Models [93.91086467402323]
Gradient-Regulated Meta-Prompt IQA Framework (GRMP-IQA) は、視覚言語事前学習モデルのCLIPをIQAタスクに効率よく適応させるように設計されている。
GRMP-IQAは、 (i) Meta-Prompt 事前学習モジュールと (ii) Quality-Aware Gradient Regularization の2つのコアモジュールから構成される。
論文 参考訳(メタデータ) (2024-09-09T07:26:21Z) - PTM-VQA: Efficient Video Quality Assessment Leveraging Diverse PreTrained Models from the Wild [27.195339506769457]
映像品質評価(VQA)は、映像の知覚品質に影響を与える多くの要因により難しい問題である。
ビデオに対する平均評価スコア(MOS)の注釈付けは高価で時間を要するため、VQAデータセットのスケールが制限される。
PTM-VQAと呼ばれるVQA手法を提案し、PreTrained Modelsを利用して、様々な事前タスクで事前訓練されたモデルから知識を伝達する。
論文 参考訳(メタデータ) (2024-05-28T02:37:29Z) - Analysis of Video Quality Datasets via Design of Minimalistic Video Quality Models [71.06007696593704]
BVQA(Blind Quality Assessment)は、実世界のビデオ対応メディアアプリケーションにおけるエンドユーザの視聴体験の監視と改善に不可欠である。
実験分野として、BVQAモデルの改良は、主に数個の人間の評価されたVQAデータセットに基づいて測定されている。
最小主義的BVQAモデルを用いて,VQAデータセットの第一種計算解析を行う。
論文 参考訳(メタデータ) (2023-07-26T06:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。