論文の概要: DIVA-VQA: Detecting Inter-frame Variations in UGC Video Quality
- arxiv url: http://arxiv.org/abs/2508.10605v1
- Date: Thu, 14 Aug 2025 12:47:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.316753
- Title: DIVA-VQA: Detecting Inter-frame Variations in UGC Video Quality
- Title(参考訳): DIVA-VQA: UGCビデオ品質におけるフレーム間変動の検出
- Authors: Xinyi Wang, Angeliki Katsenou, David Bull,
- Abstract要約: No-Reference (NR) Quality Assessment (VQA) は、大規模ビデオ品質監視の鍵となるコンポーネントである。
本稿では,フレーム間変動によるフラグメンテーションに基づく新しいNR-VQAモデルを提案する。
フレーム、断片化された時間軸、および断片化されたフレームを残余と整合させて、グローバルおよびローカル情報を効果的にキャプチャする。
- 参考スコア(独自算出の注目度): 35.00766551093652
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid growth of user-generated (video) content (UGC) has driven increased demand for research on no-reference (NR) perceptual video quality assessment (VQA). NR-VQA is a key component for large-scale video quality monitoring in social media and streaming applications where a pristine reference is not available. This paper proposes a novel NR-VQA model based on spatio-temporal fragmentation driven by inter-frame variations. By leveraging these inter-frame differences, the model progressively analyses quality-sensitive regions at multiple levels: frames, patches, and fragmented frames. It integrates frames, fragmented residuals, and fragmented frames aligned with residuals to effectively capture global and local information. The model extracts both 2D and 3D features in order to characterize these spatio-temporal variations. Experiments conducted on five UGC datasets and against state-of-the-art models ranked our proposed method among the top 2 in terms of average rank correlation (DIVA-VQA-L: 0.898 and DIVA-VQA-B: 0.886). The improved performance is offered at a low runtime complexity, with DIVA-VQA-B ranked top and DIVA-VQA-L third on average compared to the fastest existing NR-VQA method. Code and models are publicly available at: https://github.com/xinyiW915/DIVA-VQA.
- Abstract(参考訳): ユーザ生成コンテンツ(UGC)の急速な成長は、非参照(NR)パーセプチュアルビデオ品質評価(VQA)研究の需要を増大させた。
NR-VQAは、プリスタン参照が利用できないソーシャルメディアやストリーミングアプリケーションにおいて、大規模なビデオ品質監視の鍵となるコンポーネントである。
本稿では,フレーム間変動による時空間断片化に基づく新しいNR-VQAモデルを提案する。
これらのフレーム間の差異を活用することで、モデルは複数のレベル(フレーム、パッチ、断片化フレーム)で品質に敏感な領域を段階的に分析する。
フレーム、断片化残差、および断片化残差と整列したフレームを統合し、グローバルおよびローカル情報を効果的にキャプチャする。
このモデルは、これらの時空間変動を特徴付けるために、2次元特徴と3次元特徴の両方を抽出する。
平均ランク相関(DIVA-VQA-L:0.898,DIVA-VQA-B:0.886)では,5つのUGCデータセットと最先端モデルに対して,提案手法を上位2にランク付けした。
DIVA-VQA-Bが上位3位、DIVA-VQA-Lが最高速のNR-VQA法に比べてパフォーマンスが向上した。
コードとモデルは、https://github.com/xinyiW915/DIVA-VQA.comで公開されている。
関連論文リスト
- VQAThinker: Exploring Generalizable and Explainable Video Quality Assessment via Reinforcement Learning [50.34205095371895]
映像品質評価は、知覚的品質劣化を客観的に定量化することを目的としている。
既存のVQAモデルには2つの限界がある。
推論に基づくVQAフレームワークである textbfVQAThinker を提案する。
論文 参考訳(メタデータ) (2025-08-08T06:16:23Z) - Breaking Annotation Barriers: Generalized Video Quality Assessment via Ranking-based Self-Supervision [49.46606936180063]
ビデオ品質評価(VQA)は、様々なビデオ処理システムにおける品質の定量化に不可欠である。
我々はVQAのための自己教師型学習フレームワークを導入し、大規模でラベルなしのWebビデオから品質評価機能を学ぶ。
既存のVQAベンチマークよりも10倍のデータセットでトレーニングを行うことで、ゼロショットのパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2025-05-06T15:29:32Z) - ReLaX-VQA: Residual Fragment and Layer Stack Extraction for Enhancing Video Quality Assessment [35.00766551093652]
ReLaX-VQAは、NRVQA(No-Reference Video Quality Assessment)モデルである。
これは、オリジナルの圧縮されていないビデオに言及することなく、多様なビデオコンテンツの品質を評価するという課題に対処することを目的としている。
NR-VQA法を一貫して上回り、平均Sスコアは0.8658、PLCCは0.8873である。
論文 参考訳(メタデータ) (2024-07-16T08:33:55Z) - Neighbourhood Representative Sampling for Efficient End-to-end Video
Quality Assessment [60.57703721744873]
リアルタイムビデオの高解像度化は、VQA(Deep Video Quality Assessment)の効率性と精度のジレンマを示す
そこで本研究では,空間時空間格子型ミニキューブサンプリング(St-GMS)を統一的に提案し,新しいタイプのフラグメントを抽出する。
フラグメントとFANetにより、提案された効率的なエンドツーエンドのFAST-VQAとFasterVQAは、既存のVQAベンチマークよりも大幅にパフォーマンスが向上した。
論文 参考訳(メタデータ) (2022-10-11T11:38:07Z) - ST-GREED: Space-Time Generalized Entropic Differences for Frame Rate
Dependent Video Quality Prediction [63.749184706461826]
本研究では, フレームレートが知覚品質に与える影響と, フレームレートと圧縮が, 知覚品質に与える影響について検討した。
本研究では,空間的および時間的帯域通過映像係数の統計を解析する空間時間生成エントロピー差(GREED)と呼ばれる客観的VQAモデルを提案する。
GREEDは、既存のVQAモデルと比較した場合、LIVE-YT-HFRデータベース上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-26T16:54:33Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。