論文の概要: CompressedVQA-HDR: Generalized Full-reference and No-reference Quality Assessment Models for Compressed High Dynamic Range Videos
- arxiv url: http://arxiv.org/abs/2507.11900v1
- Date: Wed, 16 Jul 2025 04:33:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.224733
- Title: CompressedVQA-HDR: Generalized Full-reference and No-reference Quality Assessment Models for Compressed High Dynamic Range Videos
- Title(参考訳): 圧縮VQA-HDR:圧縮高ダイナミックレンジ映像の一般化フル参照と非参照品質評価モデル
- Authors: Wei Sun, Linhan Cao, Kang Fu, Dandan Zhu, Jun Jia, Menghan Hu, Xiongkuo Min, Guangtao Zhai,
- Abstract要約: 本稿では,HDRビデオ品質評価の課題に対処する有効なVQAフレームワークであるCompressedVQA-SDRを紹介する。
我々は,提案した完全参照(FR)モデルと非参照(NR)VQAモデルのバックボーンネットワークとして,Swin TransformerとSigLip 2を採用する。
我々のモデルは既存のFRやNR VQAモデルと比較して最先端の性能を実現している。
- 参考スコア(独自算出の注目度): 46.255654141741815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video compression is a standard procedure applied to all videos to minimize storage and transmission demands while preserving visual quality as much as possible. Therefore, evaluating the visual quality of compressed videos is crucial for guiding the practical usage and further development of video compression algorithms. Although numerous compressed video quality assessment (VQA) methods have been proposed, they often lack the generalization capability needed to handle the increasing diversity of video types, particularly high dynamic range (HDR) content. In this paper, we introduce CompressedVQA-HDR, an effective VQA framework designed to address the challenges of HDR video quality assessment. Specifically, we adopt the Swin Transformer and SigLip 2 as the backbone networks for the proposed full-reference (FR) and no-reference (NR) VQA models, respectively. For the FR model, we compute deep structural and textural similarities between reference and distorted frames using intermediate-layer features extracted from the Swin Transformer as its quality-aware feature representation. For the NR model, we extract the global mean of the final-layer feature maps from SigLip 2 as its quality-aware representation. To mitigate the issue of limited HDR training data, we pre-train the FR model on a large-scale standard dynamic range (SDR) VQA dataset and fine-tune it on the HDRSDR-VQA dataset. For the NR model, we employ an iterative mixed-dataset training strategy across multiple compressed VQA datasets, followed by fine-tuning on the HDRSDR-VQA dataset. Experimental results show that our models achieve state-of-the-art performance compared to existing FR and NR VQA models. Moreover, CompressedVQA-HDR-FR won first place in the FR track of the Generalizable HDR & SDR Video Quality Measurement Grand Challenge at IEEE ICME 2025. The code is available at https://github.com/sunwei925/CompressedVQA-HDR.
- Abstract(参考訳): ビデオ圧縮は、可能な限り視覚的品質を保ちながら、ストレージと送信要求を最小限に抑えるために、すべてのビデオに適用される標準的な手順である。
したがって,圧縮映像の視覚的品質を評価することは,映像圧縮アルゴリズムの実用化とさらなる開発を導く上で重要である。
圧縮ビデオ品質評価法(VQA)が多数提案されているが、ビデオタイプの多様性、特にハイダイナミックレンジ(HDR)コンテンツに対処するために必要な一般化能力に欠けることが多い。
本稿では,HDRビデオ品質評価の課題に対処する有効なVQAフレームワークであるCompressedVQA-HDRを紹介する。
具体的には,提案した完全参照(FR)モデルと非参照(NR)VQAモデルのバックボーンネットワークとして,Swin TransformerとSigLip 2を採用する。
FRモデルでは,Swin Transformerから抽出した中間層特徴を品質を考慮した特徴表現として,参照フレームと歪フレームの深い構造的およびテクスチャ的類似性を計算する。
NRモデルでは、SigLip 2から最終層特徴写像のグローバル平均を品質認識表現として抽出する。
限られたHDRトレーニングデータの問題を緩和するため、大規模標準ダイナミックレンジ(SDR)VQAデータセット上でFRモデルを事前訓練し、HDRSDR-VQAデータセット上で微調整する。
NRモデルでは、複数の圧縮VQAデータセットに対して反復的な混合データセットトレーニング戦略を採用し、HDRSDR-VQAデータセットを微調整する。
実験の結果,既存のFRモデルやNR VQAモデルと比較して最先端の性能が得られた。
さらに、CompressedVQA-HDR-FRは、IEEE ICME 2025でGeneralizable HDR & SDR Video Quality Measurement Grand ChallengeのFRトラックで優勝した。
コードはhttps://github.com/sunwei925/CompressedVQA-HDRで公開されている。
関連論文リスト
- ICME 2025 Generalizable HDR and SDR Video Quality Measurement Grand Challenge [66.86693390673298]
この課題は、HDRとSDRコンテンツを共同で扱うことのできるVQAアプローチをベンチマークし、促進することにある。
トップパフォーマンスモデルは最先端のパフォーマンスを達成し、一般化可能なビデオ品質評価のための新しいベンチマークを設定した。
論文 参考訳(メタデータ) (2025-06-28T07:14:23Z) - CANeRV: Content Adaptive Neural Representation for Video Compression [89.35616046528624]
映像圧縮のためのコンテンツ適応型ニューラル表現法(CANeRV)を提案する。
CANeRVは革新的なINRベースのビデオ圧縮ネットワークであり、各ビデオシーケンスの特定の内容に基づいて、構造最適化を適応的に行う。
CNeRVはH.266/VVCと最先端のINRベースの動画圧縮技術の両方を多種多様なビデオデータセットで上回り得ることを示す。
論文 参考訳(メタデータ) (2025-02-10T06:21:16Z) - A FUNQUE Approach to the Quality Assessment of Compressed HDR Videos [36.26141980831573]
最先端のSOTA(State-of-art)アプローチでは、VMAFのような既製のビデオ品質モデルが強化され、非線形変換ビデオフレームで計算される。
ここでは,FUNQUE+というビデオ品質予測モデルの効率的なクラスが,より少ない計算コストで高いHDR映像品質予測精度を実現することを示す。
論文 参考訳(メタデータ) (2023-12-13T21:24:00Z) - HIDRO-VQA: High Dynamic Range Oracle for Video Quality Assessment [36.1179702443845]
HIDRO-VQAは,ハイダイナミックレンジ(ハイダイナミックレンジ)ビデオの正確な品質評価を提供するために設計された,NRビデオ品質評価モデルである。
この結果から, 自己教師型ニューラルネットワークは, 最先端の性能を達成するために, 自己教師型設定でさらに微調整できることがわかった。
我々のアルゴリズムはFull Reference VQA設定に拡張することができ、また最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2023-11-18T12:33:19Z) - HDR-ChipQA: No-Reference Quality Assessment on High Dynamic Range Videos [38.504568225201915]
本稿では,ハイダイナミックレンジ(チップ)ビデオのスタントアウト性能を実現するノン参照ビデオ品質モデルとアルゴリズムを提案する。
HDRビデオは、標準ダイナミックレンジ(SDR)ビデオよりも幅広い輝度、詳細、色を表現している。
論文 参考訳(メタデータ) (2023-04-25T21:25:02Z) - Making Video Quality Assessment Models Robust to Bit Depth [38.504568225201915]
我々は,ビデオ品質アセスメント(VQA)アルゴリズムに含まれるHDRMAX機能と呼ばれる新しい特徴セットを導入し,それらを高ダイナミックレンジ(SDR)ビデオの歪みに敏感化する。
これらの特徴はHDRに特有ではなく、SDRコンテンツ上でのVQAモデルの等価性予測性能を増大させるが、特にHDRに有効である。
提案手法の有効性の実証として, 現状のVQAモデルは10ビットHDRデータベースでは性能が良くないが, テスト時にHDRMAX機能を含めることで性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-04-25T18:54:28Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - FAVER: Blind Quality Prediction of Variable Frame Rate Videos [47.951054608064126]
ビデオ品質アセスメント(VQA)は、最も大規模な多くのアプリケーションに影響を与える重要かつ困難な問題であり続けている。
我々は、フレームレート対応ビデオ評価器w/o参照(FAVER)をダブした、HFRビデオの評価のための第一種ブラインドVQAモデルを提案する。
いくつかのHFRビデオ品質データセットに対する実験により、FAVERは他の盲点VQAアルゴリズムよりも妥当な計算コストで優れていることが示された。
論文 参考訳(メタデータ) (2022-01-05T07:54:12Z) - High Frame Rate Video Quality Assessment using VMAF and Entropic
Differences [50.265638572116984]
ライブでハイアクションなコンテンツによるストリーミングビデオの人気は、ハイフレームレート(HFR)ビデオへの関心を高めている。
本稿では,比較対象の動画がフレームレートと圧縮係数が異なる場合に,フレームレートに依存するビデオ品質評価(VQA)の問題に対処する。
提案する融合フレームワークは,フレームレートに依存した映像品質を予測するために,より効率的な特徴をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-27T04:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。