論文の概要: Subjective evaluation of UHD video coded using VVC with LCEVC and ML-VVC
- arxiv url: http://arxiv.org/abs/2601.10448v1
- Date: Thu, 15 Jan 2026 14:38:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.17074
- Title: Subjective evaluation of UHD video coded using VVC with LCEVC and ML-VVC
- Title(参考訳): LCEVCとML-VVCを用いたVVCを用いたUHD映像の主観評価
- Authors: Naeem Ramzan, Muhammad Tufail Khan,
- Abstract要約: 本稿では,多層ビデオ符号化方式の主観的品質評価の結果について述べる。
低複雑性化ビデオ符号化(LCEVC)は、VVC(Versatile Video Coding)ベース層上に拡張層として適用される。
- 参考スコア(独自算出の注目度): 2.2129910930772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the results of a subjective quality assessment of a multilayer video coding configuration in which Low Complexity Enhancement Video Coding (LCEVC) is applied as an enhancement layer on top of a Versatile Video Coding (VVC) base layer. The evaluation follows the same test methodology and conditions previously defined for MPEG multilayer video coding assessments, with the LCEVC enhancement layer encoded using version 8.1 of the LCEVC Test Model (LTM). The test compares reconstructed UHD output generated from an HD VVC base layer with LCEVC enhancement against two reference cases: upsampled VVC base layer decoding and multilayer VVC (ML-VVC). Two operating points are considered, corresponding to enhancement layers representing approximately 10% and 50% of the total bitrate. Subjective assessment was conducted using the Degradation Category Rating (DCR) methodology with twenty five participants, across a dataset comprising fifteen SDR and HDR sequences. The reported results include Mean Opinion Scores (MOS) with associated 95% confidence intervals, enabling comparison of perceptual quality across coding approaches and operating points within the defined test scope.
- Abstract(参考訳): 本稿では,VVC(Versatile Video Coding)ベース層上の拡張層としてLCEVC(Low Complexity Enhancement Video Coding)を適用した多層ビデオ符号化構成の主観的品質評価の結果について述べる。
LCEVCテストモデル(LTM)のバージョン8.1を用いて符号化されたLCEVCエンハンスメント層を用いて,MPEG多層ビデオ符号化アセスメントに先立って定義されたテスト手法と条件に従う。
このテストでは,HD VVCベース層から生成された再構成されたUHD出力とLCEVCエンハンスメントを比較し,アップサンプリングされたVVCベース層デコードとマルチレイヤVVC(ML-VVC)の2つの基準ケースを比較した。
2つの操作点が考慮され、全ビットレートの約10%と50%を表すエンハンスメント層に対応する。
主観評価は,15のSDRおよびHDR配列からなるデータセットを用いて,20人の参加者による劣化カテゴリー評価(DCR)手法を用いて行った。
報告された結果には、95%の信頼区間を持つ平均オピニオンスコア(MOS)が含まれており、コーディングアプローチにおける知覚品質と、定義されたテスト範囲内の操作点の比較を可能にする。
関連論文リスト
- CP-LLM: Context and Pixel Aware Large Language Model for Video Quality Assessment [25.10124067341784]
CP-LLM(Context and Pixel aware Large Language Model)を紹介する。
CP-LLMは、言語デコーダとともに、高レベル(ビデオコンテキスト)と低レベル(ピクセル歪み)の粒度の両方で知覚品質を独立に解析するために設計されたデュアルビジョンエンコーダを備えている。
実験により, CP-LLMは, 確立されたVQAベンチマーク上での最先端のクロスデータセット性能と, 画素歪みに対する優れたロバスト性を実現することを示した。
論文 参考訳(メタデータ) (2025-05-21T21:13:19Z) - AIM 2024 Challenge on Compressed Video Quality Assessment: Methods and Results [120.95863275142727]
本稿では,ECCV 2024における画像操作の進歩(AIM)ワークショップと共同で開催されている圧縮映像品質評価の課題について述べる。
この課題は、様々な圧縮標準の14コーデックで符号化された459本の動画の多様なデータセット上で、VQA法の性能を評価することであった。
論文 参考訳(メタデータ) (2024-08-21T20:32:45Z) - Benchmarking Conventional and Learned Video Codecs with a Low-Delay Configuration [11.016119119250765]
本稿では,低遅延構成に基づく従来型および学習型ビデオ符号化手法の比較研究を行う。
その結果, YCbCr 4:2:0色空間におけるAOMおよびMPEG共通試験条件で定義された試験系列について, 公平かつ有意義な比較を行うことができた。
評価結果から,JVETのECMコーデックは,テスト対象のすべてのコーデックの中で,最高の全体的な符号化性能を提供することがわかった。
論文 参考訳(メタデータ) (2024-08-09T12:55:23Z) - ReLaX-VQA: Residual Fragment and Layer Stack Extraction for Enhancing Video Quality Assessment [35.00766551093652]
ReLaX-VQAは、NRVQA(No-Reference Video Quality Assessment)モデルである。
これは、オリジナルの圧縮されていないビデオに言及することなく、多様なビデオコンテンツの品質を評価するという課題に対処することを目的としている。
NR-VQA法を一貫して上回り、平均Sスコアは0.8658、PLCCは0.8873である。
論文 参考訳(メタデータ) (2024-07-16T08:33:55Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Hierarchical B-frame Video Coding for Long Group of Pictures [42.229439873835254]
本稿では、フレームの長いシーケンスでのトレーニング、レートアロケーション、推論によるコンテンツ適応を組み合わせたランダムアクセスのためのエンドツーエンドの学習ビデオを提案する。
一般的なテスト条件下では、ビデオのクラスによっては、YUV-PSNR BD-Rateの点でVTMに匹敵する結果が得られる。
平均して、VMAFとYUV BD-Ratesの点で、オープンLDとRAのエンドツーエンドソリューションを上回っている。
論文 参考訳(メタデータ) (2024-06-24T11:29:52Z) - Efficient VVC Intra Prediction Based on Deep Feature Fusion and
Probability Estimation [57.66773945887832]
本稿では,フレーム内予測におけるVersatile Video Coding (VVC) の複雑性を,深層融合と確率推定の2段階のフレームワークを用いて最適化することを提案する。
特に高精細度(HD)および超高精細度(UHD)ビデオシーケンスにおいて,提案手法の優位性を示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-05-07T08:01:32Z) - Deep Learning-Based Intra Mode Derivation for Versatile Video Coding [65.96100964146062]
本稿では,Deep Learning based intra Mode Derivation (DLIMD) と呼ばれるインテリジェントイントラモード導出法を提案する。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と、非平方要素を含む可変符号化ブロックに適応するように開発されている。
提案手法は,Versatile Video Coding (VVC) テストモデルを用いて,Y, U, Vコンポーネントの平均ビットレートを2.28%, 1.74%, 2.18%削減できる。
論文 参考訳(メタデータ) (2022-04-08T13:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。