論文の概要: Seeing Beyond 8bits: Subjective and Objective Quality Assessment of HDR-UGC Videos
- arxiv url: http://arxiv.org/abs/2603.00938v1
- Date: Sun, 01 Mar 2026 06:02:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.421598
- Title: Seeing Beyond 8bits: Subjective and Objective Quality Assessment of HDR-UGC Videos
- Title(参考訳): 8ビットを超えて見る:HDR-UGCビデオの主観的・客観的品質評価
- Authors: Shreshth Saini, Bowen Chen, Neil Birkbeck, Yilin Wang, Balu Adsumilli, Alan C. Bovik,
- Abstract要約: 高ダイナミックレンジ(UGC)ユーザー生成(UGC)ビデオは、ソーシャルプラットフォーム全体で急速に普及している。
ほとんどの知覚ビデオ品質評価(VQA)システムは、標準ダイナミックレンジ(SDR)モデルに適合している。
本稿では,HDR-UGC VQAのためのMLLM(Multimodal Large Language Model)について紹介する。
- 参考スコア(独自算出の注目度): 40.03485113183691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High Dynamic Range (HDR) user-generated (UGC) videos are rapidly proliferating across social platforms, yet most perceptual video quality assessment (VQA) systems remain tailored to Standard Dynamic Range (SDR). HDR has a higher bit depth, wide color gamut, and elevated luminance range, exposing distortions such as near-black crushing, highlight clipping, banding, and exposure flicker that amplify UGC artifacts and challenge SDR models. To catalyze progress, we curate Beyond8Bits, a large-scale subjective dataset of 44K videos from 6.5K sources with over 1.5M crowd ratings, spanning diverse scenes, capture conditions, and compression settings. We further introduce HDR-Q, the first Multimodal Large Language Model (MLLM) for HDR-UGC VQA. We propose (i) a novel HDR-aware vision encoder to produce HDR-sensitive embeddings, and (ii) HDR-Aware Policy Optimization (HAPO), an RL finetuning framework that anchors reasoning to HDR cues. HAPO augments GRPO via an HDR-SDR contrastive KL that encourages token reliance on HDR inputs and a Gaussian weighted regression reward for fine-grained MOS calibration. Across Beyond8Bits and public HDR-VQA benchmarks, HDR-Q delivers state-of-the-art performance.
- Abstract(参考訳): 高ダイナミックレンジ (HDR) ユーザ生成 (UGC) ビデオはソーシャルプラットフォーム全体で急速に普及しているが、ほとんどの知覚ビデオ品質評価 (VQA) システムは標準ダイナミックレンジ (SDR) に適合している。
HDRは、高いビット深度、広色域、高輝度域を持ち、UGCアーチファクトを増幅し、SDRモデルに挑戦する、近黒の破砕、ハイライトクリッピング、バンドリング、露光フリッカなどの歪みを露呈する。
進捗を触媒するため、Beyond8Bitsは6.5Kソースから44Kビデオの大規模な主観的データセットをキュレートし、150万以上の観客の視聴率を示し、多様なシーン、キャプチャ条件、圧縮設定にまたがる。
さらに,HDR-UGC VQAのためのMLLM(Multimodal Large Language Model)であるHDR-Qを紹介する。
特集にあたって
(i)HDR感応性埋め込みを生産する新規なHDR対応視覚エンコーダ、及び
(II)HDR-Aware Policy Optimization (HAPO)は、HDRキューに対する推論をアンロックするRLファインタニングフレームワークである。
HAPOは、HDR-SDRコントラストKLを介してGRPOを増強し、HDR入力へのトークン依存を促進し、細かいMOSキャリブレーションのためのガウス重み付き回帰報酬を付与する。
Beyond8BitsとHDR-VQAベンチマークの他、HDR-Qは最先端のパフォーマンスを提供する。
関連論文リスト
- Reconstructing 3D Scenes in Native High Dynamic Range [82.90064638813185]
本研究では,HDR観測を直接モデル化した3次元シーン再構成法を提案する。
bf Native High Dynamic Range 3D Gaussian Splatting (NH-3DGS)を提案する。
NH-3DGSは, 再構成品質と動的レンジ保存において, 既存の手法よりも有意に優れる合成多視点HDRデータセットと実HDRデータセットの両方を実証した。
論文 参考訳(メタデータ) (2025-11-17T02:33:31Z) - CHUG: Crowdsourced User-Generated HDR Video Quality Dataset [35.65322085280114]
高ダイナミックレンジ(UGC)ビデオは、優れた明るさ、コントラスト、色深度で視覚体験を高める。
YouTubeやTikTokなどのプラットフォームにおけるユーザ生成コンテンツ(UGC)の急増は、さまざまなキャプチャ条件、編集アーティファクト、圧縮歪みによるHDRビデオ品質評価(VQA)に対するユニークな課題を導入している。
既存のHDR-VQAデータセットは、主にプロが生成したコンテンツ(PGC)に焦点を当てており、現実の劣化を理解するためのギャップを残している。
論文 参考訳(メタデータ) (2025-10-10T21:35:39Z) - Diffusion-Promoted HDR Video Reconstruction [45.73396977607666]
高ダイナミックレンジ(LDR)ビデオ再構成は、低ダイナミックレンジ(LDR)フレームから交互に露出したHDRビデオを生成することを目的としている。
既存の作品の多くは回帰に基づくパラダイムにのみ依存しており、ゴーストのアーティファクトや飽和した地域での詳細の欠如といった悪影響につながっている。
本稿では,HDR-V-Diffと呼ばれるHDR映像再構成のための拡散促進手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T13:38:10Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - A FUNQUE Approach to the Quality Assessment of Compressed HDR Videos [36.26141980831573]
最先端のSOTA(State-of-art)アプローチでは、VMAFのような既製のビデオ品質モデルが強化され、非線形変換ビデオフレームで計算される。
ここでは,FUNQUE+というビデオ品質予測モデルの効率的なクラスが,より少ない計算コストで高いHDR映像品質予測精度を実現することを示す。
論文 参考訳(メタデータ) (2023-12-13T21:24:00Z) - HIDRO-VQA: High Dynamic Range Oracle for Video Quality Assessment [36.1179702443845]
HIDRO-VQAは,ハイダイナミックレンジ(ハイダイナミックレンジ)ビデオの正確な品質評価を提供するために設計された,NRビデオ品質評価モデルである。
この結果から, 自己教師型ニューラルネットワークは, 最先端の性能を達成するために, 自己教師型設定でさらに微調整できることがわかった。
我々のアルゴリズムはFull Reference VQA設定に拡張することができ、また最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2023-11-18T12:33:19Z) - Towards Efficient SDRTV-to-HDRTV by Learning from Image Formation [51.26219245226384]
モダンディスプレイは、高ダイナミックレンジ(WCG)と広色域(SDR)で映像コンテンツをレンダリングすることができる
利用可能なリソースの大部分は、まだ標準動的範囲(SDR)にある。
我々は、SDRTV/TVコンテンツの形成をモデル化し、SDRTV-to-TVタスクを定義し、分析する。
本手法は主に超高精細テレビコンテンツ向けに設計されており、4K解像度画像の処理に有効で軽量である。
論文 参考訳(メタデータ) (2023-09-08T02:50:54Z) - HDR-ChipQA: No-Reference Quality Assessment on High Dynamic Range Videos [38.504568225201915]
本稿では,ハイダイナミックレンジ(チップ)ビデオのスタントアウト性能を実現するノン参照ビデオ品質モデルとアルゴリズムを提案する。
HDRビデオは、標準ダイナミックレンジ(SDR)ビデオよりも幅広い輝度、詳細、色を表現している。
論文 参考訳(メタデータ) (2023-04-25T21:25:02Z) - Making Video Quality Assessment Models Robust to Bit Depth [38.504568225201915]
我々は,ビデオ品質アセスメント(VQA)アルゴリズムに含まれるHDRMAX機能と呼ばれる新しい特徴セットを導入し,それらを高ダイナミックレンジ(SDR)ビデオの歪みに敏感化する。
これらの特徴はHDRに特有ではなく、SDRコンテンツ上でのVQAモデルの等価性予測性能を増大させるが、特にHDRに有効である。
提案手法の有効性の実証として, 現状のVQAモデルは10ビットHDRデータベースでは性能が良くないが, テスト時にHDRMAX機能を含めることで性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-04-25T18:54:28Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。