論文の概要: A Rate-Quality Model for Learned Video Coding
- arxiv url: http://arxiv.org/abs/2505.02720v1
- Date: Mon, 05 May 2025 15:19:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.723407
- Title: A Rate-Quality Model for Learned Video Coding
- Title(参考訳): 学習ビデオ符号化におけるレート品質モデル
- Authors: Sang NguyenQuang, Cheng-Wei Chen, Xiem HoangVan, Wen-Hsiao Peng,
- Abstract要約: 我々は、RQNetと呼ばれるニューラルネットワークを学習し、ビデオの内容とコーディングコンテキストによる品質レベルの関係を特徴付ける。
従来の手法と比較して,提案手法はR-Q関係を正確に推定し,モデルパラメータのオンライン適応を可能にする。
- 参考スコア(独自算出の注目度): 7.053310231684138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learned video coding (LVC) has recently achieved superior coding performance. In this paper, we model the rate-quality (R-Q) relationship for learned video coding by a parametric function. We learn a neural network, termed RQNet, to characterize the relationship between the bitrate and quality level according to video content and coding context. The predicted (R,Q) results are further integrated with those from previously coded frames using the least-squares method to determine the parameters of our R-Q model on-the-fly. Compared to the conventional approaches, our method accurately estimates the R-Q relationship, enabling the online adaptation of model parameters to enhance both flexibility and precision. Experimental results show that our R-Q model achieves significantly smaller bitrate deviations than the baseline method on commonly used datasets with minimal additional complexity.
- Abstract(参考訳): 学習ビデオ符号化(LVC)は、最近より優れたコーディング性能を達成した。
本稿では,パラメトリック関数による学習ビデオ符号化におけるレート品質(R-Q)の関係をモデル化する。
我々はRQNetと呼ばれるニューラルネットワークを学習し、ビデオの内容と符号化コンテキストに応じてビットレートと品質レベルの関係を特徴付ける。
予測された(R,Q)結果は、最小二乗法を用いて、以前符号化されたフレームのそれとさらに統合され、R-Qモデルのパラメータをオンザフライで決定する。
従来の手法と比較して,提案手法はR-Q関係を正確に推定し,モデルパラメータのオンライン適応により柔軟性と精度を両立させることができる。
実験結果から,R-Qモデルでは,通常用いられるデータセットのベースライン法よりもビットレートの偏差が著しく小さいことが示唆された。
関連論文リスト
- When No-Reference Image Quality Models Meet MAP Estimation in Diffusion Latents [92.45867913876691]
非参照画像品質評価(NR-IQA)モデルは、知覚された画像品質を効果的に定量化することができる。
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Boosting Neural Representations for Videos with a Conditional Decoder [28.073607937396552]
Inlicit Neural representations (INRs) は、ビデオストレージと処理において有望なアプローチとして登場した。
本稿では,現在の暗黙的ビデオ表現手法のための普遍的なブースティングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T08:32:19Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。