論文の概要: Neural Video Compression with In-Loop Contextual Filtering and Out-of-Loop Reconstruction Enhancement
- arxiv url: http://arxiv.org/abs/2509.04051v1
- Date: Thu, 04 Sep 2025 09:29:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.116544
- Title: Neural Video Compression with In-Loop Contextual Filtering and Out-of-Loop Reconstruction Enhancement
- Title(参考訳): In-Loopコンテキストフィルタリングとout-of-Loop再構成によるニューラルビデオ圧縮
- Authors: Yaojun Wu, Chaoyi Lin, Yiming Wang, Semih Esenlik, Zhaobin Zhang, Kai Zhang, Li Zhang,
- Abstract要約: 本稿では,ニューラルビデオ圧縮における拡張フィルタリング手法の適用について検討する。
ループ内コンテキストフィルタリングは、フレーム単位の符号化中にエラーの伝播を緩和することにより、時間的コンテキストを洗練する。
ループ外リコンストラクションの強化は、再構築されたフレームの品質を向上するために使用され、コーディング効率をシンプルかつ効果的に改善する。
- 参考スコア(独自算出の注目度): 11.849261047358072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the application of enhancement filtering techniques in neural video compression. Specifically, we categorize these techniques into in-loop contextual filtering and out-of-loop reconstruction enhancement based on whether the enhanced representation affects the subsequent coding loop. In-loop contextual filtering refines the temporal context by mitigating error propagation during frame-by-frame encoding. However, its influence on both the current and subsequent frames poses challenges in adaptively applying filtering throughout the sequence. To address this, we introduce an adaptive coding decision strategy that dynamically determines filtering application during encoding. Additionally, out-of-loop reconstruction enhancement is employed to refine the quality of reconstructed frames, providing a simple yet effective improvement in coding efficiency. To the best of our knowledge, this work presents the first systematic study of enhancement filtering in the context of conditional-based neural video compression. Extensive experiments demonstrate a 7.71% reduction in bit rate compared to state-of-the-art neural video codecs, validating the effectiveness of the proposed approach.
- Abstract(参考訳): 本稿では,ニューラルビデオ圧縮における拡張フィルタリング手法の適用について検討する。
具体的には、この拡張表現がその後の符号化ループに影響を及ぼすかどうかに基づいて、ループ内文脈フィルタリングとループ外再構成の強化に分類する。
ループ内コンテキストフィルタリングは、フレーム単位の符号化中にエラーの伝播を緩和することにより、時間的コンテキストを洗練する。
しかし、現在のフレームとその後のフレームの両方への影響は、シーケンス全体にわたってフィルタリングを適応的に適用する上での課題を提起する。
そこで本研究では,符号化中のフィルタリングアプリケーションを動的に決定する適応型符号化決定戦略を提案する。
さらに、ループ外再構成の強化により、再構築されたフレームの品質を向上し、コーディング効率をシンプルかつ効果的に改善する。
我々の知る限り、この研究は条件付きニューラルビデオ圧縮の文脈における拡張フィルタリングに関する最初の体系的研究である。
大規模な実験では、最先端のニューラルビデオコーデックと比較してビットレートが7.71%削減され、提案手法の有効性が検証された。
関連論文リスト
- Prediction and Reference Quality Adaptation for Learned Video Compression [54.58691829087094]
時間予測はビデオ圧縮において最も重要な技術の一つである。
従来のビデオコーデックは、予測品質と基準品質に応じて最適な符号化モードを適応的に決定する。
本稿では,信頼性に基づく予測品質適応(PQA)モジュールと基準品質適応(RQA)モジュールを提案する。
論文 参考訳(メタデータ) (2024-06-20T09:03:26Z) - Compression-Realized Deep Structural Network for Video Quality Enhancement [78.13020206633524]
本稿では,圧縮ビデオの品質向上の課題に焦点をあてる。
既存の手法のほとんどは、圧縮コーデック内での事前処理を最適に活用するための構造設計を欠いている。
新しいパラダイムは、より意識的な品質向上プロセスのために緊急に必要である。
論文 参考訳(メタデータ) (2024-05-10T09:18:17Z) - Boosting Neural Representations for Videos with a Conditional Decoder [28.073607937396552]
Inlicit Neural representations (INRs) は、ビデオストレージと処理において有望なアプローチとして登場した。
本稿では,現在の暗黙的ビデオ表現手法のための普遍的なブースティングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T08:32:19Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - Complexity Reduction of Learned In-Loop Filtering in Video Coding [12.06039429078762]
ビデオ符号化では、インループフィルタが再構成されたビデオフレームに適用され、その知覚的品質が向上し、出力のためにフレームを格納する。
提案手法は,学習したインループフィルタの複雑性低減のために,スポーシティと構造化プルーニングを組み合わせた新しい手法を用いている。
論文 参考訳(メタデータ) (2022-03-16T14:34:41Z) - End-to-end Neural Video Coding Using a Compound Spatiotemporal
Representation [33.54844063875569]
本稿では,2つの手法により生成された予測を適応的に組み合わせたハイブリッド動作補償法を提案する。
具体的には、リカレント情報集約(RIA)モジュールを用いて、複合時間表現(STR)を生成する。
さらに、ベクトルベースの再サンプリング、適応カーネルベースの再サンプリング、補償モード選択マップ、テクスチャ拡張を含む、CSTRから複数の予測を生成する1対多デコーダパイプラインを設計する。
論文 参考訳(メタデータ) (2021-08-05T19:43:32Z) - A Global Appearance and Local Coding Distortion based Fusion Framework
for CNN based Filtering in Video Coding [15.778380865885842]
ループ内フィルタリングは、ブロックアーティファクトを削除するために再構成されたフレームを処理するためにビデオ符号化で使用される。
本稿では,2つの側面からフィルタの問題に対処する。これは,破壊されたテクスチャに対するグローバルな外観復元と,固定された符号化パイプラインによる局所的な符号化歪み復元である。
高レベルグローバル特徴ストリーム,高レベルローカル特徴ストリーム,低レベルローカル特徴ストリームを用いて3ストリームグローバル外観と局所符号化歪みに基づく融合ネットワークを開発した。
論文 参考訳(メタデータ) (2021-06-24T03:08:44Z) - Content Adaptive and Error Propagation Aware Deep Video Compression [110.31693187153084]
本稿では,コンテンツ適応型・誤り伝搬対応型ビデオ圧縮システムを提案する。
本手法では, 複数フレームの圧縮性能を1フレームではなく複数フレームで考慮し, 共同学習手法を用いる。
従来の圧縮システムでは手作りのコーディングモードを使用する代わりに,オンラインエンコーダ更新方式をシステム内に設計する。
論文 参考訳(メタデータ) (2020-03-25T09:04:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。