論文の概要: In-Loop Filtering Using Learned Look-Up Tables for Video Coding
- arxiv url: http://arxiv.org/abs/2509.09494v1
- Date: Thu, 11 Sep 2025 14:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.421826
- Title: In-Loop Filtering Using Learned Look-Up Tables for Video Coding
- Title(参考訳): 学習したルックアップテーブルを用いたビデオ符号化のためのループ内フィルタリング
- Authors: Zhuoyuan Li, Jiacheng Li, Yao Li, Jialin Li, Li Li, Dong Liu, Feng Wu,
- Abstract要約: インループフィルタリング(ILF)は、ビデオ符号化における重要な技術であり、アーティファクトを低減し、視覚的品質を向上させる。
本稿では, LUT-ILF++ と呼ばれる汎用 LUT ベースの ILF フレームワークを提案する。
DNNベースのソリューションと比較して、提案したソリューションは、時間的複雑さとストレージコストをはるかに低減します。
- 参考スコア(独自算出の注目度): 34.73130210353939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-loop filtering (ILF) is a key technology in video coding standards to reduce artifacts and enhance visual quality. Recently, neural network-based ILF schemes have achieved remarkable coding gains, emerging as a powerful candidate for next-generation video coding standards. However, the use of deep neural networks (DNN) brings significant computational and time complexity or high demands for dedicated hardware, making it challenging for general use. To address this limitation, we study a practical ILF solution by adopting look-up tables (LUTs). After training a DNN with a restricted reference range for ILF, all possible inputs are traversed, and the output values of the DNN are cached into LUTs. During the coding process, the filtering process is performed by simply retrieving the filtered pixel through locating the input pixels and interpolating between the cached values, instead of relying on heavy inference computations. In this paper, we propose a universal LUT-based ILF framework, termed LUT-ILF++. First, we introduce the cooperation of multiple kinds of filtering LUTs and propose a series of customized indexing mechanisms to enable better filtering reference perception with limited storage consumption. Second, we propose the cross-component indexing mechanism to enable the filtering of different color components jointly. Third, in order to make our solution practical for coding uses, we propose the LUT compaction scheme to enable the LUT pruning, achieving a lower storage cost of the entire solution. The proposed framework is implemented in the VVC reference software. Experimental results show that the proposed framework achieves on average 0.82%/2.97%/1.63% and 0.85%/4.11%/2.06% bitrate reduction for common test sequences, under the AI and RA configurations, respectively. Compared to DNN-based solutions, our proposed solution has much lower time complexity and storage cost.
- Abstract(参考訳): インループフィルタリング(ILF)は、ビデオ符号化における重要な技術であり、アーティファクトを低減し、視覚的品質を向上させる。
近年、ニューラルネットワークベースのILFスキームは、次世代のビデオコーディング標準の強力な候補として浮上し、顕著なコーディング向上を実現している。
しかし、ディープニューラルネットワーク(DNN)の使用は、計算量と時間の複雑さ、あるいは専用のハードウェアに対する高い要求をもたらすため、一般的な使用には困難である。
この制限に対処するため、我々はLook-up Table (LUTs) を採用することで、実用的なICFソリューションについて検討する。
ILFの制限された基準範囲でDNNを訓練した後、全ての可能な入力をトラバースし、DNNの出力値をLUTにキャッシュする。
符号化過程では、重みの推論計算に頼るのではなく、入力画素を探索し、キャッシュされた値間を補間することにより、簡単にフィルタ画素を検索してフィルタリング処理を行う。
本稿では, LUT-ILF++ と呼ばれる汎用 LUT ベースの ILF フレームワークを提案する。
まず,複数種類のフィルタリング LUT の連携を導入し,ストレージ消費に制限のある参照知覚のフィルタリングを実現するための,一連のカスタマイズインデックス化機構を提案する。
次に,異なる色成分の同時フィルタリングを可能にするクロスコンポーネントインデクシング機構を提案する。
第3に,本手法を符号化用として実用化するために,LUTプルーニングを実現するため,LUT圧縮方式を提案する。
提案するフレームワークはVVC参照ソフトウェアに実装されている。
実験の結果,AI と RA 構成下において,提案フレームワークは平均 0.82%/2.97%/1.63% と 0.85%/4.11%/2.06% のビットレート削減を実現していることがわかった。
DNNベースのソリューションと比較して、提案したソリューションは、時間的複雑さとストレージコストがはるかに低い。
関連論文リスト
- Advanced Learning-Based Inter Prediction for Future Video Coding [46.4999280984859]
本稿では,従来の InterPF を代替する低複雑性学習型相互予測法を提案する。
LLIPは、効率的な推論のためにパラメータをエクスポートできる軽量ニューラルネットワークモデルを活用することにより、フィルタリングプロセスを強化する。
最終的には、InterPFの従来の手技フィルタリングパラメータを学習された最適フィルタリングパラメータに置き換える。
論文 参考訳(メタデータ) (2024-11-24T08:47:00Z) - In-Loop Filtering via Trained Look-Up Tables [45.6756570330982]
インループフィルタリング(ILF)は、画像/ビデオのコーディング標準におけるアーティファクトを取り除くための重要な技術である。
ルックアップテーブル(LUT)を用いたループ内フィルタリング手法を提案する。
実験結果から,提案手法の超高速・超高速・高速モードは平均0.13%/0.34%/0.51%,0.10%/0.27%/0.39%のBDレート低下を達成できた。
論文 参考訳(メタデータ) (2024-07-15T17:25:42Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - Toward DNN of LUTs: Learning Efficient Image Restoration with Multiple
Look-Up Tables [47.15181829317732]
エッジデバイス上の高解像度スクリーンは、効率的な画像復元アルゴリズムに対する強い需要を刺激する。
単一のルックアップテーブルのサイズはインデックス化能力の増加とともに指数関数的に増加する。
本稿では,Mulutと呼ばれるニューラルネットワークのような複数のLUTを構築するための普遍的手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T16:00:33Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。