論文の概要: Interleaved Block-based Learned Image Compression with Feature Enhancement and Quantization Error Compensation
- arxiv url: http://arxiv.org/abs/2502.15188v1
- Date: Fri, 21 Feb 2025 03:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 19:41:59.487874
- Title: Interleaved Block-based Learned Image Compression with Feature Enhancement and Quantization Error Compensation
- Title(参考訳): 特徴強調と量子化誤差補償を用いたインターリーブブロックベース学習画像圧縮
- Authors: Shiqi Jiang, Hui Yuan, Shuai Li, Raouf Hamzaoui, Xu Wang, Junyan Huo,
- Abstract要約: 本稿では,機能抽出モジュール,機能改善モジュール,機能強化モジュールを提案する。
私たちの4つのモジュールは、最先端のlicメソッドに簡単に統合できます。
実験により、我々のモジュールとTiny-LICの組み合わせは、KodakデータセットとCLICデータセットのピーク信号対雑音比(PSNR)とマルチスケール構造類似性(MS-SSIM)の観点から、既存のlicメソッドと画像圧縮標準を上回ります。
- 参考スコア(独自算出の注目度): 18.15640294602421
- License:
- Abstract: In recent years, learned image compression (LIC) methods have achieved significant performance improvements. However, obtaining a more compact latent representation and reducing the impact of quantization errors remain key challenges in the field of LIC. To address these challenges, we propose a feature extraction module, a feature refinement module, and a feature enhancement module. Our feature extraction module shuffles the pixels in the image, splits the resulting image into sub-images, and extracts coarse features from the sub-images. Our feature refinement module stacks the coarse features and uses an attention refinement block composed of concatenated three-dimensional convolution residual blocks to learn more compact latent features by exploiting correlations across channels, within sub-images (intra-sub-image correlations), and across sub-images (inter-sub-image correlations). Our feature enhancement module reduces information loss in the decoded features following quantization. We also propose a quantization error compensation module that mitigates the quantization mismatch between training and testing. Our four modules can be readily integrated into state-of-the-art LIC methods. Experiments show that combining our modules with Tiny-LIC outperforms existing LIC methods and image compression standards in terms of peak signal-to-noise ratio (PSNR) and multi-scale structural similarity (MS-SSIM) on the Kodak dataset and the CLIC dataset.
- Abstract(参考訳): 近年,学習画像圧縮(lic)手法は大幅な性能向上を実現している。
しかし、よりコンパクトな潜在表現の獲得と量子化誤差の影響の低減は、licの分野における重要な課題である。
これらの課題に対処するため,機能抽出モジュール,機能改善モジュール,機能強化モジュールを提案する。
特徴抽出モジュールは画像中のピクセルをシャッフルし、結果の画像をサブイメージに分割し、サブイメージから粗い特徴を抽出する。
特徴強化モジュールは, 粗い特徴を積み重ね, 3次元の畳み込み残差ブロックを連結して, チャネル間, サブイメージ内, サブイメージ内, サブイメージ間(サブイメージ間相関)間の相関を利用して, よりコンパクトな潜時特徴を学習する。
我々の機能拡張モジュールは、量子化後の復号化機能における情報損失を低減する。
また、トレーニングとテストの間の量子化ミスマッチを緩和する量子化誤差補償モジュールを提案する。
私たちの4つのモジュールは、最先端のlicメソッドに簡単に統合できます。
実験により、我々のモジュールとTiny-LICの組み合わせは、KodakデータセットとCLICデータセットのピーク信号対雑音比(PSNR)とマルチスケール構造類似性(MS-SSIM)の観点から、既存のlicメソッドと画像圧縮標準を上回ります。
関連論文リスト
- CubeFormer: A Simple yet Effective Baseline for Lightweight Image Super-Resolution [55.94314421887744]
軽量画像超解像(SR)法は、解像度を高め、軽量ニューラルネットワークを用いて画像の詳細を復元することを目的としている。
分析の結果,これらの手法は,特徴表現や細部回復に悪影響を及ぼす制約付き特徴多様性によって妨げられていることが明らかとなった。
そこで我々は,包括的情報集約を完了させることにより,特徴の豊かさを高めるために,CubeFormerというシンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:02:26Z) - Encoder-minimal and Decoder-minimal Framework for Remote Sensing Image
Dehazing [13.759978932686519]
RSHazeNetは、効率的なリモートセンシング画像デハージングのためのエンコーダ最小化およびデコーダ最小化フレームワークである。
我々は、ITFM(Intra-level Transposed fusion Module)と呼ばれる革新的なモジュールを開発する。
論文 参考訳(メタデータ) (2023-12-13T02:35:02Z) - Frequency-Aware Transformer for Learned Image Compression [64.28698450919647]
学習画像圧縮(lic)のためのマルチスケール指向性アナリシスを初めて実現した周波数認識変換器(FAT)ブロックを提案する。
FATブロックは、自然画像のマルチスケールおよび指向性周波数成分をキャプチャするための周波数分解ウィンドウアテンション(FDWA)モジュールを含む。
また、周波数変調フィードフォワードネットワーク(FMFFN)を導入し、異なる周波数成分を適応的に変調し、周波数歪み性能を向上させる。
論文 参考訳(メタデータ) (2023-10-25T05:59:25Z) - MLIC++: Linear Complexity Multi-Reference Entropy Modeling for Learned
Image Compression [30.71965784982577]
我々はMEM++を導入し、潜在表現に固有の様々な相関関係をキャプチャする。
MEM++は最先端のパフォーマンスを実現し、PSNRのVTM-17.0と比較して、KodakデータセットのBDレートを13.39%削減した。
MLIC++はリニアGPUメモリを解像度で表示し、高解像度の画像符号化に非常に適している。
論文 参考訳(メタデータ) (2023-07-28T09:11:37Z) - Exploring Effective Mask Sampling Modeling for Neural Image Compression [171.35596121939238]
既存のニューラルイメージ圧縮手法の多くは、空間的冗長性を排除するために、ハイパープライアモデルやコンテキストモデルからのサイド情報に依存している。
近年の自然言語処理と高次視覚のための自己教師付き学習手法におけるマスクサンプリングモデルに着想を得て,ニューラル画像圧縮のための新しい事前学習戦略を提案する。
提案手法は,最先端画像圧縮法と比較して計算複雑性の低い競合性能を実現する。
論文 参考訳(メタデータ) (2023-06-09T06:50:20Z) - Super-Resolution of License Plate Images Using Attention Modules and
Sub-Pixel Convolution Layers [3.8831062015253055]
監視画像における構造的特徴およびテクスチャ的特徴の検出を強化するために,Single-Image Super-Resolution (SISR) アプローチを導入する。
提案手法は,サブピクセルの畳み込み層と,光学的文字認識(OCR)モデルを用いて特徴抽出を行うロス関数を含む。
以上の結果から, これらの低解像度合成画像の再構成手法は, 定量化と定性化の両面で, 既存の画像よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-05-27T00:17:19Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。