論文の概要: Selective compression learning of latent representations for
variable-rate image compression
- arxiv url: http://arxiv.org/abs/2211.04104v1
- Date: Tue, 8 Nov 2022 09:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:44:11.515238
- Title: Selective compression learning of latent representations for
variable-rate image compression
- Title(参考訳): 可変レート画像圧縮のための潜在表現の選択圧縮学習
- Authors: Jooyoung Lee and Seyoon Jeong and Munchurl Kim
- Abstract要約: 本稿では、ディープラーニングに基づく可変レート画像圧縮のための、潜在表現を部分的に完全に一般化した方法で符号化する選択的圧縮法を提案する。
提案手法は、個別に訓練された参照圧縮モデルと同等の圧縮効率を達成でき、選択圧縮による復号時間を削減することができる。
- 参考スコア(独自算出の注目度): 38.077284943341105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many neural network-based image compression methods have shown
promising results superior to the existing tool-based conventional codecs.
However, most of them are often trained as separate models for different target
bit rates, thus increasing the model complexity. Therefore, several studies
have been conducted for learned compression that supports variable rates with
single models, but they require additional network modules, layers, or inputs
that often lead to complexity overhead, or do not provide sufficient coding
efficiency. In this paper, we firstly propose a selective compression method
that partially encodes the latent representations in a fully generalized manner
for deep learning-based variable-rate image compression. The proposed method
adaptively determines essential representation elements for compression of
different target quality levels. For this, we first generate a 3D importance
map as the nature of input content to represent the underlying importance of
the representation elements. The 3D importance map is then adjusted for
different target quality levels using importance adjustment curves. The
adjusted 3D importance map is finally converted into a 3D binary mask to
determine the essential representation elements for compression. The proposed
method can be easily integrated with the existing compression models with a
negligible amount of overhead increase. Our method can also enable continuously
variable-rate compression via simple interpolation of the importance adjustment
curves among different quality levels. The extensive experimental results show
that the proposed method can achieve comparable compression efficiency as those
of the separately trained reference compression models and can reduce decoding
time owing to the selective compression. The sample codes are publicly
available at https://github.com/JooyoungLeeETRI/SCR.
- Abstract(参考訳): 近年,多くのニューラルネットワークによる画像圧縮手法が,既存のツールベースコーデックよりも有望な結果を示している。
しかし、そのほとんどは異なるターゲットビットレートの別々のモデルとして訓練され、それによってモデルの複雑さが増大する。
そのため、単一のモデルで可変レートをサポートする学習圧縮のためのいくつかの研究が実施されているが、ネットワークモジュール、層、入力の追加が必要であり、しばしば複雑さのオーバーヘッドにつながるか、コーディング効率が不十分である。
本稿では,まず,ディープラーニングに基づく可変レート画像圧縮に対して,潜在表現を完全一般化した方法で部分符号化する選択的圧縮法を提案する。
提案手法は,異なる目標品質レベルの圧縮に必要な表現要素を適応的に決定する。
そのため,まず3次元重要度マップを入力コンテンツの性質として生成し,表現要素の基本的な重要度を表す。
3次元重要度マップは、重要度調整曲線を用いて異なるターゲット品質レベルに調整される。
調整された3D重要度マップを最終的に3Dバイナリマスクに変換して、圧縮に必要な表現要素を決定する。
提案手法は, 既存の圧縮モデルと容易に統合でき, オーバヘッドの増大は無視できる。
また,異なる品質レベルの重要度調整曲線を簡易に補間することで,連続的な可変レート圧縮が可能となる。
実験の結果,提案手法は個別に訓練された参照圧縮モデルと同等の圧縮効率を達成でき,選択圧縮による復号時間を削減することができることがわかった。
サンプルコードはhttps://github.com/JooyoungLeeETRI/SCRで公開されている。
関連論文リスト
- DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding [27.875207681547074]
プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としている。
ニューラルネットワーク(NN)に基づくPICの研究は、その初期段階にある。
本稿では,まず,学習した量子化ステップサイズを各量子化レイヤの学習により活用するNNベースのプログレッシブコーディング手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T06:32:53Z) - Variable-Rate Learned Image Compression with Multi-Objective
Optimization and Quantization-Reconstruction Offsets [8.670873561640903]
本論文は,すべての潜伏テンソル要素の均一な量子化を行うために,単一量子化ステップサイズを変化させる従来のアプローチに従う。
可変レート圧縮性能を改善するために3つの改良が提案されている。
得られた可変レート圧縮結果から,複数のモデルのトレーニングと比較すると,圧縮性能の低下は無視できるか最小かのどちらかを示す。
論文 参考訳(メタデータ) (2024-02-29T07:45:02Z) - A Survey on Transformer Compression [84.18094368700379]
自然言語処理(NLP)とコンピュータビジョン(CV)の領域においてトランスフォーマーは重要な役割を果たす
モデル圧縮法は、Transformerのメモリと計算コストを削減する。
この調査は、Transformerベースのモデルに適用することに焦点を当てた、最近の圧縮方法に関する包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-02-05T12:16:28Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Multiscale Augmented Normalizing Flows for Image Compression [17.441496966834933]
本稿では,非可逆潜在変数モデルである拡張正規化フローに対して,階層的潜在空間を適応させる新しい概念を提案する。
私たちの最高のパフォーマンスモデルは、比較対象のシングルスケールモデルよりも7%以上、平均的なコスト削減を実現しました。
論文 参考訳(メタデータ) (2023-05-09T13:42:43Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。