論文の概要: Compressing Images by Encoding Their Latent Representations with
Relative Entropy Coding
- arxiv url: http://arxiv.org/abs/2010.01185v6
- Date: Mon, 19 Apr 2021 09:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:38:00.129979
- Title: Compressing Images by Encoding Their Latent Representations with
Relative Entropy Coding
- Title(参考訳): 相対エントロピー符号化による潜在表現の符号化による画像圧縮
- Authors: Gergely Flamich and Marton Havasi and Jos\'e Miguel Hern\'andez-Lobato
- Abstract要約: 可変オートエンコーダ(VAE)は学習画像圧縮に広く利用されている。
本稿では,単一の画像に対して相対エントロピーに近い符号長で遅延表現を直接エンコードできる新しい手法であるRelative Entropy Coding (REC)を提案する。
- 参考スコア(独自算出の注目度): 5.687243501594734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Autoencoders (VAEs) have seen widespread use in learned image
compression. They are used to learn expressive latent representations on which
downstream compression methods can operate with high efficiency. Recently
proposed 'bits-back' methods can indirectly encode the latent representation of
images with codelength close to the relative entropy between the latent
posterior and the prior. However, due to the underlying algorithm, these
methods can only be used for lossless compression, and they only achieve their
nominal efficiency when compressing multiple images simultaneously; they are
inefficient for compressing single images. As an alternative, we propose a
novel method, Relative Entropy Coding (REC), that can directly encode the
latent representation with codelength close to the relative entropy for single
images, supported by our empirical results obtained on the Cifar10, ImageNet32
and Kodak datasets. Moreover, unlike previous bits-back methods, REC is
immediately applicable to lossy compression, where it is competitive with the
state-of-the-art on the Kodak dataset.
- Abstract(参考訳): 可変オートエンコーダ(VAE)は学習画像圧縮に広く利用されている。
下流圧縮法が高効率で動作可能な表現的潜在表現を学習するために使用される。
近年提案されている「ビットバック」手法は、画像の潜在表現を間接的にエントロピーに近い符号長で符号化することができる。
しかし,アルゴリズムの基盤となるため,これらの手法はロスレス圧縮にのみ適用でき,複数の画像を同時に圧縮する場合にのみ名目効率が得られ,単一の画像の圧縮に非効率である。
その代替として、Cifar10, ImageNet32, Kodakデータセットで得られた経験的結果に支えられ、単一の画像に対して相対エントロピーに近い符号長で潜在表現を直接符号化できるRelative Entropy Coding (REC)を提案する。
さらに、従来のbits-backメソッドとは異なり、RECは損失のある圧縮に適用でき、Kodakデータセットの最先端と競合する。
関連論文リスト
- UniCompress: Enhancing Multi-Data Medical Image Compression with Knowledge Distillation [59.3877309501938]
Inlicit Neural Representation (INR) ネットワークは、その柔軟な圧縮比のため、顕著な汎用性を示している。
周波数領域情報を含むコードブックをINRネットワークへの事前入力として導入する。
これにより、INRの表現力が向上し、異なる画像ブロックに対して特異な条件付けが提供される。
論文 参考訳(メタデータ) (2024-05-27T05:52:13Z) - Enhancing the Rate-Distortion-Perception Flexibility of Learned Image
Codecs with Conditional Diffusion Decoders [7.485128109817576]
本研究では,デコーダとして使用する場合,条件拡散モデルが生成圧縮タスクにおいて有望な結果をもたらすことを示す。
本稿では,デコーダとして使用する場合,条件拡散モデルが生成圧縮タスクにおいて有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-05T11:48:35Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - Deep Lossy Plus Residual Coding for Lossless and Near-lossless Image
Compression [85.93207826513192]
本稿では、損失のない画像圧縮とほぼロスレス画像圧縮の両面において、統合された強力な深い損失+残差(DLPR)符号化フレームワークを提案する。
VAEのアプローチにおける連立損失と残留圧縮の問題を解く。
ほぼロスレスモードでは、元の残差を量子化し、与えられた$ell_infty$エラー境界を満たす。
論文 参考訳(メタデータ) (2022-09-11T12:11:56Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Enhanced Invertible Encoding for Learned Image Compression [40.21904131503064]
本稿では,改良されたインバーチブルを提案する。
非可逆ニューラルネットワーク(INN)によるネットワークは、情報損失問題を大幅に軽減し、圧縮性を向上する。
Kodak, CLIC, Tecnick のデータセットによる実験結果から,本手法は既存の学習画像圧縮法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-08T17:32:10Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Learning Better Lossless Compression Using Lossy Compression [100.50156325096611]
我々は、ロスレス画像圧縮システムを構築するために、強力なロスレス画像圧縮アルゴリズムであるBPGを利用する。
我々は,BPG再構成を条件とした畳み込みニューラルネットワークに基づく確率モデルを用いて,残差分布をモデル化する。
そして、この画像は、BPGが生成したビットストリームと学習した残留コーダの連結を用いて保存される。
論文 参考訳(メタデータ) (2020-03-23T11:21:52Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。