論文の概要: Lossy Image Compression with Normalizing Flows
- arxiv url: http://arxiv.org/abs/2008.10486v1
- Date: Mon, 24 Aug 2020 14:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:08:56.239844
- Title: Lossy Image Compression with Normalizing Flows
- Title(参考訳): 正規化流による損失画像圧縮
- Authors: Leonhard Helminger, Abdelaziz Djelouah, Markus Gross, Christopher
Schroers
- Abstract要約: ディープ・イメージ・圧縮のための最先端のソリューションは、通常、入力を低次元の潜在空間にマッピングするオートエンコーダを用いる。
対照的に、画像圧縮における従来のアプローチは、より幅広い品質レベルを実現する。
- 参考スコア(独自算出の注目度): 19.817005399746467
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning based image compression has recently witnessed exciting
progress and in some cases even managed to surpass transform coding based
approaches that have been established and refined over many decades. However,
state-of-the-art solutions for deep image compression typically employ
autoencoders which map the input to a lower dimensional latent space and thus
irreversibly discard information already before quantization. Due to that, they
inherently limit the range of quality levels that can be covered. In contrast,
traditional approaches in image compression allow for a larger range of quality
levels. Interestingly, they employ an invertible transformation before
performing the quantization step which explicitly discards information.
Inspired by this, we propose a deep image compression method that is able to go
from low bit-rates to near lossless quality by leveraging normalizing flows to
learn a bijective mapping from the image space to a latent representation. In
addition to this, we demonstrate further advantages unique to our solution,
such as the ability to maintain constant quality results through re-encoding,
even when performed multiple times. To the best of our knowledge, this is the
first work to explore the opportunities for leveraging normalizing flows for
lossy image compression.
- Abstract(参考訳): ディープラーニングベースの画像圧縮は最近、エキサイティングな進歩を目の当たりにしており、何十年にもわたって確立され洗練されてきたトランスフォーメーションコーディングベースのアプローチを乗り越えることさえある。
しかし、深部画像圧縮の最先端のソリューションでは、入力を低次元の潜在空間にマッピングするオートエンコーダが用いられるため、量子化前には不可逆的に情報を破棄する。
そのため、それらは本質的にカバー可能な品質レベルの範囲を制限します。
対照的に、画像圧縮における従来のアプローチは、より幅広い品質レベルを実現する。
興味深いことに、彼らは情報を捨てる量子化ステップを実行する前に、可逆変換を採用する。
そこで本研究では,画像空間から潜在表現への単射写像を学習するために正規化フローを活用し,低ビットレートからほぼロスレス品質に到達可能な深部画像圧縮手法を提案する。
これに加えて,複数回実行した場合でも,再エンコーディングによって一定の品質を維持できるなど,ソリューション特有のメリットも示しています。
我々の知る限りでは、これは損失のある画像圧縮のために正規化フローを利用する機会を探求する最初の試みである。
関連論文リスト
- DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding [27.875207681547074]
プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としている。
ニューラルネットワーク(NN)に基づくPICの研究は、その初期段階にある。
本稿では,まず,学習した量子化ステップサイズを各量子化レイヤの学習により活用するNNベースのプログレッシブコーディング手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T06:32:53Z) - HybridFlow: Infusing Continuity into Masked Codebook for Extreme Low-Bitrate Image Compression [51.04820313355164]
HyrbidFlowは、連続的な機能ベースのストリームとコードブックベースのストリームを組み合わせることで、極めて低い条件下で高い知覚品質と高い忠実性を実現する。
実験の結果、超低速で複数のデータセットにまたがる優れた性能が示された。
論文 参考訳(メタデータ) (2024-04-20T13:19:08Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - Multiscale Augmented Normalizing Flows for Image Compression [17.441496966834933]
本稿では,非可逆潜在変数モデルである拡張正規化フローに対して,階層的潜在空間を適応させる新しい概念を提案する。
私たちの最高のパフォーマンスモデルは、比較対象のシングルスケールモデルよりも7%以上、平均的なコスト削減を実現しました。
論文 参考訳(メタデータ) (2023-05-09T13:42:43Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Enhanced Invertible Encoding for Learned Image Compression [40.21904131503064]
本稿では,改良されたインバーチブルを提案する。
非可逆ニューラルネットワーク(INN)によるネットワークは、情報損失問題を大幅に軽減し、圧縮性を向上する。
Kodak, CLIC, Tecnick のデータセットによる実験結果から,本手法は既存の学習画像圧縮法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-08T17:32:10Z) - How to Exploit the Transferability of Learned Image Compression to
Conventional Codecs [25.622863999901874]
本稿では,学習した画像の符号化をサロゲートとして利用して,画像の符号化を最適化する方法を示す。
提案手法は,MS-SSIM歪みをデコードオーバーヘッドを伴わずに20%以上の速度改善で補正するために,従来の画像を再構成することができる。
論文 参考訳(メタデータ) (2020-12-03T12:34:51Z) - Early Exit or Not: Resource-Efficient Blind Quality Enhancement for
Compressed Images [54.40852143927333]
ロスシー画像圧縮は、通信帯域を節約するために広範に行われ、望ましくない圧縮アーティファクトをもたらす。
圧縮画像に対する資源効率の高いブラインド品質向上手法(RBQE)を提案する。
提案手法は, 評価された画像の品質に応じて, 自動的にエンハンスメントを終了するか, 継続するかを決定することができる。
論文 参考訳(メタデータ) (2020-06-30T07:38:47Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。