論文の概要: Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression
- arxiv url: http://arxiv.org/abs/2209.00964v1
- Date: Fri, 2 Sep 2022 11:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:21:02.501944
- Title: Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression
- Title(参考訳): エンド・ツー・エンド画像圧縮におけるエントロピーボトルネックのアモルティゼーションギャップ低減
- Authors: Muhammet Balcilar, Bharath Damodaran, Pierre Hellier
- Abstract要約: エンド・ツー・エンドのディープ・トレーニング可能なモデルは、ビデオや画像の従来の手作り圧縮技術の性能をほぼ上回っている。
本稿では,このアモート化ギャップを小さなコストで低減する,シンプルで効率的なインスタンスベースのパラメータ化手法を提案する。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: End-to-end deep trainable models are about to exceed the performance of the
traditional handcrafted compression techniques on videos and images. The core
idea is to learn a non-linear transformation, modeled as a deep neural network,
mapping input image into latent space, jointly with an entropy model of the
latent distribution. The decoder is also learned as a deep trainable network,
and the reconstructed image measures the distortion. These methods enforce the
latent to follow some prior distributions. Since these priors are learned by
optimization over the entire training set, the performance is optimal in
average. However, it cannot fit exactly on every single new instance, hence
damaging the compression performance by enlarging the bit-stream. In this
paper, we propose a simple yet efficient instance-based parameterization method
to reduce this amortization gap at a minor cost. The proposed method is
applicable to any end-to-end compressing methods, improving the compression
bitrate by 1% without any impact on the reconstruction quality.
- Abstract(参考訳): エンドツーエンドのディープラーニングモデルでは、ビデオや画像の従来の手作り圧縮技術のパフォーマンスを上回ろうとしている。
中心となる考え方は、ディープニューラルネットワークとしてモデル化された非線形変換を学習し、入力画像を潜時空間にマッピングし、潜時分布のエントロピーモデルと組み合わせることである。
デコーダは深い訓練可能なネットワークとしても学習され、再構成された画像は歪みを測定する。
これらの方法は、潜伏者がいくつかの先行分布に従うことを強制する。
これらの事前はトレーニングセット全体の最適化によって学習されるため、平均的なパフォーマンスは最適である。
しかし、新しいインスタンスごとに正確には適合しないため、ビットストリームを拡大することで圧縮性能を損なうことになる。
本稿では,この償却ギャップを小さく抑えるための,シンプルだが効率的なインスタンスベースのパラメータ化手法を提案する。
提案手法はいずれのエンドツーエンド圧縮にも適用可能であり, 圧縮ビットレートを1%向上する。
関連論文リスト
- Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Improving The Reconstruction Quality by Overfitted Decoder Bias in
Neural Image Compression [3.058685580689605]
本稿では,デコーダのバイアスのサブセットをインスタンスベースで微調整することで,余分な符号化時間とわずかな追加信号コストと引き換えに再構成品質を向上させることを提案する。
提案手法は,どのエンドツーエンド圧縮手法にも適用でき,最先端のニューラルイメージ圧縮BDレートを3-5%向上させることができる。
論文 参考訳(メタデータ) (2022-10-10T08:14:01Z) - Video Coding Using Learned Latent GAN Compression [1.6058099298620423]
ビデオの表現と圧縮にはStyleGANなどのGANの生成能力を活用する。
各フレームはStyleGANの潜在空間で反転され、そこから最適な圧縮が学習される。
論文 参考訳(メタデータ) (2022-07-09T19:07:43Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Learning True Rate-Distortion-Optimization for End-To-End Image
Compression [59.816251613869376]
速度歪みの最適化は、従来の画像圧縮とビデオ圧縮の重要な部分である。
本稿では,RDO結果の低複雑さ推定をトレーニングに導入することにより,トレーニングの強化を図る。
我々は以前のRDONetモデルに比べてMS-SSIMで平均19.6%のレートセーブを実現し、従来のディープイメージコーダに比べて27.3%のレートセーブを実現した。
論文 参考訳(メタデータ) (2022-01-05T13:02:00Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Low-rank Tensor Decomposition for Compression of Convolutional Neural
Networks Using Funnel Regularization [1.8579693774597708]
低ランクテンソル分解を用いた事前学習ネットワークを圧縮するモデル削減手法を提案する。
圧縮中の重要でない要因を抑えるために, ファンネル関数と呼ばれる新しい正規化法を提案する。
ImageNet2012のResNet18では、GMACの精度は0.7%に過ぎず、Top-1の精度はわずかに低下する。
論文 参考訳(メタデータ) (2021-12-07T13:41:51Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。