論文の概要: End-to-end optimized image compression with competition of prior
distributions
- arxiv url: http://arxiv.org/abs/2111.09172v1
- Date: Wed, 17 Nov 2021 15:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:22:20.634321
- Title: End-to-end optimized image compression with competition of prior
distributions
- Title(参考訳): 先行分布の競合によるエンドツーエンド最適化画像圧縮
- Authors: Benoit Brummer and Christophe De Vleeschouwer
- Abstract要約: 本稿では,単一の畳み込みオートエンコーダと学習前の複数分布を用いた圧縮方式を提案する。
提案手法は, 予め予測したパラメトリケート値に匹敵する速度歪み特性を示す。
- 参考スコア(独自算出の注目度): 29.585370305561582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional autoencoders are now at the forefront of image compression
research. To improve their entropy coding, encoder output is typically analyzed
with a second autoencoder to generate per-variable parametrized prior
probability distributions. We instead propose a compression scheme that uses a
single convolutional autoencoder and multiple learned prior distributions
working as a competition of experts. Trained prior distributions are stored in
a static table of cumulative distribution functions. During inference, this
table is used by an entropy coder as a look-up-table to determine the best
prior for each spatial location. Our method offers rate-distortion performance
comparable to that obtained with a predicted parametrized prior with only a
fraction of its entropy coding and decoding complexity.
- Abstract(参考訳): 畳み込みオートエンコーダは現在、画像圧縮研究の最前線にある。
エントロピー符号化を改善するため、エントロピー出力は通常、第2オートエンコーダで解析され、変数ごとのパラメータ付き事前確率分布を生成する。
代わりに、1つの畳み込みオートエンコーダと複数の学習前の分布を専門家の競争として使用する圧縮スキームを提案する。
トレーニング済みの事前分布は累積分布関数の静的テーブルに格納される。
推論中、このテーブルはエントロピーコーダによってルックアップテーブルとして使われ、各空間位置の最適な事前を決定する。
提案手法は, エントロピー符号化と復号化の複雑さをわずかに抑えながら, パラメトリケート前の予測値に匹敵する速度歪み性能を提供する。
関連論文リスト
- Learned Compression of Encoding Distributions [1.4732811715354455]
エントロピーボトルネックは多くの学習された圧縮モデルで使用される共通成分である。
特定の入力に対する潜在データ分布と一致するように符号化分布を適応させる手法を提案する。
提案手法は,Kodakテストデータセット上でのBjontegaard-Delta(BD)レートの7.10%向上を実現する。
論文 参考訳(メタデータ) (2024-06-18T21:05:51Z) - Correcting Diffusion-Based Perceptual Image Compression with Privileged End-to-End Decoder [49.01721042973929]
本稿では,特権付きエンド・ツー・エンド・エンド・デコーダ・モデルを用いた拡散型画像圧縮法を提案する。
従来の知覚圧縮法と比較して,歪みと知覚の両方において,本手法の優位性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-07T10:57:54Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Entroformer: A Transformer-based Entropy Model for Learned Image
Compression [17.51693464943102]
本稿では,確率分布推定における長距離依存性を捉えるために,トランスフォーマを用いたエントロピーモデルEntroformerを提案する。
実験の結果,Entroformerは時間効率を保ちながら,画像圧縮の最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-02-11T08:03:31Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - End-to-End Image Compression with Probabilistic Decoding [31.38636002751645]
確率的復号化を支援するための学習画像圧縮フレームワークを提案する。
提案するフレームワークは、画素を係数に変換するための可逆ニューラルネットワークベースの変換に依存する。
論文 参考訳(メタデータ) (2021-09-30T04:07:09Z) - Sequential Encryption of Sparse Neural Networks Toward Optimum
Representation of Irregular Sparsity [9.062897838978955]
固定固定型暗号アーキテクチャ/アルゴリズムについて検討し, きめ細かいプルーニング法をサポートする。
本提案の圧縮方式はトランスとResNet-50の最大圧縮比を達成できることを実証した。
論文 参考訳(メタデータ) (2021-05-05T05:14:50Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Learning Better Lossless Compression Using Lossy Compression [100.50156325096611]
我々は、ロスレス画像圧縮システムを構築するために、強力なロスレス画像圧縮アルゴリズムであるBPGを利用する。
我々は,BPG再構成を条件とした畳み込みニューラルネットワークに基づく確率モデルを用いて,残差分布をモデル化する。
そして、この画像は、BPGが生成したビットストリームと学習した残留コーダの連結を用いて保存される。
論文 参考訳(メタデータ) (2020-03-23T11:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。