論文の概要: Improving Inference for Neural Image Compression
- arxiv url: http://arxiv.org/abs/2006.04240v4
- Date: Fri, 8 Jan 2021 08:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:55:00.687000
- Title: Improving Inference for Neural Image Compression
- Title(参考訳): ニューラルイメージ圧縮の推論の改善
- Authors: Yibo Yang, Robert Bamler, Stephan Mandt
- Abstract要約: State-of-the-art method build on Hierarchical variational autoencoders to predict a compressible latent representation of each data point。
従来の手法では性能を制限した3つの近似ギャップを同定する。
本稿では,これら3つの制約のそれぞれについて,反復的推論に関する考え方に基づく対策を提案する。
- 参考スコア(独自算出の注目度): 31.999462074510305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of lossy image compression with deep latent variable
models. State-of-the-art methods build on hierarchical variational autoencoders
(VAEs) and learn inference networks to predict a compressible latent
representation of each data point. Drawing on the variational inference
perspective on compression, we identify three approximation gaps which limit
performance in the conventional approach: an amortization gap, a discretization
gap, and a marginalization gap. We propose remedies for each of these three
limitations based on ideas related to iterative inference, stochastic annealing
for discrete optimization, and bits-back coding, resulting in the first
application of bits-back coding to lossy compression. In our experiments, which
include extensive baseline comparisons and ablation studies, we achieve new
state-of-the-art performance on lossy image compression using an established
VAE architecture, by changing only the inference method.
- Abstract(参考訳): 遅延可変モデルを用いた画像圧縮の損失問題について考察する。
state-of-the-artメソッドは階層的変分オートエンコーダ(vaes)に基づいて構築され、各データポイントの圧縮可能な潜在表現を予測する推論ネットワークを学習する。
圧縮に関する変分推論の視点から,従来の手法での性能を制限する3つの近似ギャップ,すなわち不定形化ギャップ,離散化ギャップ,限界化ギャップを同定した。
本稿では, 反復推論, 離散最適化のための確率的アニーリング, ビットバック符号化の3つの制約をそれぞれ考慮し, ビットバック符号化を損失圧縮に初めて適用する手法を提案する。
そこで本研究では,提案手法のみを変更することにより,確立したvaeアーキテクチャを用いた画像圧縮における新たな最先端性能を実現する。
関連論文リスト
- A Rate-Distortion-Classification Approach for Lossy Image Compression [0.0]
損失画像圧縮では、画像を特定のビットレートに圧縮しながら、最小限の信号歪みを実現する。
画像圧縮と視覚解析のギャップを埋めるために、損失画像圧縮のためのRDCモデルを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:11:36Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - JND-Based Perceptual Optimization For Learned Image Compression [42.822121565430926]
学習画像圧縮方式におけるJNDに基づく知覚品質損失を提案する。
提案手法は,同じビットレートのベースラインモデルよりも知覚品質が向上したことを示す。
論文 参考訳(メタデータ) (2023-02-25T14:49:09Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Post-Training Quantization for Cross-Platform Learned Image Compression [15.67527732099067]
学習した画像圧縮が従来の画像符号化技術より優れていることが確認されている。
考慮すべき最も重要な問題の1つは、非決定論的計算である。
本稿では,学習後量子化の導入によってこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-02-15T15:41:12Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - High-Fidelity Generative Image Compression [39.04379573099481]
そこで我々は, ジェネリック・アドリアル・ネットワークと学習圧縮を併用して, 最先端の縮退型圧縮システムを得る方法について検討した。
特に,正規化レイヤ,ジェネレータおよび識別器アーキテクチャ,トレーニング戦略,知覚的損失について検討する。
論文 参考訳(メタデータ) (2020-06-17T16:21:10Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。