論文の概要: On Perceptual Lossy Compression: The Cost of Perceptual Reconstruction
and An Optimal Training Framework
- arxiv url: http://arxiv.org/abs/2106.02782v1
- Date: Sat, 5 Jun 2021 02:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:40:06.604617
- Title: On Perceptual Lossy Compression: The Cost of Perceptual Reconstruction
and An Optimal Training Framework
- Title(参考訳): 知覚障害圧縮について:知覚再構成のコストと最適トレーニングフレームワーク
- Authors: Zeyu Yan, Fei Wen, Rendong Ying, Chao Ma, and Peilin Liu
- Abstract要約: 完全知覚品質を達成するためのコストは、達成可能なMSE歪みの2倍であることを示す。
完全知覚制約下で最小のMSE歪みを与えられたビットレートで達成するための新しいトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.13586501618741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lossy compression algorithms are typically designed to achieve the lowest
possible distortion at a given bit rate. However, recent studies show that
pursuing high perceptual quality would lead to increase of the lowest
achievable distortion (e.g., MSE). This paper provides nontrivial results
theoretically revealing that, \textit{1}) the cost of achieving perfect
perception quality is exactly a doubling of the lowest achievable MSE
distortion, \textit{2}) an optimal encoder for the "classic" rate-distortion
problem is also optimal for the perceptual compression problem, \textit{3})
distortion loss is unnecessary for training a perceptual decoder. Further, we
propose a novel training framework to achieve the lowest MSE distortion under
perfect perception constraint at a given bit rate. This framework uses a GAN
with discriminator conditioned on an MSE-optimized encoder, which is superior
over the traditional framework using distortion plus adversarial loss.
Experiments are provided to verify the theoretical finding and demonstrate the
superiority of the proposed training framework.
- Abstract(参考訳): 損失圧縮アルゴリズムは通常、与えられたビットレートで最小の歪みを達成するために設計される。
しかし、近年の研究では、高い知覚品質の追求が達成可能な最低歪み(MSEなど)の増加につながることが示されている。
本稿では, 完全知覚品質を達成するためのコストが, 達成可能なMSE歪みの2倍であること, 古典的な速度歪み問題に対する最適エンコーダが知覚的圧縮問題に最適であること, 歪み損失が知覚的デコーダの訓練に不要であること, を理論的に明らかにする。
さらに,完全知覚制約下で最小のMSE歪みを与えられたビットレートで達成するための新しいトレーニングフレームワークを提案する。
このフレームワークは、MSE最適化エンコーダに規定された識別器を備えたGANを使用し、歪みと逆方向の損失を用いた従来のフレームワークよりも優れている。
提案したトレーニングフレームワークの理論的発見と優位性を検証するための実験が提供されている。
関連論文リスト
- Once-for-All: Controllable Generative Image Compression with Dynamic Granularity Adaption [57.056311855630916]
本稿では,制御可能な生成画像圧縮フレームワークである制御-GICを提案する。
高忠実度および一般性圧縮を確保しつつ、広帯域での微粒化適応を可能にする。
我々は、歴史的符号化された多粒度表現に遡ることができる条件条件付き条件付けを開発する。
論文 参考訳(メタデータ) (2024-06-02T14:22:09Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Optimally Controllable Perceptual Lossy Compression [16.208548355509127]
損失圧縮の最近の研究は、歪みと知覚品質が互いに相反していることを示している。
異なる知覚品質を得るためには、異なるデコーダをトレーニングする必要がある。
任意のD-Pトレードオフを最適に達成できるデコーダは2つしかないという非自明な発見を示す。
論文 参考訳(メタデータ) (2022-06-21T02:48:35Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Optimal Rate Adaption in Federated Learning with Compressed
Communications [28.16239232265479]
フェデレートラーニングは高い通信オーバーヘッドを引き起こし、モデル更新の圧縮によって大幅に軽減される。
ネットワーク環境における 圧縮とモデルの精度のトレードオフは 未だ不明です
各繰り返しの圧縮を戦略的に調整することで最終モデルの精度を最大化する枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-13T14:26:15Z) - Universal Rate-Distortion-Perception Representations for Lossy
Compression [31.28856752892628]
我々は、エンコーダを固定し、デコーダを変更して歪みや知覚制約の集合内の任意の点を達成できる普遍表現の概念を考える。
対応する情報理論の普遍的速度歪曲知覚が、近似的な意味で操作可能であることを証明した。
論文 参考訳(メタデータ) (2021-06-18T18:52:08Z) - Substitutional Neural Image Compression [48.20906717052056]
置換型ニューラルイメージ圧縮(snic)は、あらゆるニューラルイメージ圧縮モデルを強化する一般的なアプローチである。
フレキシブルな歪みメトリックに向けて圧縮性能を高め、単一のモデルインスタンスを使用したビットレート制御を可能にする。
論文 参考訳(メタデータ) (2021-05-16T20:53:31Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - Perceptually Optimizing Deep Image Compression [53.705543593594285]
平均二乗誤差(MSE)と$ell_p$ノルムは、ニューラルネットワークの損失の測定で大きく支配されている。
本稿では,定量的知覚モデルに対して,画像解析ネットワークを最適化するための異なるプロキシ手法を提案する。
論文 参考訳(メタデータ) (2020-07-03T14:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。