論文の概要: Noise Dimension of GAN: An Image Compression Perspective
- arxiv url: http://arxiv.org/abs/2403.09196v1
- Date: Thu, 14 Mar 2024 09:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 21:16:56.391955
- Title: Noise Dimension of GAN: An Image Compression Perspective
- Title(参考訳): GANのノイズ次元:画像圧縮の観点から
- Authors: Ziran Zhu, Tongda Xu, Ling Li, Yan Wang,
- Abstract要約: GAN(Generative Adversial Network)は、高次元ノイズをターゲット分布のサンプルにマッピングする生成モデルの一種である。
以前のアプローチでは、GANは連続分布から別の連続分布への写像であると見なされていた。
本稿では,GANを離散サンプリングとして扱うことを提案する。
- 参考スコア(独自算出の注目度): 8.220314901087683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversial network (GAN) is a type of generative model that maps a high-dimensional noise to samples in target distribution. However, the dimension of noise required in GAN is not well understood. Previous approaches view GAN as a mapping from a continuous distribution to another continous distribution. In this paper, we propose to view GAN as a discrete sampler instead. From this perspective, we build a connection between the minimum noise required and the bits to losslessly compress the images. Furthermore, to understand the behaviour of GAN when noise dimension is limited, we propose divergence-entropy trade-off. This trade-off depicts the best divergence we can achieve when noise is limited. And as rate distortion trade-off, it can be numerically solved when source distribution is known. Finally, we verifies our theory with experiments on image generation.
- Abstract(参考訳): GAN(Generative Adversial Network)は、高次元ノイズをターゲット分布のサンプルにマッピングする生成モデルの一種である。
しかし、GANで要求されるノイズの次元はよく理解されていない。
以前のアプローチでは、GANは連続分布から別の連続分布への写像であると見なされていた。
本稿では,GANを離散サンプリングとして扱うことを提案する。
この観点から、最小ノイズとビット間の接続を構築し、画像のロスレス圧縮を行う。
さらに,ノイズ次元が限られている場合のGANの挙動を理解するために,分散エントロピートレードオフを提案する。
このトレードオフは、ノイズが制限されたときに達成できる最高の分散を描いています。
また、速度歪みトレードオフとして、ソース分布が分かっていれば数値的に解ける。
最後に,この理論を画像生成実験で検証する。
関連論文リスト
- Glauber Generative Model: Discrete Diffusion Models via Binary Classification [21.816933208895843]
離散拡散モデルの新しいクラスであるグラウバー生成モデル(GGM)を紹介する。
GGMはマルコフ連鎖を展開させ、離散トークンの共分散からサンプルにノイズトークンの列を分解する。
言語生成や画像生成において,既存の離散拡散モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-27T10:42:13Z) - NoiseDiffusion: Correcting Noise for Image Interpolation with Diffusion Models beyond Spherical Linear Interpolation [86.7260950382448]
画像の妥当性を補正する新しい手法としてノイズ拡散法を提案する。
NoiseDiffusionはノイズの多い画像空間内で動作し、これらのノイズの多い画像に生画像を注入することで、情報損失の課題に対処する。
論文 参考訳(メタデータ) (2024-03-13T12:32:25Z) - A Variational Perspective on Solving Inverse Problems with Diffusion
Models [101.831766524264]
逆タスクは、データ上の後続分布を推測するものとして定式化することができる。
しかし、拡散過程の非線形的かつ反復的な性質が後部を引き付けるため、拡散モデルではこれは困難である。
そこで我々は,真の後続分布を近似する設計手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T23:00:47Z) - Boomerang: Local sampling on image manifolds using diffusion models [21.54901447135763]
本稿では,画像多様体の局所サンプリング手法であるBoomerangを提案する。
生成された画像はある程度の知覚性を示し、多様体から局所的なサンプルを得ることができる。
本稿では,データ拡張にBoomerangを用いることにより,データ拡張の性能が向上し,合成データ拡張に優れることを示す。
論文 参考訳(メタデータ) (2022-10-21T16:52:16Z) - PoGaIN: Poisson-Gaussian Image Noise Modeling from Paired Samples [9.22047303381213]
ペア画像を用いたポアソン・ガウス雑音モデルのための新しい累積的アプローチを導出する。
MSE, アウトレーヤの効果, 画像依存性, バイアスに着目し, 異なるベースライン上での性能向上を示す。
論文 参考訳(メタデータ) (2022-10-10T17:34:49Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - A Theory of the Distortion-Perception Tradeoff in Wasserstein Space [35.25746003630763]
推定器の歪みを下げると、その出力の分布は、推定しようとする信号の分布から逸脱する。
この現象は画像修復において顕著な関心を集めており、真理画像の忠実さは知覚品質の犠牲となる。
知覚歪トレードオフの2つの極端における推定器から推定器をどのように構築できるかを示す。
論文 参考訳(メタデータ) (2021-07-06T11:53:36Z) - Unsupervised Single Image Super-resolution Under Complex Noise [60.566471567837574]
本稿では,一般のSISRタスクを未知の劣化で扱うためのモデルベースunsupervised SISR法を提案する。
提案手法は, より小さなモデル (0.34M vs. 2.40M) だけでなく, より高速な技術 (SotA) 法 (約1dB PSNR) の現況を明らかに超えることができる。
論文 参考訳(メタデータ) (2021-07-02T11:55:40Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z) - On Noise Injection in Generative Adversarial Networks [85.51169466453646]
ノイズ注入は高忠実度画像の生成における重要な技術のひとつであることが証明されている。
GANにおけるノイズ注入の役割を理論的に解析するための幾何学的枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:24:48Z) - Optimizing Generative Adversarial Networks for Image Super Resolution
via Latent Space Regularization [4.529132742139768]
GAN(Generative Adversarial Networks)は、多様体内の実画像の分布を学習し、実際のように見えるサンプルを生成する。
本稿では,これらの問題を教師付きGANに対して緩和する方法を探究する。
論文 参考訳(メタデータ) (2020-01-22T16:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。