論文の概要: Stabilization of generative adversarial networks via noisy scale-space
- arxiv url: http://arxiv.org/abs/2105.00220v2
- Date: Tue, 4 May 2021 01:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 11:47:53.876853
- Title: Stabilization of generative adversarial networks via noisy scale-space
- Title(参考訳): 雑音スケール空間による生成逆ネットワークの安定化
- Authors: Kensuke Nakamura and Simon Korman and Byung-Woo Hong
- Abstract要約: Generative adversarial Network(GAN)は、与えられた現実に基づいて偽のデータを生成するためのフレームワークです。
GANを安定化させるために、ノイズは実と偽の分布の重なりを拡大する。
データ平滑化はデータの寸法を減少させるが、ganが高周波情報を学習する能力を抑制する。
- 参考スコア(独自算出の注目度): 6.574517227976925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial networks (GAN) is a framework for generating fake data
based on given reals but is unstable in the optimization. In order to stabilize
GANs, the noise enlarges the overlap of the real and fake distributions at the
cost of significant variance. The data smoothing may reduce the dimensionality
of data but suppresses the capability of GANs to learn high-frequency
information. Based on these observations, we propose a data representation for
GANs, called noisy scale-space, that recursively applies the smoothing with
noise to data in order to preserve the data variance while replacing
high-frequency information by random data, leading to a coarse-to-fine training
of GANs. We also present a synthetic data-set using the Hadamard bases that
enables us to visualize the true distribution of data. We experiment with a
DCGAN with the noise scale-space (NSS-GAN) using major data-sets in which
NSS-GAN overtook state-of-the-arts in most cases independent of the image
content.
- Abstract(参考訳): generative adversarial networks (gan) は、与えられた実数に基づく偽データを生成するフレームワークであるが、最適化では不安定である。
GANを安定させるために、ノイズは実と偽の分布の重なりを、大きなばらつきを犠牲にして拡大する。
データの平滑化はデータの次元性を低下させるが、GANが高周波情報を学ぶ能力を抑制する。
そこで本研究では,gansの周波数変動をランダムなデータに置き換えつつデータ分散を保ちながら,データにノイズの平滑化を再帰的に適用し,gansの粗大から細かなトレーニングを実現する,ノイズスケール空間と呼ばれるgansのデータ表現を提案する。
また,データの真の分布を可視化するアダマールベースを用いた合成データセットも提示する。
我々は,NSS-GANが画像の内容に依存しない場合の最先端の処理を行う主要なデータセットを用いて,ノイズスケール空間(NSS-GAN)を持つDCGANを実験した。
関連論文リスト
- Scaling-based Data Augmentation for Generative Models and its Theoretical Extension [2.449909275410288]
高品質なデータ生成が可能な生成モデルの安定学習法について検討する。
データスケーリングは、安定した学習と高品質なデータ生成の鍵となるコンポーネントである。
本稿では,データスケーリングと分散に基づく正規化を用いた学習アルゴリズムScale-GANを提案する。
論文 参考訳(メタデータ) (2024-10-28T06:41:19Z) - Reduced Effectiveness of Kolmogorov-Arnold Networks on Functions with Noise [9.492965765929963]
データセットのノイズは、Kolmogorov-Arnoldネットワークの性能を著しく低下させる。
ノイズの影響を軽減するため,重畳法と重畳法を組み合わせたオーバーサンプリング手法を提案する。
オーバーサンプリングとフィルタリングの両方の手法を適用することで、ノイズの有害な影響を低減できると結論付けている。
論文 参考訳(メタデータ) (2024-07-20T14:17:10Z) - SEMRes-DDPM: Residual Network Based Diffusion Modelling Applied to
Imbalanced Data [9.969882349165745]
データマイニングと機械学習の分野では、一般的に使われている分類モデルは、不均衡なデータで効果的に学習することはできない。
古典的なオーバーサンプリング手法の多くは、データのローカル情報のみに焦点を当てたSMOTE技術に基づいている。
本稿では,SEMRes-DDPMのオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T14:01:04Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - CFNet: Conditional Filter Learning with Dynamic Noise Estimation for
Real Image Denoising [37.29552796977652]
本稿では、カメラ内信号処理パイプラインを用いた異方性ガウス/ポアソンガウス分布によって近似された実雑音について考察する。
本稿では,特徴位置の異なる最適なカーネルを画像とノイズマップの局所的特徴により適応的に推定できる条件付きフィルタを提案する。
また,CNN構造にノイズ推定や非ブラインド復調を行う場合,反復的特徴復調を導出する前に連続的にノイズを更新すると考える。
論文 参考訳(メタデータ) (2022-11-26T14:28:54Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - GANs for learning from very high class conditional noisy labels [1.6516902135723865]
我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
論文 参考訳(メタデータ) (2020-10-19T15:01:11Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。