論文の概要: Selectively increasing the diversity of GAN-generated samples
- arxiv url: http://arxiv.org/abs/2207.01561v3
- Date: Thu, 22 Jun 2023 19:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 14:54:41.515939
- Title: Selectively increasing the diversity of GAN-generated samples
- Title(参考訳): GAN生成試料の多様性を選択的に増大させる
- Authors: Jan Dubi\'nski, Kamil Deja, Sandro Wenzel, Przemys{\l}aw Rokita,
Tomasz Trzci\'nski
- Abstract要約: 本稿では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
本研究では,CERN における ALICE 実験のZero Degree Calorimeter から得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
- 参考スコア(独自算出の注目度): 8.980453507536017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) are powerful models able to synthesize
data samples closely resembling the distribution of real data, yet the
diversity of those generated samples is limited due to the so-called mode
collapse phenomenon observed in GANs. Especially prone to mode collapse are
conditional GANs, which tend to ignore the input noise vector and focus on the
conditional information. Recent methods proposed to mitigate this limitation
increase the diversity of generated samples, yet they reduce the performance of
the models when similarity of samples is required. To address this shortcoming,
we propose a novel method to selectively increase the diversity of
GAN-generated samples. By adding a simple, yet effective regularization to the
training loss function we encourage the generator to discover new data modes
for inputs related to diverse outputs while generating consistent samples for
the remaining ones. More precisely, we maximise the ratio of distances between
generated images and input latent vectors scaling the effect according to the
diversity of samples for a given conditional input. We show the superiority of
our method in a synthetic benchmark as well as a real-life scenario of
simulating data from the Zero Degree Calorimeter of ALICE experiment in LHC,
CERN.
- Abstract(参考訳): generative adversarial network (gans) は、実データ分布によく似たデータサンプルを合成できる強力なモデルであるが、gansで観測されるモード崩壊現象によって生成されたサンプルの多様性は限られている。
特にモード崩壊の傾向は条件付きGANであり、入力ノイズベクトルを無視して条件情報に集中する傾向がある。
この制限を緩和する最近の手法は、生成したサンプルの多様性を高めるが、サンプルの類似性が必要な場合、モデルの性能を低下させる。
そこで本研究では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
トレーニング損失関数にシンプルで効果的な正規化を加えることで、生成元は多様な出力に関連する入力の新しいデータモードを発見し、残りのデータに対して一貫性のあるサンプルを生成することを推奨します。
より正確には、与えられた条件付き入力に対するサンプルの多様性に応じて効果をスケールする入力潜在ベクトルと生成画像間の距離の比率を最大化する。
LHC,CERNにおけるALICE実験のZero Degree Calorimeterから得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
関連論文リスト
- CCS: Controllable and Constrained Sampling with Diffusion Models via Initial Noise Perturbation [9.12693573953231]
生成出力の変化と初期雑音摂動のスケールの関係は拡散ODEサンプリングにより非常に線形である。
そこで我々は,新しい制御可能・制約付きサンプリング法 (CCS) と,所望の統計特性を持つ拡散モデルに対する新しい制御アルゴリズムを提案する。
その結果, CCS法は, 優れた試料品質と多様性を維持しつつ, より精密にサンプリングを制御できることが示唆された。
論文 参考訳(メタデータ) (2025-02-07T05:30:48Z) - A New Formulation of Lipschitz Constrained With Functional Gradient Learning for GANs [52.55025869932486]
本稿では,大規模データセット上でGAN(Generative Adversarial Networks)のトレーニングを行うための有望な代替手法を提案する。
本稿では,GANの学習を安定させるために,Lipschitz-Constrained Functional Gradient GANs Learning (Li-CFG)法を提案する。
判別器勾配のノルムを増大させることにより、潜在ベクトルの近傍サイズを小さくすることができることを示す。
論文 参考訳(メタデータ) (2025-01-20T02:48:07Z) - Diverse Rare Sample Generation with Pretrained GANs [24.227852798611025]
本研究では,GANを事前学習した高解像度画像データセットから多様な希少サンプルを生成する手法を提案する。
提案手法は,多目的フレームワーク内での遅延ベクトルの勾配に基づく最適化と,特徴空間上の密度推定に正規化フローを利用する。
これにより、レア画像の生成が可能となり、レアリティ、多様性、参照画像との類似性の制御可能なパラメータが提供される。
論文 参考訳(メタデータ) (2024-12-27T09:10:30Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Refining Deep Generative Models via Discriminator Gradient Flow [18.406499703293566]
判別器グラディエントフロー (DGflow) は, エントロピー規則化されたf-ディバージェンスの勾配流を介して生成したサンプルを改善する新しい手法である。
DGflowは, 様々な生成モデルに対して, 生成したサンプルの品質を著しく向上させることを示す。
論文 参考訳(メタデータ) (2020-12-01T19:10:15Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。