論文の概要: An Empirical Study on GANs with Margin Cosine Loss and Relativistic
Discriminator
- arxiv url: http://arxiv.org/abs/2110.11293v2
- Date: Fri, 22 Oct 2021 02:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 11:31:13.005803
- Title: An Empirical Study on GANs with Margin Cosine Loss and Relativistic
Discriminator
- Title(参考訳): マージンコサイン損失と相対論的判別器を有するGANの実証的研究
- Authors: Cuong V. Nguyen, Tien-Dung Cao, Tram Truong-Huu, Khanh N. Pham, Binh
T. Nguyen
- Abstract要約: 我々は新しい損失関数、すなわち相対論的Margin Cosine Loss(RMCosGAN)を導入する。
本稿では,RCCosGANの性能と既存の損失関数を比較する。
実験の結果,RCCosGANは既存の画像よりも優れており,画像の品質が著しく向上していることがわかった。
- 参考スコア(独自算出の注目度): 4.899818550820575
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative Adversarial Networks (GANs) have emerged as useful generative
models, which are capable of implicitly learning data distributions of
arbitrarily complex dimensions. However, the training of GANs is empirically
well-known for being highly unstable and sensitive. The loss functions of both
the discriminator and generator concerning their parameters tend to oscillate
wildly during training. Different loss functions have been proposed to
stabilize the training and improve the quality of images generated. In this
paper, we perform an empirical study on the impact of several loss functions on
the performance of standard GAN models, Deep Convolutional Generative
Adversarial Networks (DCGANs). We introduce a new improvement that employs a
relativistic discriminator to replace the classical deterministic discriminator
in DCGANs and implement a margin cosine loss function for both the generator
and discriminator. This results in a novel loss function, namely Relativistic
Margin Cosine Loss (RMCosGAN). We carry out extensive experiments with four
datasets: CIFAR-$10$, MNIST, STL-$10$, and CAT. We compare RMCosGAN performance
with existing loss functions based on two metrics: Frechet inception distance
and inception score. The experimental results show that RMCosGAN outperforms
the existing ones and significantly improves the quality of images generated.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、任意の複雑な次元のデータ分布を暗黙的に学習できる有用な生成モデルとして登場した。
しかし、gansの訓練は非常に不安定で敏感なことで実証的に知られている。
判別器とジェネレータのパラメータに関する損失関数は、訓練中に大きく振動する傾向がある。
トレーニングを安定させ、画像の品質を向上させるために異なる損失関数が提案されている。
本稿では,複数の損失関数が標準GANモデル,Deep Convolutional Generative Adversarial Networks (DCGANs)の性能に与える影響について実証的研究を行う。
本稿では,DCGANにおける古典的決定論的判別器の代替として相対論的判別器を用いた新たな改良手法を提案する。
この結果、Relativistic Margin Cosine Loss (RMCosGAN)と呼ばれる新しい損失関数が生じる。
CIFAR-$10$、MNIST、STL-$10$、CATの4つのデータセットで広範な実験を行う。
rmcosganの性能を,frechetインセプション距離とインセプションスコアの2つの指標に基づいて既存のロス関数と比較した。
実験の結果,RCCosGANは既存の画像よりも優れており,画像の品質が著しく向上していることがわかった。
関連論文リスト
- GANetic Loss for Generative Adversarial Networks with a Focus on Medical Applications [0.0]
GAN(Generative Adversarial Network)は、あるデータセットの基盤となる統計構造を推定するために使用される機械学習モデルである。
生成モデルの性能と安定性を向上させるために、様々な損失関数が提案されている。
本研究では,GANの損失関数設計を遺伝的プログラミング(GP)手法を用いた最適化問題として提示する。
論文 参考訳(メタデータ) (2024-06-07T15:43:29Z) - MCGAN: Enhancing GAN Training with Regression-Based Generator Loss [5.7645234295847345]
高忠実度データを生成する強力なツールとして,GAN(Adversarial Network)が登場している。
我々はモンテカルロガン(MCGAN)と呼ばれるアルゴリズムを提案する。
このアプローチは、革新的生成損失関数、すなわち回帰損失を利用して、回帰タスクとしてジェネレータトレーニングを再構成する。
本手法は, 有効発電機訓練のために, 判別器に弱い条件を必要とすることを示す。
論文 参考訳(メタデータ) (2024-05-27T14:15:52Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Adaptive Weighted Discriminator for Training Generative Adversarial
Networks [11.68198403603969]
本稿では,実物と偽物の重み付けを取り入れた新たな識別器損失関数群を提案する。
本手法は実部と偽部の合計である損失を持つ任意の判別器モデルに適用できる可能性がある。
論文 参考訳(メタデータ) (2020-12-05T23:55:42Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - Least $k$th-Order and R\'{e}nyi Generative Adversarial Networks [12.13405065406781]
実験結果から,MNISTデータセットとCelebAデータセットに適用した損失関数は,それぞれ$k$と$alpha$のパラメータによって提供される余分な自由度により,性能上のメリットが期待できることがわかった。
本研究は GAN に適用されているが,提案手法は汎用的であり,情報理論の他の応用例,例えば人工知能における公正性やプライバシの問題などに応用することができる。
論文 参考訳(メタデータ) (2020-06-03T18:44:05Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。