論文の概要: Adaptive Weighted Discriminator for Training Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2012.03149v1
- Date: Sat, 5 Dec 2020 23:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:02:39.711821
- Title: Adaptive Weighted Discriminator for Training Generative Adversarial
Networks
- Title(参考訳): 生成的逆ネットワーク訓練のための適応重み付き判別器
- Authors: Vasily Zadorozhnyy, Qiang Cheng, Qiang Ye
- Abstract要約: 本稿では,実物と偽物の重み付けを取り入れた新たな識別器損失関数群を提案する。
本手法は実部と偽部の合計である損失を持つ任意の判別器モデルに適用できる可能性がある。
- 参考スコア(独自算出の注目度): 11.68198403603969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial network (GAN) has become one of the most important
neural network models for classical unsupervised machine learning. A variety of
discriminator loss functions have been developed to train GAN's discriminators
and they all have a common structure: a sum of real and fake losses that only
depends on the actual and generated data respectively. One challenge associated
with an equally weighted sum of two losses is that the training may benefit one
loss but harm the other, which we show causes instability and mode collapse. In
this paper, we introduce a new family of discriminator loss functions that
adopts a weighted sum of real and fake parts, which we call adaptive weighted
loss functions or aw-loss functions. Using the gradients of the real and fake
parts of the loss, we can adaptively choose weights to train a discriminator in
the direction that benefits the GAN's stability. Our method can be potentially
applied to any discriminator model with a loss that is a sum of the real and
fake parts. Experiments validated the effectiveness of our loss functions on an
unconditional image generation task, improving the baseline results by a
significant margin on CIFAR-10, STL-10, and CIFAR-100 datasets in Inception
Scores and FID.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、従来の教師なし機械学習において最も重要なニューラルネットワークモデルのひとつとなっている。
ganの判別器を訓練するために様々な識別器損失関数が開発されており、それらはすべて共通の構造を持っている:実データと生成されたデータのみに依存する実データと偽データの合計である。
2つの損失の重み付けによる1つの課題は、トレーニングが1つの損失に恩恵を与えるが、もう1つの損失に害を与える可能性があることだ。
本稿では,実部品の重み付き和と偽部品の重み付き和を採用し,適応重み付き損失関数やaw損失関数と呼ぶ新しい判別器損失関数の族を提案する。
損失の現実的および偽的部分の勾配を用いて、GANの安定性の恩恵を受ける方向に判別器を訓練するために重量を適応的に選択することができる。
本手法は,実部品と偽部品の和である損失を持つ任意の判別器モデルに適用することができる。
CIFAR-10, STL-10, CIFAR-100データセットをインセプションスコアとFIDで有意差で改善し, 非条件画像生成タスクにおける損失関数の有効性を検証した。
関連論文リスト
- Noise-Robust Loss Functions: Enhancing Bounded Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - An Empirical Study on GANs with Margin Cosine Loss and Relativistic
Discriminator [4.899818550820575]
我々は新しい損失関数、すなわち相対論的Margin Cosine Loss(RMCosGAN)を導入する。
本稿では,RCCosGANの性能と既存の損失関数を比較する。
実験の結果,RCCosGANは既存の画像よりも優れており,画像の品質が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2021-10-21T17:25:47Z) - Center Prediction Loss for Re-identification [65.58923413172886]
我々は, 中心予測率に基づく新たな損失, すなわち, 試料が特徴空間の位置に位置しなければならず, そこから同一クラス標本の中心の位置を大まかに予測できることを示す。
今回の新たな損失により,クラス間サンプルの分離性が向上しつつ,クラス内分散制約がより柔軟になることを示す。
論文 参考訳(メタデータ) (2021-04-30T03:57:31Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - An Equivalence between Loss Functions and Non-Uniform Sampling in
Experience Replay [72.23433407017558]
非一様サンプルデータを用いて評価された損失関数は、別の一様サンプルデータ損失関数に変換可能であることを示す。
驚いたことに、いくつかの環境では、PERは経験的パフォーマンスに影響を与えることなく、この新たな損失関数に完全に置き換えることができる。
論文 参考訳(メタデータ) (2020-07-12T17:45:24Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。