論文の概要: Learn distributed GAN with Temporary Discriminators
- arxiv url: http://arxiv.org/abs/2007.09221v1
- Date: Fri, 17 Jul 2020 20:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:41:05.390417
- Title: Learn distributed GAN with Temporary Discriminators
- Title(参考訳): 一時判別器を用いた分散GANの学習
- Authors: Hui Qu, Yikai Zhang, Qi Chang, Zhennan Yan, Chao Chen, Dimitris
Metaxas
- Abstract要約: 逐次的一時判別器を用いた分散GANの訓練手法を提案する。
損失関数の設計は、確実に証明可能な保証で正しい分布を学習することを示す。
- 参考スコア(独自算出の注目度): 16.33621293935067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a method for training distributed GAN with
sequential temporary discriminators. Our proposed method tackles the challenge
of training GAN in the federated learning manner: How to update the generator
with a flow of temporary discriminators? We apply our proposed method to learn
a self-adaptive generator with a series of local discriminators from multiple
data centers. We show our design of loss function indeed learns the correct
distribution with provable guarantees. The empirical experiments show that our
approach is capable of generating synthetic data which is practical for
real-world applications such as training a segmentation model.
- Abstract(参考訳): 本研究では, 逐次的一時判別器を用いた分散GANの訓練手法を提案する。
提案手法は,連合学習におけるGAN学習の課題に対処する: 一時判別器のフローで発電機を更新する方法?
提案手法は,複数のデータセンターから複数の局所判別器を用いて自己適応型生成器を学習する。
損失関数の設計は、証明可能な保証で正しい分布を実際に学習する。
実験により,本手法は,セグメンテーションモデルの訓練など現実の応用に有効な合成データを生成することができることを示した。
関連論文リスト
- Discriminator Guidance for Autoregressive Diffusion Models [12.139222986297264]
本稿では,自己回帰拡散モデルの設定において差別的ガイダンスを導入する。
判別器と事前学習した生成モデルとを個別のケースで併用する方法を導出する。
論文 参考訳(メタデータ) (2023-10-24T13:14:22Z) - Dynamically Masked Discriminator for Generative Adversarial Networks [71.33631511762782]
GAN(Generative Adversarial Networks)のトレーニングは依然として難しい問題である。
識別器は、実際の/生成されたデータの分布を学習してジェネレータを訓練する。
本稿では,オンライン連続学習の観点から,GANの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T12:07:01Z) - Re-using Adversarial Mask Discriminators for Test-time Training under
Distribution Shifts [10.647970046084916]
安定判別器の訓練によって表現的損失関数が生成され、推論時に再使用してセグメント化ミスを検出し、修正することができると論じる。
我々は、識別器と画像再構成コストを(デコーダを介して)組み合わせることで、モデルをさらに改善できることを示す。
提案手法は単純で,事前学習したGANの試験時間性能を向上させる。
論文 参考訳(メタデータ) (2021-08-26T17:31:46Z) - MCL-GAN: Generative Adversarial Networks with Multiple Specialized Discriminators [47.19216713803009]
本稿では,複数の識別器を用いた生成対向ネットワークの枠組みを提案する。
データ全体のサブセットに専門知識を持つように、各差別者を指導します。
複数の識別器を使用するにもかかわらず、バックボーンネットワークは識別器間で共有される。
論文 参考訳(メタデータ) (2021-07-15T11:35:08Z) - Exploring Dropout Discriminator for Domain Adaptation [27.19677042654432]
新しいドメインへの分類器の適応は、機械学習における難しい問題の1つである。
本稿では, サンプル分布の分散を徐々に増大させるカリキュラムベースのドロップアウト判別器を提案する。
識別器のアンサンブルは、モデルがデータ分散を効率的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-07-09T06:11:34Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。