論文の概要: FusedProp: Towards Efficient Training of Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2004.03335v1
- Date: Mon, 30 Mar 2020 06:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:58:41.970846
- Title: FusedProp: Towards Efficient Training of Generative Adversarial Networks
- Title(参考訳): FusedProp: ジェネレーティブ・ディバイサル・ネットワークの効率的なトレーニングを目指して
- Authors: Zachary Polizzi, Chuan-Yung Tsai
- Abstract要約: 本稿では,識別器と共通GANの生成器を同時に訓練するために,融合伝搬アルゴリズムを提案する。
本稿では,FusedPropが従来のGANのトレーニングの1.49倍のトレーニング速度を達成したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are capable of generating strikingly
realistic samples but state-of-the-art GANs can be extremely computationally
expensive to train. In this paper, we propose the fused propagation (FusedProp)
algorithm which can be used to efficiently train the discriminator and the
generator of common GANs simultaneously using only one forward and one backward
propagation. We show that FusedProp achieves 1.49 times the training speed
compared to the conventional training of GANs, although further studies are
required to improve its stability. By reporting our preliminary results and
open-sourcing our implementation, we hope to accelerate future research on the
training of GANs.
- Abstract(参考訳): generative adversarial network (gans) は驚くほどリアルなサンプルを生成することができるが、最先端のganは極めて計算コストが高い。
本稿では,1つの前向きと1つの後向きの伝搬のみを用いて,識別器と共通GANの生成器を効率よく訓練できる融合伝搬(FusedProp)アルゴリズムを提案する。
従来のgansのトレーニングに比べて1.49倍のトレーニング速度を達成したが,その安定性向上にはさらなる研究が必要である。
予備結果を報告し、実装をオープンソース化することで、gansのトレーニングに関する今後の研究を加速したいと考えています。
関連論文リスト
- Pre-Training and Fine-Tuning Generative Flow Networks [61.90529626590415]
本稿では,GFlowNetの報酬なし事前学習のための新しいアプローチを提案する。
自己指導型問題としてトレーニングをフレーミングすることで,候補空間の探索を学習する結果条件付きGFlowNetを提案する。
事前学習したOC-GFNモデルにより、下流タスクにおける新しい報酬関数をサンプリングできるポリシーを直接抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-05T09:53:22Z) - Balanced Training for Sparse GANs [16.045866864231417]
本研究では, スパース発生器と判別器のバランスを研究するために, BRと呼ばれる新しい指標を提案する。
また、GANトレーニング中にBRを制御し、性能と計算コストのトレードオフを良好に達成するために、バランスド・ダイナミックスパース・トレーニング(ADAPT)と呼ばれる新しい手法を導入する。
論文 参考訳(メタデータ) (2023-02-28T15:34:01Z) - SparseProp: Efficient Sparse Backpropagation for Faster Training of
Neural Networks [20.18957052535565]
トレーニング中のニューラルネットワークの重みが不足している場合に特化して、バックプロパゲーションアルゴリズムの新たな効率的なバージョンを提供する。
我々のアルゴリズムは、任意の(非構造的な)スパーシリティと共通層タイプに適用されるため、一般的なものである。
我々は、すでに分離されたネットワークを用いたトランスファーラーニングや、スパースネットワークをスクラッチからトレーニングすることで、エンドツーエンドのランタイム実験で高速化できることを示す。
論文 参考訳(メタデータ) (2023-02-09T18:54:05Z) - Don't Be So Dense: Sparse-to-Sparse GAN Training Without Sacrificing
Performance [47.94567935516651]
GAN(Generative Adversarial Network)は、生成データの品質の高さから提案されて以来、関心が高まっている。
推論のために、既存のモデル圧縮技術は、同等のパフォーマンスでモデルの複雑さを減らすことができる。
本稿では,スパークス GAN をスクラッチから直接訓練できる可能性について検討する。
論文 参考訳(メタデータ) (2022-03-05T15:18:03Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Forward Super-Resolution: How Can GANs Learn Hierarchical Generative
Models for Real-World Distributions [66.05472746340142]
生成ネットワーク(GAN)は、複雑で現実世界の分布を学習する上で最も成功したネットワークの一つである。
本稿では,GANが実写画像の分布を効率的に学習する方法について述べる。
論文 参考訳(メタデータ) (2021-06-04T17:33:29Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Improving the Speed and Quality of GAN by Adversarial Training [87.70013107142142]
我々は,GAN訓練の高速化と品質向上を目的としたFastGANを開発した。
当社のトレーニングアルゴリズムは,2-4GPUを必要とすることによって,ImageNetのトレーニングを一般向けに提供しています。
論文 参考訳(メタデータ) (2020-08-07T20:21:31Z) - Parallel/distributed implementation of cellular training for generative
adversarial neural networks [7.504722086511921]
GAN(Generative Adversarial Network)は、生成モデルを学ぶために広く使われている。
本稿では、GANの2つの集団を訓練するための細胞競合共進化手法の並列/分散実装について述べる。
論文 参考訳(メタデータ) (2020-04-07T16:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。