論文の概要: EAGAN: Efficient Two-stage Evolutionary Architecture Search for GANs
- arxiv url: http://arxiv.org/abs/2111.15097v1
- Date: Tue, 30 Nov 2021 03:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 04:57:01.682935
- Title: EAGAN: Efficient Two-stage Evolutionary Architecture Search for GANs
- Title(参考訳): EAGAN: 効率的な2段階進化型アーキテクチャ検索
- Authors: Guohao Ying, Xin He, Bin Gao, Bo Han, Xiaowen Chu
- Abstract要約: GAN(Generative Adversarial Networks)は画像生成タスクにおいて大きな成功を収めている。
我々は,効率的な2段階進化アルゴリズム (EA) を用いて,textbfEAGAN と呼ばれる GAN の探索を行う。
- 参考スコア(独自算出の注目度): 25.791031022393643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have been proven hugely successful in
image generation tasks, but GAN training has the problem of instability. Many
works have improved the stability of GAN training by manually modifying the GAN
architecture, which requires human expertise and extensive trial-and-error.
Thus, neural architecture search (NAS), which aims to automate the model
design, has been applied to search GANs on the task of unconditional image
generation. The early NAS-GAN works only search generators for reducing the
difficulty. Some recent works have attempted to search both generator (G) and
discriminator (D) to improve GAN performance, but they still suffer from the
instability of GAN training during the search. To alleviate the instability
issue, we propose an efficient two-stage evolutionary algorithm (EA) based NAS
framework to discover GANs, dubbed \textbf{EAGAN}. Specifically, we decouple
the search of G and D into two stages and propose the weight-resetting strategy
to improve the stability of GAN training. Besides, we perform evolution
operations to produce the Pareto-front architectures based on multiple
objectives, resulting in a superior combination of G and D. By leveraging the
weight-sharing strategy and low-fidelity evaluation, EAGAN can significantly
shorten the search time. EAGAN achieves highly competitive results on the
CIFAR-10 (IS=8.81$\pm$0.10, FID=9.91) and surpasses previous NAS-searched GANs
on the STL-10 dataset (IS=10.44$\pm$0.087, FID=22.18).
- Abstract(参考訳): generative adversarial networks (gans) は画像生成タスクで非常に成功したことが証明されているが、ganトレーニングには不安定性の問題がある。
多くの研究は、人間の専門知識と広範囲な試行錯誤を必要とするGANアーキテクチャを手作業で修正することで、GANトレーニングの安定性を改善した。
このように、モデル設計の自動化を目的としたニューラルアーキテクチャ検索(nas)は、無条件画像生成のタスクでganを検索するために適用されている。
初期のNAS-GANは、難易度を減らすために、検索ジェネレータのみで動作する。
近年の研究では、ジェネレータ(G)と識別器(D)の両方を探索してGAN性能を向上する試みがあるが、それでも探索中のGANトレーニングの不安定さに悩まされている。
不安定性問題を軽減するため, 効率的な2段階進化アルゴリズム (EA) に基づくNASフレームワークを提案し, GANを探索し, いわゆる「textbf{EAGAN}」を提案する。
具体的には、GとDの探索を2段階に分離し、GAN訓練の安定性を向上させるための重み付け戦略を提案する。
さらに,重み付け戦略と低忠実度評価を活用することで,探索時間を著しく短縮することができるため,複数の目的に基づいてPareto-frontアーキテクチャを生成するための進化操作を行う。
EAGAN は CIFAR-10 (IS=8.81$\pm$0.10, FID=9.91) で高い競争力を発揮し、STL-10 データセット (IS=10.44$\pm$0.087, FID=22.18) で以前のNASによる GAN を上回っている。
関連論文リスト
- DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with
Diffusion Models [60.70651816115052]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
2つの予測型NASシナリオにおける広範囲な実験を通してDiffusionNAGの有効性を検証する。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - DGL-GAN: Discriminator Guided Learning for GAN Compression [78.66921096464306]
BigGANやStyleGAN2のような計算コストの高いGAN(Generative Adversarial Networks)は、高解像度および多彩な画像の合成において顕著な成果を上げている。
本稿では,bf DGL-GAN と呼ばれるバニラ bf GAN を圧縮するための,新しい単純な bf 識別器 bf 誘導 bf 学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T09:24:45Z) - Guided Evolution for Neural Architecture Search [1.0499611180329804]
進化的ニューラルネットワーク探索(NAS)のための新しい手法を提案する。
G-EAの背後にある理論的根拠は、各世代における複数のアーキテクチャの生成と評価によって、検索空間を探索することである。
G-EAは、親突然変異による探索を強制しながら、子孫世代による最も優れたネットワークの活用を強制する。
論文 参考訳(メタデータ) (2021-10-28T15:43:20Z) - Understanding and Accelerating Neural Architecture Search with
Training-Free and Theory-Grounded Metrics [117.4281417428145]
この作業は、ニューラルネットワークサーチ(NAS)のための原則的で統一的なトレーニングフリーフレームワークの設計を目標としている。
NASは、高性能ニューラルネットワークの発見を自動化するために爆発的に研究されてきたが、資源消費に悩まされ、しばしば訓練や近似によって探索バイアスを引き起こす。
我々は,検索ネットワークの「TEG」特性を解消し,NASを理解し,加速するための統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-26T17:52:07Z) - Generative Adversarial Neural Architecture Search [21.05611902967155]
理論的に証明可能な収束保証を備えたGA-NAS(Generative Adversarial NAS)を提案する。
GA-NASは、他のNAS手法によって既に最適化されているベースラインを改善するために利用できることを示す。
論文 参考訳(メタデータ) (2021-05-19T18:54:44Z) - DO-GAN: A Double Oracle Framework for Generative Adversarial Networks [28.904057977044374]
GAN(Generative Adversarial Networks)を育成するための新しいアプローチを提案します。
私たちはgeneratorとdiscriminator oraclesを使ってダブルoracleフレームワークをデプロイします。
我々は、バニラGAN、ディープ・コンボリューショナルGAN、スペクトル正規化GAN、スタックドGANなどの確立されたGANアーキテクチャに適用する。
論文 参考訳(メタデータ) (2021-02-17T05:11:18Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。