論文の概要: EAGAN: Efficient Two-stage Evolutionary Architecture Search for GANs
- arxiv url: http://arxiv.org/abs/2111.15097v1
- Date: Tue, 30 Nov 2021 03:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 04:57:01.682935
- Title: EAGAN: Efficient Two-stage Evolutionary Architecture Search for GANs
- Title(参考訳): EAGAN: 効率的な2段階進化型アーキテクチャ検索
- Authors: Guohao Ying, Xin He, Bin Gao, Bo Han, Xiaowen Chu
- Abstract要約: GAN(Generative Adversarial Networks)は画像生成タスクにおいて大きな成功を収めている。
我々は,効率的な2段階進化アルゴリズム (EA) を用いて,textbfEAGAN と呼ばれる GAN の探索を行う。
- 参考スコア(独自算出の注目度): 25.791031022393643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have been proven hugely successful in
image generation tasks, but GAN training has the problem of instability. Many
works have improved the stability of GAN training by manually modifying the GAN
architecture, which requires human expertise and extensive trial-and-error.
Thus, neural architecture search (NAS), which aims to automate the model
design, has been applied to search GANs on the task of unconditional image
generation. The early NAS-GAN works only search generators for reducing the
difficulty. Some recent works have attempted to search both generator (G) and
discriminator (D) to improve GAN performance, but they still suffer from the
instability of GAN training during the search. To alleviate the instability
issue, we propose an efficient two-stage evolutionary algorithm (EA) based NAS
framework to discover GANs, dubbed \textbf{EAGAN}. Specifically, we decouple
the search of G and D into two stages and propose the weight-resetting strategy
to improve the stability of GAN training. Besides, we perform evolution
operations to produce the Pareto-front architectures based on multiple
objectives, resulting in a superior combination of G and D. By leveraging the
weight-sharing strategy and low-fidelity evaluation, EAGAN can significantly
shorten the search time. EAGAN achieves highly competitive results on the
CIFAR-10 (IS=8.81$\pm$0.10, FID=9.91) and surpasses previous NAS-searched GANs
on the STL-10 dataset (IS=10.44$\pm$0.087, FID=22.18).
- Abstract(参考訳): generative adversarial networks (gans) は画像生成タスクで非常に成功したことが証明されているが、ganトレーニングには不安定性の問題がある。
多くの研究は、人間の専門知識と広範囲な試行錯誤を必要とするGANアーキテクチャを手作業で修正することで、GANトレーニングの安定性を改善した。
このように、モデル設計の自動化を目的としたニューラルアーキテクチャ検索(nas)は、無条件画像生成のタスクでganを検索するために適用されている。
初期のNAS-GANは、難易度を減らすために、検索ジェネレータのみで動作する。
近年の研究では、ジェネレータ(G)と識別器(D)の両方を探索してGAN性能を向上する試みがあるが、それでも探索中のGANトレーニングの不安定さに悩まされている。
不安定性問題を軽減するため, 効率的な2段階進化アルゴリズム (EA) に基づくNASフレームワークを提案し, GANを探索し, いわゆる「textbf{EAGAN}」を提案する。
具体的には、GとDの探索を2段階に分離し、GAN訓練の安定性を向上させるための重み付け戦略を提案する。
さらに,重み付け戦略と低忠実度評価を活用することで,探索時間を著しく短縮することができるため,複数の目的に基づいてPareto-frontアーキテクチャを生成するための進化操作を行う。
EAGAN は CIFAR-10 (IS=8.81$\pm$0.10, FID=9.91) で高い競争力を発揮し、STL-10 データセット (IS=10.44$\pm$0.087, FID=22.18) で以前のNASによる GAN を上回っている。
関連論文リスト
- Improving Routability Prediction via NAS Using a Smooth One-shot Augmented Predictor [4.381471268889061]
現代のEDAツールにおける実行可能性の最適化は、機械学習(ML)モデルを使用することで大きな恩恵を受けている。
NAS技術は2つの要因の結果として、ルタビリティ予測にうまく取り組むのに苦労している。
我々は、新しいデータ拡張技術とワンショットと予測器ベースのNASを組み合わせた新しい組み合わせにより、これらの課題に対処するために、SOAP-NASという新しいNAS技術を構築します。
論文 参考訳(メタデータ) (2024-11-21T16:42:41Z) - ParaGAN: A Scalable Distributed Training Framework for Generative Adversarial Networks [8.736828068085263]
ParaGANは、非同期トレーニングと非対称最適化ポリシーを活用して、GANトレーニングを加速するスケーラブルな分散GANトレーニングフレームワークである。
ParaGANでは,BigGANのトレーニング時間を15日から14時間に短縮し,91%のスケーリング効率を実現した。
ParaGANは、BigGANを使った前例のない高解像度画像生成を可能にする。
論文 参考訳(メタデータ) (2024-11-06T15:40:46Z) - On the Convergence of (Stochastic) Gradient Descent for Kolmogorov--Arnold Networks [56.78271181959529]
Kolmogorov--Arnold Networks (KAN) はディープラーニングコミュニティで注目されている。
実験により、勾配降下(SGD)により最適化されたカンが、ほぼゼロに近い訓練損失を達成できることが示された。
論文 参考訳(メタデータ) (2024-10-10T15:34:10Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - Guided Evolution for Neural Architecture Search [1.0499611180329804]
進化的ニューラルネットワーク探索(NAS)のための新しい手法を提案する。
G-EAの背後にある理論的根拠は、各世代における複数のアーキテクチャの生成と評価によって、検索空間を探索することである。
G-EAは、親突然変異による探索を強制しながら、子孫世代による最も優れたネットワークの活用を強制する。
論文 参考訳(メタデータ) (2021-10-28T15:43:20Z) - Understanding and Accelerating Neural Architecture Search with
Training-Free and Theory-Grounded Metrics [117.4281417428145]
この作業は、ニューラルネットワークサーチ(NAS)のための原則的で統一的なトレーニングフリーフレームワークの設計を目標としている。
NASは、高性能ニューラルネットワークの発見を自動化するために爆発的に研究されてきたが、資源消費に悩まされ、しばしば訓練や近似によって探索バイアスを引き起こす。
我々は,検索ネットワークの「TEG」特性を解消し,NASを理解し,加速するための統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-26T17:52:07Z) - DO-GAN: A Double Oracle Framework for Generative Adversarial Networks [28.904057977044374]
GAN(Generative Adversarial Networks)を育成するための新しいアプローチを提案します。
私たちはgeneratorとdiscriminator oraclesを使ってダブルoracleフレームワークをデプロイします。
我々は、バニラGAN、ディープ・コンボリューショナルGAN、スペクトル正規化GAN、スタックドGANなどの確立されたGANアーキテクチャに適用する。
論文 参考訳(メタデータ) (2021-02-17T05:11:18Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。