論文の概要: Multiple Population Alternate Evolution Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2403.07035v1
- Date: Mon, 11 Mar 2024 08:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 00:00:43.831378
- Title: Multiple Population Alternate Evolution Neural Architecture Search
- Title(参考訳): 多集団交代進化型ニューラルアーキテクチャサーチ
- Authors: Juan Zou, Han Chu, Yizhang Xia, Junwen Xu, Yuan Liu, Zhanglu Hou
- Abstract要約: ニューラルネットワークアーキテクチャを探索する新しいパラダイムを提案し,MPAE(Multiple Population Alternate Evolution Neural Architecture Search)を設計する。
MPAEは、探索空間をL相互接続単位に変換し、連続的にユニットを探索し、上記のネットワーク全体の探索を数回繰り返して、その後のユニットへの影響を減らす。
提案手法は、CIFARデータセット上でニューラルネットワークを探索し、最先端の結果を得るのに、わずか0.3GPU日しかかからない。
- 参考スコア(独自算出の注目度): 3.1981483719988235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The effectiveness of Evolutionary Neural Architecture Search (ENAS) is
influenced by the design of the search space. Nevertheless, common methods
including the global search space, scalable search space and hierarchical
search space have certain limitations. Specifically, the global search space
requires a significant amount of computational resources and time, the scalable
search space sacrifices the diversity of network structures and the
hierarchical search space increases the search cost in exchange for network
diversity. To address above limitation, we propose a novel paradigm of
searching neural network architectures and design the Multiple Population
Alternate Evolution Neural Architecture Search (MPAE), which can achieve module
diversity with a smaller search cost. MPAE converts the search space into L
interconnected units and sequentially searches the units, then the above search
of the entire network be cycled several times to reduce the impact of previous
units on subsequent units. To accelerate the population evolution process, we
also propose the the population migration mechanism establishes an excellent
migration archive and transfers the excellent knowledge and experience in the
migration archive to new populations. The proposed method requires only 0.3 GPU
days to search a neural network on the CIFAR dataset and achieves the
state-of-the-art results.
- Abstract(参考訳): 進化的ニューラルネットワーク探索(ENAS)の有効性は,探索空間の設計の影響を受けている。
それでも、グローバル検索空間、スケーラブル検索空間、階層検索空間などの一般的な方法には、一定の制限がある。
具体的には、グローバルな検索空間には膨大な計算資源と時間が必要であり、スケーラブルな検索空間はネットワーク構造の多様性を犠牲にし、階層的な検索空間はネットワークの多様性と引き換えに検索コストを増大させる。
そこで本研究では,ニューラルネットワークアーキテクチャを探索する新しいパラダイムを提案し,より少ない探索コストでモジュールの多様性を実現する多集団交互進化型ニューラルネットワーク検索 (mpae) を設計する。
MPAEは、探索空間をL相互接続単位に変換し、連続的にユニットを探索し、上記のネットワーク全体の探索を数回繰り返して、その後のユニットへの影響を減らす。
また,人口移動の過程を加速するために,人口移動機構が優れた人口移動アーカイブを確立し,人口移動アーカイブにおける優れた知識と経験を新しい人口に伝達する。
提案手法では,cifarデータセット上でニューラルネットワークを探索するには0.3gpu日しかかからず,最先端の結果が得られる。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - Efficient NAS with FaDE on Hierarchical Spaces [0.6372911857214884]
階層型NAS空間の有限領域における相対的な性能予測を得るために、微分可能なアーキテクチャ探索を用いるFaDEを提案する。
FaDEは特に深層階層の多セル探索空間に向いている。
論文 参考訳(メタデータ) (2024-04-24T21:33:17Z) - G-EvoNAS: Evolutionary Neural Architecture Search Based on Network
Growth [6.712149832731174]
本稿では,ネットワーク成長(G-EvoNAS)に基づく計算効率の良いニューラルネットワーク進化探索フレームワークを提案する。
G-EvoNASはCIFAR10、CIFAR100、ImageNetの3つの一般的な画像分類データセットでテストされている。
実験の結果、G-EvoNASは0.2GPU日で最先端の設計に匹敵するニューラルネットワークアーキテクチャを見出すことができた。
論文 参考訳(メタデータ) (2024-03-05T05:44:38Z) - LISSNAS: Locality-based Iterative Search Space Shrinkage for Neural
Architecture Search [30.079267927860347]
大規模な空間をSOTA検索性能を持つ多種多様な小さな探索空間に縮小する自動アルゴリズムを提案する。
提案手法は,モバイル制約下でのイメージネットのSOTA Top-1精度77.6%,最良クラスであるKendal-Tau,アーキテクチャの多様性,検索空間サイズを実現している。
論文 参考訳(メタデータ) (2023-07-06T16:28:51Z) - Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification [15.641353388251465]
微分可能なニューラルネットワークサーチ(NAS)は、検索コストを単一のネットワークをトレーニングするレベルに削減することで大きな影響を与える。
本稿では,探索範囲を導入することで,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-06-05T05:27:12Z) - Towards Less Constrained Macro-Neural Architecture Search [2.685668802278155]
ニューラルアーキテクチャサーチ(NAS)ネットワークは、様々なタスクで最先端のパフォーマンスを達成する。
ほとんどのNAS手法は、探索を制約する人間定義の仮定に大きく依存している。
我々は,LCMNASが最小のGPU計算でゼロから最先端アーキテクチャを生成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-03-10T17:53:03Z) - AutoSpace: Neural Architecture Search with Less Human Interference [84.42680793945007]
現在のニューラルネットワークアーキテクチャ検索(NAS)アルゴリズムは、ネットワーク構築のための検索空間を設計するための専門知識と努力を必要とします。
探索空間を最適なものに進化させる新しい微分可能な進化フレームワークであるAutoSpaceを提案する。
学習した検索空間では、最近のNASアルゴリズムの性能は、以前手作業で設計した空間に比べて大幅に改善できる。
論文 参考訳(メタデータ) (2021-03-22T13:28:56Z) - Evolving Search Space for Neural Architecture Search [70.71153433676024]
最適化された検索空間サブセットを維持することにより,前回の取り組みから得られた結果を増幅するニューラルサーチ空間進化(NSE)方式を提案する。
我々は333万のFLOPでImageNet上で77.3%のトップ1リトレーニング精度を実現し、最先端の性能を得た。
遅延制約が適用された場合、我々の結果は、77.9%のTop-1再トレーニング精度を持つ、以前の最高のパフォーマンスのモバイルモデルよりも優れた性能が得られる。
論文 参考訳(メタデータ) (2020-11-22T01:11:19Z) - Continuous Ant-Based Neural Topology Search [62.200941836913586]
この研究は、アリコロニー最適化に基づく、自然に着想を得たニューラルアーキテクチャサーチ(NAS)アルゴリズムを導入している。
連続アントベースのニューラルトポロジーサーチ(CANTS)は、アリが現実世界でどのように動くかに強く影響を受けている。
論文 参考訳(メタデータ) (2020-11-21T17:49:44Z) - GOLD-NAS: Gradual, One-Level, Differentiable [100.12492801459105]
GOLD-NAS (Gradual One-Level Differentiable Neural Architecture Search) という新しいアルゴリズムを提案する。
1レベル最適化に可変リソース制約を導入し、弱い演算子をスーパーネットワークから徐々に追い出す。
論文 参考訳(メタデータ) (2020-07-07T10:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。