論文の概要: Efficient NAS with FaDE on Hierarchical Spaces
- arxiv url: http://arxiv.org/abs/2404.16218v1
- Date: Wed, 24 Apr 2024 21:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 15:17:42.291780
- Title: Efficient NAS with FaDE on Hierarchical Spaces
- Title(参考訳): 階層空間上でのFADEを用いた効率的なNAS
- Authors: Simon Neumeyer, Julian Stier, Michael Granitzer,
- Abstract要約: 階層型NAS空間の有限領域における相対的な性能予測を得るために、微分可能なアーキテクチャ探索を用いるFaDEを提案する。
FaDEは特に深層階層の多セル探索空間に向いている。
- 参考スコア(独自算出の注目度): 0.6372911857214884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) is a challenging problem. Hierarchical search spaces allow for cheap evaluations of neural network sub modules to serve as surrogate for architecture evaluations. Yet, sometimes the hierarchy is too restrictive or the surrogate fails to generalize. We present FaDE which uses differentiable architecture search to obtain relative performance predictions on finite regions of a hierarchical NAS space. The relative nature of these ranks calls for a memory-less, batch-wise outer search algorithm for which we use an evolutionary algorithm with pseudo-gradient descent. FaDE is especially suited on deep hierarchical, respectively multi-cell search spaces, which it can explore by linear instead of exponential cost and therefore eliminates the need for a proxy search space. Our experiments show that firstly, FaDE-ranks on finite regions of the search space correlate with corresponding architecture performances and secondly, the ranks can empower a pseudo-gradient evolutionary search on the complete neural architecture search space.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は難しい問題である。
階層的な検索空間は、ニューラルネットワークサブモジュールの安価な評価を可能にし、アーキテクチャ評価の代理となる。
しかし、階層構造が制限的すぎる場合や、サロゲートが一般化に失敗する場合もあります。
階層型NAS空間の有限領域における相対的な性能予測を得るために、微分可能なアーキテクチャ探索を用いるFaDEを提案する。
これらのランクの相対的な性質は、メモリレス、バッチワイドな外的探索アルゴリズム(英語版)であり、疑似階調降下の進化的アルゴリズム(英語版)を用いる。
FaDEは特に階層的な多セル探索空間に適しており、指数的なコストではなく線形で探索できるため、プロキシ検索空間は不要である。
実験の結果、探索空間の有限領域におけるFaDEランクは、対応するアーキテクチャ性能と相関し、第2に、完全なニューラルネットワーク探索空間における疑似漸進的進化探索に有効であることが示された。
関連論文リスト
- Construction of Hierarchical Neural Architecture Search Spaces based on
Context-free Grammars [66.05096551112932]
文脈自由文法に基づく統一検索空間設計フレームワークを提案する。
それらの特性の強化と利用により,完全なアーキテクチャの探索を効果的に行うことができる。
既存のニューラルアーキテクチャ検索手法よりも検索戦略が優れていることを示す。
論文 参考訳(メタデータ) (2022-11-03T14:23:00Z) - Automated Dominative Subspace Mining for Efficient Neural Architecture Search [36.06889021273405]
DSM-NAS(Dominative Subspace Mining)を用いたニューラルアーキテクチャ探索手法を提案する。
DSM-NASは自動的にマイニングされたサブスペースで有望なアーキテクチャを見つける。
実験の結果,DSM-NASは検索コストを削減できるだけでなく,様々なベンチマーク検索空間における最先端手法よりも優れたアーキテクチャも発見できることがわかった。
論文 参考訳(メタデータ) (2022-10-31T09:54:28Z) - Searching a High-Performance Feature Extractor for Text Recognition
Network [92.12492627169108]
優れた特徴抽出器を持つための原理を探求し,ドメイン固有の検索空間を設計する。
空間は巨大で複雑な構造であるため、既存のNASアルゴリズムを適用することはできない。
本研究では,空間内を効率的に探索する2段階のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-27T03:49:04Z) - BR-NS: an Archive-less Approach to Novelty Search [70.13948372218849]
行動認識に基づく新規性探索(BR-NS)という,新規性推定の代替手法について議論する。
BR-NSはアーカイブを必要とせず、行動空間で定義できるメトリクスを前提にせず、近隣の検索に依存しません。
我々は、その実現可能性とダイナミクス、および時間複雑性の観点からアーカイブベースのnsよりも潜在的に有利な点について洞察を得るために実験を行う。
論文 参考訳(メタデータ) (2021-04-08T17:31:34Z) - Towards Improving the Consistency, Efficiency, and Flexibility of
Differentiable Neural Architecture Search [84.4140192638394]
最も微分可能なニューラルアーキテクチャ探索法は、探索用のスーパーネットを構築し、そのサブグラフとしてターゲットネットを導出する。
本稿では,エンジンセルとトランジットセルからなるEnTranNASを紹介する。
また,検索処理の高速化を図るため,メモリや計算コストの削減も図っている。
論文 参考訳(メタデータ) (2021-01-27T12:16:47Z) - Unchain the Search Space with Hierarchical Differentiable Architecture
Search [42.32368267716705]
dasベースの手法は主に繰り返し可能な細胞構造を探索することに集中し、それを複数の段階に順次積み重ねてネットワークを形成する。
細胞レベルでもステージレベルでもアーキテクチャ検索を行う階層的微分可能なアーキテクチャ検索(H-DAS)を提案する。
ステージレベルの探索では,各ステージ内の細胞数やセル間の接続など,ステージのアーキテクチャを体系的に研究する。
論文 参考訳(メタデータ) (2021-01-11T17:01:43Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - GOLD-NAS: Gradual, One-Level, Differentiable [100.12492801459105]
GOLD-NAS (Gradual One-Level Differentiable Neural Architecture Search) という新しいアルゴリズムを提案する。
1レベル最適化に可変リソース制約を導入し、弱い演算子をスーパーネットワークから徐々に追い出す。
論文 参考訳(メタデータ) (2020-07-07T10:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。