論文の概要: MiLeNAS: Efficient Neural Architecture Search via Mixed-Level
Reformulation
- arxiv url: http://arxiv.org/abs/2003.12238v1
- Date: Fri, 27 Mar 2020 05:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:17:28.823168
- Title: MiLeNAS: Efficient Neural Architecture Search via Mixed-Level
Reformulation
- Title(参考訳): MiLeNAS: 混合レベル再構成による効率的なニューラルネットワーク探索
- Authors: Chaoyang He, Haishan Ye, Li Shen, Tong Zhang
- Abstract要約: mldasはNASの混合レベルの改質であり、効率よく確実に最適化できる。
混合レベルの定式化に単純な一階法を用いる場合であっても、mldasはNAS問題の検証誤差を低くすることができる。
- 参考スコア(独自算出の注目度): 25.56562895285528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many recently proposed methods for Neural Architecture Search (NAS) can be
formulated as bilevel optimization. For efficient implementation, its solution
requires approximations of second-order methods. In this paper, we demonstrate
that gradient errors caused by such approximations lead to suboptimality, in
the sense that the optimization procedure fails to converge to a (locally)
optimal solution. To remedy this, this paper proposes \mldas, a mixed-level
reformulation for NAS that can be optimized efficiently and reliably. It is
shown that even when using a simple first-order method on the mixed-level
formulation, \mldas\ can achieve a lower validation error for NAS problems.
Consequently, architectures obtained by our method achieve consistently higher
accuracies than those obtained from bilevel optimization. Moreover, \mldas\
proposes a framework beyond DARTS. It is upgraded via model size-based search
and early stopping strategies to complete the search process in around 5 hours.
Extensive experiments within the convolutional architecture search space
validate the effectiveness of our approach.
- Abstract(参考訳): 最近提案されたニューラル・アーキテクチャ・サーチ(NAS)の多くの手法は、双レベル最適化として定式化できる。
効率的な実装には、2次法の近似が必要となる。
本稿では、最適化手順が(局所的に)最適解に収束しないという意味で、そのような近似による勾配誤差が亜最適性をもたらすことを示す。
そこで本稿では,NASを効率よくかつ確実に最適化できる混合レベル再構成法である‘mldas’を提案する。
混合レベルの定式化において単純な一階法を用いても,NAS問題に対する低い検証誤差を達成できることが示されている。
そこで,本手法により得られたアーキテクチャは,二段階最適化によるアーキテクチャよりも高い精度を実現している。
さらに \mldas\ は DARTS 以外のフレームワークも提案している。
モデルサイズベースの検索と早期停止戦略を通じてアップグレードされ、約5時間で検索プロセスが完了する。
畳み込みアーキテクチャ探索空間における広範囲な実験により,提案手法の有効性が検証された。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - Towards Differentiable Multilevel Optimization: A Gradient-Based Approach [1.6114012813668932]
本稿では,多レベル最適化のための新しい勾配に基づくアプローチを提案する。
本手法は解の精度と収束速度を両立させながら計算複雑性を著しく低減する。
私たちの知る限りでは、これは暗黙の微分の一般的なバージョンを提供する最初のアルゴリズムの1つである。
論文 参考訳(メタデータ) (2024-10-15T06:17:59Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Generalization Guarantees for Neural Architecture Search with
Train-Validation Split [48.265305046655996]
本稿では,列車検証分割の統計的側面について検討する。
リスクや高度勾配などの検証損失の洗練された特性は、真のテスト損失の指標であることを示す。
また、NAS、マルチカーネル学習、低ランク行列学習の厳密な接続も強調する。
論文 参考訳(メタデータ) (2021-04-29T06:11:00Z) - Effective, Efficient and Robust Neural Architecture Search [4.273005643715522]
敵攻撃の最近の進歩は、ニューラルアーキテクチャサーチ(NAS)によって探索されたディープニューラルネットワークの脆弱性を示している
本稿では,ニューラルネットワークアーキテクチャの性能,堅牢性,資源制約を考慮し,ニューラルネットワークアーキテクチャを探索する,効率的で効率的かつロバストなニューラルネットワーク探索手法を提案する。
ベンチマークデータセットを用いた実験により,提案手法は,モデルサイズと同等の分類精度で,逆向きに頑健なアーキテクチャを見出すことができることがわかった。
論文 参考訳(メタデータ) (2020-11-19T13:46:23Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Geometry-Aware Gradient Algorithms for Neural Architecture Search [41.943045315986744]
重み付けによるNASを理解するために,単一レベルの経験的リスク最小化の研究を議論する。
本稿では,この最適化の基盤となる構造を利用して,疎度なアーキテクチャパラメータを返却する幾何対応フレームワークを提案する。
コンピュータビジョンにおける最新のNASベンチマークにおいて、最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-04-16T17:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。