論文の概要: DrNAS: Dirichlet Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2006.10355v4
- Date: Tue, 16 Mar 2021 02:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 09:51:33.673450
- Title: DrNAS: Dirichlet Neural Architecture Search
- Title(参考訳): DrNAS: ディリクレニューラルネットワーク検索
- Authors: Xiangning Chen, Ruochen Wang, Minhao Cheng, Xiaocheng Tang, Cho-Jui
Hsieh
- Abstract要約: ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
- 参考スコア(独自算出の注目度): 88.56953713817545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel differentiable architecture search method by
formulating it into a distribution learning problem. We treat the continuously
relaxed architecture mixing weight as random variables, modeled by Dirichlet
distribution. With recently developed pathwise derivatives, the Dirichlet
parameters can be easily optimized with gradient-based optimizer in an
end-to-end manner. This formulation improves the generalization ability and
induces stochasticity that naturally encourages exploration in the search
space. Furthermore, to alleviate the large memory consumption of differentiable
NAS, we propose a simple yet effective progressive learning scheme that enables
searching directly on large-scale tasks, eliminating the gap between search and
evaluation phases. Extensive experiments demonstrate the effectiveness of our
method. Specifically, we obtain a test error of 2.46% for CIFAR-10, 23.7% for
ImageNet under the mobile setting. On NAS-Bench-201, we also achieve
state-of-the-art results on all three datasets and provide insights for the
effective design of neural architecture search algorithms.
- Abstract(参考訳): 本稿では,分散学習問題に定式化することで,新たなアーキテクチャ探索手法を提案する。
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発された経路微分法により、ディリクレパラメータは勾配に基づく最適化器をエンドツーエンドで容易に最適化できる。
この定式化は一般化能力を向上し、探索空間での探索を自然に促進する確率性を誘導する。
さらに、微分可能なNASの大きなメモリ消費を軽減するため、大規模タスクを直接検索し、探索と評価フェーズ間のギャップを解消する、シンプルで効果的なプログレッシブ学習方式を提案する。
広範な実験により本手法の有効性が実証された。
具体的には、CIFAR-10では2.46%、モバイル環境では23.7%のテストエラーを得る。
nas-bench-201では、3つのデータセットすべてで最先端の結果を達成し、ニューラルネットワーク探索アルゴリズムの効果的な設計のための洞察を提供する。
関連論文リスト
- Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search [41.62970837629573]
本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-09T17:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。