論文の概要: iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients
- arxiv url: http://arxiv.org/abs/2106.10784v1
- Date: Mon, 21 Jun 2021 00:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:23:57.625579
- Title: iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients
- Title(参考訳): iDARTS:確率的命令勾配を用いた微分可能なアーキテクチャ探索
- Authors: Miao Zhang, Steven Su, Shirui Pan, Xiaojun Chang, Ehsan Abbasnejad,
Reza Haffari
- Abstract要約: 微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
- 参考スコア(独自算出の注目度): 75.41173109807735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: \textit{Differentiable ARchiTecture Search} (DARTS) has recently become the
mainstream of neural architecture search (NAS) due to its efficiency and
simplicity. With a gradient-based bi-level optimization, DARTS alternately
optimizes the inner model weights and the outer architecture parameter in a
weight-sharing supernet. A key challenge to the scalability and quality of the
learned architectures is the need for differentiating through the inner-loop
optimisation. While much has been discussed about several potentially fatal
factors in DARTS, the architecture gradient, a.k.a. hypergradient, has received
less attention. In this paper, we tackle the hypergradient computation in DARTS
based on the implicit function theorem, making it only depends on the obtained
solution to the inner-loop optimization and agnostic to the optimization path.
To further reduce the computational requirements, we formulate a stochastic
hypergradient approximation for differentiable NAS, and theoretically show that
the architecture optimization with the proposed method, named iDARTS, is
expected to converge to a stationary point. Comprehensive experiments on two
NAS benchmark search spaces and the common NAS search space verify the
effectiveness of our proposed method. It leads to architectures outperforming,
with large margins, those learned by the baseline methods.
- Abstract(参考訳): \textit{Differentiable ARchiTecture Search} (DARTS)は、その効率性と単純さから、最近、ニューラルアーキテクチャサーチ(NAS)の主流となっている。
勾配に基づく双レベル最適化により、DARTSは重み共有スーパーネットにおける内部モデル重みと外部アーキテクチャパラメータを交互に最適化する。
学習したアーキテクチャのスケーラビリティと品質に対する重要な課題は、インナーループ最適化による差別化の必要性である。
DARTSのいくつかの致命的な要因、すなわちアーキテクチャ勾配について多くの議論がなされてきた。
過度に緩やかに 注目は減りました
本稿では,暗黙の関数定理に基づくDARTSの過次計算に取り組み,インナーループ最適化の解にのみ依存し,最適化経路に非依存であることを示す。
さらに計算要求を減らし,微分可能なNASに対する確率的過次近似を定式化し,iDARTSという手法を用いたアーキテクチャ最適化が定常点に収束することを理論的に示す。
2つのNASベンチマーク検索空間と共通のNAS検索空間に関する総合的な実験により,提案手法の有効性が検証された。
アーキテクチャは、ベースラインメソッドによって学習された大きなマージンで、パフォーマンスを向上します。
関連論文リスト
- $\Lambda$-DARTS: Mitigating Performance Collapse by Harmonizing
Operation Selection among Cells [11.777101481512423]
微分可能なニューラルアーキテクチャサーチ(DARTS)はニューラルアーキテクチャサーチ(NAS)の一般的な方法である
我々は、DARTSの収束をソフトマックス関数の飽和点に制限するウェイトシェアリングフレームワークにより、DARTSは特定の構造欠陥に悩まされていることを示す。
そこで本稿では,階層の勾配を整合させて動作選択を調和させることにより,性能低下を防止するための2つの新たな正規化用語を提案する。
論文 参考訳(メタデータ) (2022-10-14T17:54:01Z) - Shapley-NAS: Discovering Operation Contribution for Neural Architecture
Search [96.20505710087392]
ニューラルアーキテクチャ探索のための演算寄与度(Shapley-NAS)を評価するためのShapley値に基づく手法を提案する。
提案手法は,光探索コストに比例して最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-20T14:41:49Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - Rethinking Architecture Selection in Differentiable NAS [74.61723678821049]
微分可能なニューラルアーキテクチャ探索は、その探索効率と簡易性において最も人気のあるNAS手法の1つである。
本稿では,各操作がスーパーネットに与える影響を直接測定する摂動に基づくアーキテクチャ選択を提案する。
提案手法により,DARTSの故障モードを大幅に緩和できることがわかった。
論文 参考訳(メタデータ) (2021-08-10T00:53:39Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search [41.62970837629573]
本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-09T17:05:41Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Geometry-Aware Gradient Algorithms for Neural Architecture Search [41.943045315986744]
重み付けによるNASを理解するために,単一レベルの経験的リスク最小化の研究を議論する。
本稿では,この最適化の基盤となる構造を利用して,疎度なアーキテクチャパラメータを返却する幾何対応フレームワークを提案する。
コンピュータビジョンにおける最新のNASベンチマークにおいて、最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-04-16T17:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。