論文の概要: iDARTS: Improving DARTS by Node Normalization and Decorrelation
Discretization
- arxiv url: http://arxiv.org/abs/2108.11014v1
- Date: Wed, 25 Aug 2021 02:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 13:02:16.335116
- Title: iDARTS: Improving DARTS by Node Normalization and Decorrelation
Discretization
- Title(参考訳): iDARTS:ノード正規化とデコレート離散化によるDARTSの改善
- Authors: Huiqun Wang, Ruijie Yang, Di Huang and Yunhong Wang
- Abstract要約: 微分可能なArchiTecture Search(DARTS)は、ネットワーク表現の継続的緩和を使用し、GPUデーにおいて、ニューラルネットワークサーチ(NAS)を約数千倍高速化する。
しかし、DARTSの探索過程は不安定であり、訓練の時期が大きくなると著しく劣化する。
そこで本研究では,DARTSの改良版であるiDARTSを提案する。
- 参考スコア(独自算出の注目度): 51.489024258966886
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Differentiable ARchiTecture Search (DARTS) uses a continuous relaxation of
network representation and dramatically accelerates Neural Architecture Search
(NAS) by almost thousands of times in GPU-day. However, the searching process
of DARTS is unstable, which suffers severe degradation when training epochs
become large, thus limiting its application. In this paper, we claim that this
degradation issue is caused by the imbalanced norms between different nodes and
the highly correlated outputs from various operations. We then propose an
improved version of DARTS, namely iDARTS, to deal with the two problems. In the
training phase, it introduces node normalization to maintain the norm balance.
In the discretization phase, the continuous architecture is approximated based
on the similarity between the outputs of the node and the decorrelated
operations rather than the values of the architecture parameters. Extensive
evaluation is conducted on CIFAR-10 and ImageNet, and the error rates of 2.25\%
and 24.7\% are reported within 0.2 and 1.9 GPU-day for architecture search
respectively, which shows its effectiveness. Additional analysis also reveals
that iDARTS has the advantage in robustness and generalization over other
DARTS-based counterparts.
- Abstract(参考訳): 微分可能なArchiTecture Search(DARTS)は、ネットワーク表現の継続的な緩和を使用し、GPUデーにおいてニューラルネットワークサーチ(NAS)を約数千倍高速化する。
しかし、DARTSの探索過程は不安定であり、訓練エポックが大きくなると深刻な劣化に悩まされ、適用が制限される。
本稿では、この劣化問題は、異なるノード間の不均衡なノルムと、様々な操作からの高相関な出力が原因であると主張する。
次に,2つの問題に対処するため,DARTSの改良版,すなわちiDARTSを提案する。
トレーニングフェーズでは、標準バランスを維持するためにノード正規化を導入する。
離散化フェーズでは、連続アーキテクチャは、アーキテクチャパラメータの値ではなく、ノードの出力と非相関演算との類似性に基づいて近似される。
CIFAR-10 と ImageNet で徹底的な評価を行い、アーキテクチャ検索において、それぞれ0.2 と 1.9 GPU-day のエラー率 2.25 % と 24.7 % を報告し、その効果を示している。
さらなる分析により、iDARTSは他のDARTSベースのものよりも堅牢性と一般化の優位性が示された。
関連論文リスト
- Heterogeneous Learning Rate Scheduling for Neural Architecture Search on Long-Tailed Datasets [0.0]
本稿では,DARTSのアーキテクチャパラメータに適した適応学習率スケジューリング手法を提案する。
提案手法は,学習エポックに基づくアーキテクチャパラメータの学習率を動的に調整し,よく訓練された表現の破壊を防止する。
論文 参考訳(メタデータ) (2024-06-11T07:32:25Z) - $\Lambda$-DARTS: Mitigating Performance Collapse by Harmonizing
Operation Selection among Cells [11.777101481512423]
微分可能なニューラルアーキテクチャサーチ(DARTS)はニューラルアーキテクチャサーチ(NAS)の一般的な方法である
我々は、DARTSの収束をソフトマックス関数の飽和点に制限するウェイトシェアリングフレームワークにより、DARTSは特定の構造欠陥に悩まされていることを示す。
そこで本稿では,階層の勾配を整合させて動作選択を調和させることにより,性能低下を防止するための2つの新たな正規化用語を提案する。
論文 参考訳(メタデータ) (2022-10-14T17:54:01Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - MS-DARTS: Mean-Shift Based Differentiable Architecture Search [11.115656548869199]
サンプリングと摂動に基づく安定性向上のための平均シフトベースDARTS(MS-DARTS)を提案する。
MS-DARTSは、検索コストを削減した他の最先端NASメソッドよりも高いパフォーマンスをアーカイブする。
論文 参考訳(メタデータ) (2021-08-23T08:06:45Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - RARTS: An Efficient First-Order Relaxed Architecture Search Method [5.491655566898372]
微分可能なアーキテクチャ探索(DARTS)は、二段階最適化問題の解法に基づく、データ駆動型ニューラルネットワーク設計の有効な方法である。
我々は、データとネットワーク分割の両方を通してアーキテクチャ学習のデータセット全体を利用する、単一レベルの代替品と緩和アーキテクチャ検索(RARTS)手法を定式化する。
RARTSは、トポロジカルアーキテクチャ、すなわちエッジと演算を探索するタスクにおいて、CIFAR-10上の2階DARTSよりも高い精度と60%の計算コストを得る。
論文 参考訳(メタデータ) (2020-08-10T04:55:51Z) - Stabilizing Differentiable Architecture Search via Perturbation-based
Regularization [99.81980366552408]
最終アーキテクチャを蒸留する際の劇的な性能低下につながる急激なバリデーション損失の状況は、不安定を引き起こす重要な要因であることがわかった。
本研究では,DARTSに基づく手法の汎用性の向上と損失景観の円滑化を図るため,摂動型正規化(SmoothDARTS)を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:46:58Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。