論文の概要: $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search
- arxiv url: http://arxiv.org/abs/2203.01665v2
- Date: Fri, 4 Mar 2022 02:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 12:14:21.844415
- Title: $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search
- Title(参考訳): $\beta$-DARTS: 微分可能なアーキテクチャ検索のためのベータデカイ正規化
- Authors: Peng Ye, Baopu Li, Yikang Li, Tao Chen, Jiayuan Fan, Wanli Ouyang
- Abstract要約: 本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
- 参考スコア(独自算出の注目度): 85.84110365657455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search~(NAS) has attracted increasingly more attention in
recent years because of its capability to design deep neural networks
automatically. Among them, differential NAS approaches such as DARTS, have
gained popularity for the search efficiency. However, they suffer from two main
issues, the weak robustness to the performance collapse and the poor
generalization ability of the searched architectures. To solve these two
problems, a simple-but-efficient regularization method, termed as Beta-Decay,
is proposed to regularize the DARTS-based NAS searching process. Specifically,
Beta-Decay regularization can impose constraints to keep the value and variance
of activated architecture parameters from too large. Furthermore, we provide
in-depth theoretical analysis on how it works and why it works. Experimental
results on NAS-Bench-201 show that our proposed method can help to stabilize
the searching process and makes the searched network more transferable across
different datasets. In addition, our search scheme shows an outstanding
property of being less dependent on training time and data. Comprehensive
experiments on a variety of search spaces and datasets validate the
effectiveness of the proposed method.
- Abstract(参考訳): neural architecture search~(nas)は、ディープニューラルネットワークを自動設計する能力により、近年ますます注目を集めている。
その中でも、dartのような異なるnasアプローチが検索効率で人気を集めている。
しかし、性能の崩壊に対する弱固さと探索されたアーキテクチャの一般化能力の低さという2つの主な問題に苦しんでいる。
これら2つの問題を解決するために,DARTSに基づくNAS探索プロセスの正規化のために,β-Decayと呼ばれるシンプルだが効率的な正規化法を提案する。
特に、β-decay正規化は、活性化されたアーキテクチャパラメータの価値とばらつきを過大に防ぐために制約を課すことができる。
さらに,その動作方法と動作理由について,詳細な理論的解析を行う。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
さらに,本手法は,学習時間やデータへの依存度が低いという優れた特性を示す。
様々な探索空間とデータセットに関する総合的な実験により,提案手法の有効性が検証された。
関連論文リスト
- TopoNAS: Boosting Search Efficiency of Gradient-based NAS via Topological Simplification [11.08910129925713]
TopoNASは勾配に基づくワンショットNASのモデルに依存しないアプローチである。
探索可能な経路のトポロジ的単純化により検索時間とメモリ使用量を大幅に削減する。
論文 参考訳(メタデータ) (2024-08-02T15:01:29Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - Efficient Architecture Search via Bi-level Data Pruning [70.29970746807882]
この研究は、DARTSの双方向最適化におけるデータセット特性の重要な役割を探求する先駆者となった。
我々は、スーパーネット予測力学を計量として活用する新しいプログレッシブデータプルーニング戦略を導入する。
NAS-Bench-201サーチスペース、DARTSサーチスペース、MobileNetのようなサーチスペースに関する総合的な評価は、BDPがサーチコストを50%以上削減することを検証する。
論文 参考訳(メタデータ) (2023-12-21T02:48:44Z) - $\beta$-DARTS++: Bi-level Regularization for Proxy-robust Differentiable
Architecture Search [96.99525100285084]
DARTSに基づくNAS探索プロセス($beta$-DARTS)を正規化するための正規化手法であるBeta-Decayを提案する。
どのように動作するのか、なぜ動作するのかに関する詳細な理論的分析が提供される。
論文 参考訳(メタデータ) (2023-01-16T12:30:32Z) - RepNAS: Searching for Efficient Re-parameterizing Blocks [4.146471448631912]
1段階NAS手法であるRepNASは、分岐数制約の下で各層に対して最適な多様な分岐ブロック(ODBB)を効率的に探索する。
実験の結果,探索されたODBBは,手動分岐ブロック(DBB)を効率よく越えることが可能であった。
論文 参考訳(メタデータ) (2021-09-08T09:04:59Z) - Making Differentiable Architecture Search less local [9.869449181400466]
微分可能なニューラルネットワークアーキテクチャ検索(DARTS)は、検索効率を劇的に向上させる有望なNASアプローチである。
これは、検索がしばしば有害なアーキテクチャにつながるパフォーマンスの崩壊に苦しむことが示されています。
DARTS問題の定式化を変更することなく、空間をよりよく探索できる、よりグローバルな最適化スキームを開発する。
論文 参考訳(メタデータ) (2021-04-21T10:36:43Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。