論文の概要: Robustifying DARTS by Eliminating Information Bypass Leakage via
Explicit Sparse Regularization
- arxiv url: http://arxiv.org/abs/2306.06858v1
- Date: Mon, 12 Jun 2023 04:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 16:08:16.194278
- Title: Robustifying DARTS by Eliminating Information Bypass Leakage via
Explicit Sparse Regularization
- Title(参考訳): 明示的スパース正規化による情報バイパスリーク除去によるDARTSのロバスト化
- Authors: Jiuling Zhang, Zhiming Ding
- Abstract要約: 微分可能なアーキテクチャサーチ (DARTS) は有望なエンドツーエンドNAS手法である。
最近の研究では、DARTSの基本的な仮説に疑問が投げかけられている。
そこで本研究では, DARTS を頑健化するための新しいスパース規則化近似と混合スパース性学習手法を提案する。
- 参考スコア(独自算出の注目度): 8.93957397187611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable architecture search (DARTS) is a promising end to end NAS
method which directly optimizes the architecture parameters through general
gradient descent. However, DARTS is brittle to the catastrophic failure
incurred by the skip connection in the search space. Recent studies also cast
doubt on the basic underlying hypotheses of DARTS which are argued to be
inherently prone to the performance discrepancy between the continuous-relaxed
supernet in the training phase and the discretized finalnet in the evaluation
phase. We figure out that the robustness problem and the skepticism can both be
explained by the information bypass leakage during the training of the
supernet. This naturally highlights the vital role of the sparsity of
architecture parameters in the training phase which has not been well developed
in the past. We thus propose a novel sparse-regularized approximation and an
efficient mixed-sparsity training scheme to robustify DARTS by eliminating the
information bypass leakage. We subsequently conduct extensive experiments on
multiple search spaces to demonstrate the effectiveness of our method.
- Abstract(参考訳): differentiable architecture search (darts)は、一般的な勾配降下を通じてアーキテクチャパラメータを直接最適化する、有望なエンドツーエンドnasメソッドである。
しかし、DARTSは探索空間におけるスキップ接続によって生じる破滅的な故障に対して脆弱である。
近年の研究では、トレーニング段階における連続相対スーパーネットと評価段階における離散ファイナネットのパフォーマンスの不一致を本質的に引き起こしていると論じるダーツの基本仮説に疑問を投げかけている。
我々は, 強靭性問題と懐疑論の両方が, スーパーネットのトレーニング中に漏洩した情報によって説明できることを示した。
これは、過去に十分に開発されていないトレーニングフェーズにおいて、アーキテクチャパラメータのスパーシティが果たす重要な役割を自然に浮き彫りにしている。
そこで本稿では,DARTSを高機能化するために,情報漏出を回避し,新たなスパース規則化近似と混合スパーシティ学習手法を提案する。
提案手法の有効性を実証するため,複数の探索空間について広範な実験を行った。
関連論文リスト
- The devil is in discretization discrepancy. Robustifying Differentiable NAS with Single-Stage Searching Protocol [2.4300749758571905]
勾配に基づく手法は離散化誤差に悩まされ、最終的なアーキテクチャを得る過程を著しく損なう可能性がある。
本稿では,連続的なアーキテクチャの復号化に依存しない新しい単一ステージ探索プロトコルを提案する。
本手法は,Cityscapes検証データセットの検索段階において75.3%の精度で他のDNAS法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T15:44:53Z) - IS-DARTS: Stabilizing DARTS through Precise Measurement on Candidate
Importance [41.23462863659102]
DARTSはその効率性と単純さで知られている。
しかし、DARTSの性能低下により、パラメータフリーな演算で満たされたアーキテクチャが劣化する。
我々は、DARTSを包括的に改善し、上記の問題を解決するためのIS-DARTSを提案する。
論文 参考訳(メタデータ) (2023-12-19T22:45:57Z) - Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - Magnitude Matters: Fixing SIGNSGD Through Magnitude-Aware Sparsification
in the Presence of Data Heterogeneity [60.791736094073]
通信オーバーヘッドは、ディープニューラルネットワークの分散トレーニングにおいて、大きなボトルネックのひとつになっています。
本稿では,SIGNSGDの非収束問題に対処する等級化方式を提案する。
提案手法は,Fashion-MNIST, CIFAR-10, CIFAR-100データセットを用いて検証した。
論文 参考訳(メタデータ) (2023-02-19T17:42:35Z) - $\beta$-DARTS++: Bi-level Regularization for Proxy-robust Differentiable
Architecture Search [96.99525100285084]
DARTSに基づくNAS探索プロセス($beta$-DARTS)を正規化するための正規化手法であるBeta-Decayを提案する。
どのように動作するのか、なぜ動作するのかに関する詳細な理論的分析が提供される。
論文 参考訳(メタデータ) (2023-01-16T12:30:32Z) - Enhancing the Robustness, Efficiency, and Diversity of Differentiable
Architecture Search [25.112048502327738]
微分可能なアーキテクチャサーチ(DARTS)は、その単純さと効率の大幅な向上により、多くの注目を集めている。
多くの研究は、インジケータや手動設計によるスキップ接続の蓄積を制限しようと試みている。
操作空間からスキップ接続を除去する、より微妙で直接的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T13:25:36Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - Connection Sensitivity Matters for Training-free DARTS: From
Architecture-Level Scoring to Operation-Level Sensitivity Analysis [32.94768616851585]
最近提案されたトレーニングフリーNAS手法は、トレーニングフェーズを放棄し、優れたアーキテクチャを識別するためのスコアとして、さまざまなゼロコストプロキシを設計する。
本稿では, DARTSにおける操作重要度を, パラメータ集中バイアスを回避して, トレーニング不要な方法で適切に測定できるか, という問題を提起する。
ZEROSをNASに活用するための反復的かつデータに依存しない手法を考案することにより、新しい試行は自由微分型アーキテクチャサーチ(FreeDARTS)と呼ばれるフレームワークに繋がる。
論文 参考訳(メタデータ) (2021-06-22T04:40:34Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Stabilizing Differentiable Architecture Search via Perturbation-based
Regularization [99.81980366552408]
最終アーキテクチャを蒸留する際の劇的な性能低下につながる急激なバリデーション損失の状況は、不安定を引き起こす重要な要因であることがわかった。
本研究では,DARTSに基づく手法の汎用性の向上と損失景観の円滑化を図るため,摂動型正規化(SmoothDARTS)を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。