論文の概要: Enhancing the Robustness, Efficiency, and Diversity of Differentiable
Architecture Search
- arxiv url: http://arxiv.org/abs/2204.04681v1
- Date: Sun, 10 Apr 2022 13:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 14:36:25.433937
- Title: Enhancing the Robustness, Efficiency, and Diversity of Differentiable
Architecture Search
- Title(参考訳): 差別化可能なアーキテクチャ探索のロバスト性,効率性,多様性の向上
- Authors: Chao Li, Jia Ning, Han Hu, Kun He
- Abstract要約: 微分可能なアーキテクチャサーチ(DARTS)は、その単純さと効率の大幅な向上により、多くの注目を集めている。
多くの研究は、インジケータや手動設計によるスキップ接続の蓄積を制限しようと試みている。
操作空間からスキップ接続を除去する、より微妙で直接的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 25.112048502327738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable architecture search (DARTS) has attracted much attention due
to its simplicity and significant improvement in efficiency. However, the
excessive accumulation of the skip connection makes it suffer from long-term
weak stability and low robustness. Many works attempt to restrict the
accumulation of skip connections by indicators or manual design, however, these
methods are susceptible to thresholds and human priors. In this work, we
suggest a more subtle and direct approach that removes skip connections from
the operation space. Then, by introducing an adaptive channel allocation
strategy, we redesign the DARTS framework to automatically refill the skip
connections in the evaluation stage, resolving the performance degradation
caused by the absence of skip connections. Our method, dubbed
Adaptive-Channel-Allocation-DARTS (ACA-DRATS), could eliminate the
inconsistency in operation strength and significantly expand the architecture
diversity. We continue to explore smaller search space under our framework, and
offer a direct search on the entire ImageNet dataset. Experiments show that
ACA-DRATS improves the search stability and significantly speeds up DARTS by
more than ten times while yielding higher accuracy.
- Abstract(参考訳): 微分可能なアーキテクチャ探索(DARTS)は、その単純さと効率の大幅な向上により、多くの注目を集めている。
しかし、スキップ接続の過剰な蓄積は長期の弱い安定性と低ロバスト性に苦しむ。
多くの作業は、指示器や手動設計によるスキップ接続の蓄積を制限するが、これらの方法は閾値や人間の優先に影響を受けやすい。
本研究では,操作空間からのスキップ接続を除去する,より微妙で直接的なアプローチを提案する。
次に,アダプティブチャネル割り当て戦略を導入することで,dartsフレームワークを再設計し,評価段階におけるスキップ接続を自動的に補充し,スキップ接続の欠如による性能低下を解消する。
提案手法はACA-DRATS(Adaptive-Channel-Allocation-DARTS)と呼ばれ,操作強度の不整合を排除し,アーキテクチャの多様性を大幅に拡張する。
私たちのフレームワークの下では、より小さな検索スペースを探求し続け、imagenetデータセット全体を直接検索します。
実験の結果, ACA-DRATSは探索安定性を向上し, DARTSを10倍以上高速化し, 精度も向上した。
関連論文リスト
- Efficient Architecture Search via Bi-level Data Pruning [70.29970746807882]
この研究は、DARTSの双方向最適化におけるデータセット特性の重要な役割を探求する先駆者となった。
我々は、スーパーネット予測力学を計量として活用する新しいプログレッシブデータプルーニング戦略を導入する。
NAS-Bench-201サーチスペース、DARTSサーチスペース、MobileNetのようなサーチスペースに関する総合的な評価は、BDPがサーチコストを50%以上削減することを検証する。
論文 参考訳(メタデータ) (2023-12-21T02:48:44Z) - Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - Operation-level Progressive Differentiable Architecture Search [19.214462477848535]
本研究では,接続アグリゲーションのスキップを回避するために,オペレーショナル・プログレッシブ・差別化可能なニューラルアーキテクチャ・サーチ(OPP-DARTS)を提案する。
CIFAR-10における本手法の性能は,標準DARTSのアーキテクチャよりも優れている。
論文 参考訳(メタデータ) (2023-02-11T09:18:01Z) - $\Lambda$-DARTS: Mitigating Performance Collapse by Harmonizing
Operation Selection among Cells [11.777101481512423]
微分可能なニューラルアーキテクチャサーチ(DARTS)はニューラルアーキテクチャサーチ(NAS)の一般的な方法である
我々は、DARTSの収束をソフトマックス関数の飽和点に制限するウェイトシェアリングフレームワークにより、DARTSは特定の構造欠陥に悩まされていることを示す。
そこで本稿では,階層の勾配を整合させて動作選択を調和させることにより,性能低下を防止するための2つの新たな正規化用語を提案する。
論文 参考訳(メタデータ) (2022-10-14T17:54:01Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - iDARTS: Improving DARTS by Node Normalization and Decorrelation
Discretization [51.489024258966886]
微分可能なArchiTecture Search(DARTS)は、ネットワーク表現の継続的緩和を使用し、GPUデーにおいて、ニューラルネットワークサーチ(NAS)を約数千倍高速化する。
しかし、DARTSの探索過程は不安定であり、訓練の時期が大きくなると著しく劣化する。
そこで本研究では,DARTSの改良版であるiDARTSを提案する。
論文 参考訳(メタデータ) (2021-08-25T02:23:30Z) - MS-DARTS: Mean-Shift Based Differentiable Architecture Search [11.115656548869199]
サンプリングと摂動に基づく安定性向上のための平均シフトベースDARTS(MS-DARTS)を提案する。
MS-DARTSは、検索コストを削減した他の最先端NASメソッドよりも高いパフォーマンスをアーカイブする。
論文 参考訳(メタデータ) (2021-08-23T08:06:45Z) - DARTS-: Robustly Stepping out of Performance Collapse Without Indicators [74.21019737169675]
異なるアーキテクチャ検索は、長期にわたるパフォーマンスの不安定さに悩まされる。
ヘッセン固有値のような指標は、性能が崩壊する前に探索を止める信号として提案される。
本稿では,崩壊を解決するために,より微妙で直接的なアプローチをとる。
論文 参考訳(メタデータ) (2020-09-02T12:54:13Z) - Stabilizing Differentiable Architecture Search via Perturbation-based
Regularization [99.81980366552408]
最終アーキテクチャを蒸留する際の劇的な性能低下につながる急激なバリデーション損失の状況は、不安定を引き起こす重要な要因であることがわかった。
本研究では,DARTSに基づく手法の汎用性の向上と損失景観の円滑化を図るため,摂動型正規化(SmoothDARTS)を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。