論文の概要: RARTS: An Efficient First-Order Relaxed Architecture Search Method
- arxiv url: http://arxiv.org/abs/2008.03901v2
- Date: Fri, 24 Jun 2022 06:36:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:11:48.767774
- Title: RARTS: An Efficient First-Order Relaxed Architecture Search Method
- Title(参考訳): RARTS: 効率的な1次緩和アーキテクチャ探索手法
- Authors: Fanghui Xue, Yingyong Qi, Jack Xin
- Abstract要約: 微分可能なアーキテクチャ探索(DARTS)は、二段階最適化問題の解法に基づく、データ駆動型ニューラルネットワーク設計の有効な方法である。
我々は、データとネットワーク分割の両方を通してアーキテクチャ学習のデータセット全体を利用する、単一レベルの代替品と緩和アーキテクチャ検索(RARTS)手法を定式化する。
RARTSは、トポロジカルアーキテクチャ、すなわちエッジと演算を探索するタスクにおいて、CIFAR-10上の2階DARTSよりも高い精度と60%の計算コストを得る。
- 参考スコア(独自算出の注目度): 5.491655566898372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable architecture search (DARTS) is an effective method for
data-driven neural network design based on solving a bilevel optimization
problem. Despite its success in many architecture search tasks, there are still
some concerns about the accuracy of first-order DARTS and the efficiency of the
second-order DARTS. In this paper, we formulate a single level alternative and
a relaxed architecture search (RARTS) method that utilizes the whole dataset in
architecture learning via both data and network splitting, without involving
mixed second derivatives of the corresponding loss functions like DARTS. In our
formulation of network splitting, two networks with different but related
weights cooperate in search of a shared architecture. The advantage of RARTS
over DARTS is justified by a convergence theorem and an analytically solvable
model. Moreover, RARTS outperforms DARTS and its variants in accuracy and
search efficiency, as shown in adequate experimental results. For the task of
searching topological architecture, i.e., the edges and the operations, RARTS
obtains a higher accuracy and 60\% reduction of computational cost than
second-order DARTS on CIFAR-10. RARTS continues to out-perform DARTS upon
transfer to ImageNet and is on par with recent variants of DARTS even though
our innovation is purely on the training algorithm without modifying search
space. For the task of searching width, i.e., the number of channels in
convolutional layers, RARTS also outperforms the traditional network pruning
benchmarks. Further experiments on the public architecture search benchmark
like NATS-Bench also support the preeminence of RARTS.
- Abstract(参考訳): 微分可能なアーキテクチャ探索(DARTS)は、二段階最適化問題の解法に基づくデータ駆動型ニューラルネットワーク設計の有効な方法である。
多くのアーキテクチャ検索タスクで成功したにもかかわらず、一階のdartの精度と二階のdartの効率にはまだ懸念が残っている。
本稿では、DARTSのような損失関数の2次微分を混合することなく、データとネットワーク分割の両方を通してアーキテクチャ学習のデータセット全体を利用する、単一レベルの代替と緩和アーキテクチャ探索(RARTS)法を定式化する。
ネットワーク分割の定式化では,共有アーキテクチャの探索において,異なる重みを持つ2つのネットワークが協調する。
DARTS に対する RARTS の利点は収束定理と解析的に解けるモデルによって正当化される。
さらに、RARTSはDARTSとその変種を十分な実験結果で示すように精度と探索効率で上回る。
RARTSは、トポロジカルアーキテクチャ、すなわちエッジと演算を探索するタスクにおいて、CIFAR-10上の2階DARTSよりも高い精度と60倍の計算コストを得る。
RARTSはImageNetへの転送時にDARTSを上回り続けており、我々の革新は純粋に検索空間を変更することなくトレーニングアルゴリズムに基づいているにもかかわらず、最近のDARTSと同等である。
RARTSは、幅の探索、すなわち畳み込み層内のチャネル数に対して、従来のネットワークプルーニングベンチマークよりも優れている。
NATS-Benchのような公開アーキテクチャ検索ベンチマークに関するさらなる実験は、RARTSの優位性もサポートする。
関連論文リスト
- OStr-DARTS: Differentiable Neural Architecture Search based on Operation Strength [70.76342136866413]
分散アーキテクチャサーチ(DARTS)は、効果的なニューラルネットワークサーチの有望な技術として登場した。
DARTSは、アーキテクチャの劣化につながる、よく知られた退化問題に悩まされている。
最終損失に対する操作の重要性を推定する操作強度に基づく新しい基準を提案する。
論文 参考訳(メタデータ) (2024-09-22T13:16:07Z) - Efficient Architecture Search via Bi-level Data Pruning [70.29970746807882]
この研究は、DARTSの双方向最適化におけるデータセット特性の重要な役割を探求する先駆者となった。
我々は、スーパーネット予測力学を計量として活用する新しいプログレッシブデータプルーニング戦略を導入する。
NAS-Bench-201サーチスペース、DARTSサーチスペース、MobileNetのようなサーチスペースに関する総合的な評価は、BDPがサーチコストを50%以上削減することを検証する。
論文 参考訳(メタデータ) (2023-12-21T02:48:44Z) - $\Lambda$-DARTS: Mitigating Performance Collapse by Harmonizing
Operation Selection among Cells [11.777101481512423]
微分可能なニューラルアーキテクチャサーチ(DARTS)はニューラルアーキテクチャサーチ(NAS)の一般的な方法である
我々は、DARTSの収束をソフトマックス関数の飽和点に制限するウェイトシェアリングフレームワークにより、DARTSは特定の構造欠陥に悩まされていることを示す。
そこで本稿では,階層の勾配を整合させて動作選択を調和させることにより,性能低下を防止するための2つの新たな正規化用語を提案する。
論文 参考訳(メタデータ) (2022-10-14T17:54:01Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - DARTS for Inverse Problems: a Study on Hyperparameter Sensitivity [21.263326724329698]
微分可能なアーキテクチャサーチ(DARTS)は、ニューラルネットワークサーチのための広く研究されているツールである。
本報告では,DARTSをベースとした各種手法の結果と,その基礎となる性能統計について報告する。
論文 参考訳(メタデータ) (2021-08-12T10:28:02Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Partially-Connected Differentiable Architecture Search for Deepfake and
Spoofing Detection [14.792884010821762]
本稿では,darts( differentiable architecture search)アプローチをdeepfakeおよびspoofing検出問題に適用した最初の事例について報告する。
DARTSは連続的かつ微分可能な検索空間で動作し、アーキテクチャとパラメータの両方を勾配降下により最適化することができる。
論文 参考訳(メタデータ) (2021-04-07T13:53:20Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - Theory-Inspired Path-Regularized Differential Network Architecture
Search [206.93821077400733]
差分アーキテクチャサーチ(DARTS)における高速ネットワーク最適化に対するスキップ接続の影響と,他のタイプの操作に対する競争上の優位性について検討する。
i)操作間の不当競争を避けるために各操作に導入された差分群構造スパース二乗ゲートと,(ii)浅部より収束する深部アーキテクチャの探索を誘導するために用いられる経路深度正規化の2つの主要なモジュールからなる理論に着想を得た経路規則化DARTSを提案する。
論文 参考訳(メタデータ) (2020-06-30T05:28:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。