論文の概要: Powering One-shot Topological NAS with Stabilized Share-parameter Proxy
- arxiv url: http://arxiv.org/abs/2005.10511v1
- Date: Thu, 21 May 2020 08:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:38:40.369918
- Title: Powering One-shot Topological NAS with Stabilized Share-parameter Proxy
- Title(参考訳): 安定化共有パラメータプロキシを用いたワンショットトポロジカルNAS
- Authors: Ronghao Guo, Chen Lin, Chuming Li, Keyu Tian, Ming Sun, Lu Sheng,
Junjie Yan
- Abstract要約: ワンショットNAS法は、高性能モデルを発見するための訓練効率と能力が際立ったため、研究コミュニティから大きな関心を集めている。
本研究では,大規模Topology Augmented Search Spaceにおいて,高性能なネットワークアーキテクチャを探索することにより,ワンショットNASの向上を図る。
提案手法は,ImageNet 上の Multiply-Adds (MAdds) 制約下での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 65.09967910722932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot NAS method has attracted much interest from the research community
due to its remarkable training efficiency and capacity to discover high
performance models. However, the search spaces of previous one-shot based works
usually relied on hand-craft design and were short for flexibility on the
network topology. In this work, we try to enhance the one-shot NAS by exploring
high-performing network architectures in our large-scale Topology Augmented
Search Space (i.e., over 3.4*10^10 different topological structures).
Specifically, the difficulties for architecture searching in such a complex
space has been eliminated by the proposed stabilized share-parameter proxy,
which employs Stochastic Gradient Langevin Dynamics to enable fast shared
parameter sampling, so as to achieve stabilized measurement of architecture
performance even in search space with complex topological structures. The
proposed method, namely Stablized Topological Neural Architecture Search
(ST-NAS), achieves state-of-the-art performance under Multiply-Adds (MAdds)
constraint on ImageNet. Our lite model ST-NAS-A achieves 76.4% top-1 accuracy
with only 326M MAdds. Our moderate model ST-NAS-B achieves 77.9% top-1 accuracy
just required 503M MAdds. Both of our models offer superior performances in
comparison to other concurrent works on one-shot NAS.
- Abstract(参考訳): ワンショットnas法は、優れたトレーニング効率と高性能モデルの発見能力により、研究コミュニティから多くの関心を集めている。
しかし、以前のワンショットベースの作品の検索スペースは通常手作業による設計に依存しており、ネットワークトポロジの柔軟性に乏しかった。
本研究では,大規模トポロジー拡張探索空間(3.4*10^10以上の異なる位相構造)において,高パフォーマンスネットワークアーキテクチャを探索することで,ワンショットnasを強化する。
特に、このような複雑な空間におけるアーキテクチャ探索の難しさは、複雑な位相構造を持つ探索空間においても安定したアーキテクチャ性能の測定を実現するために、確率的勾配ランジュバンダイナミクスを用いた安定化共有パラメータプロキシによって排除されている。
The proposed method, Stablized Topological Neural Architecture Search (ST-NAS) は、ImageNet上でMultiply-Adds (MAdds) 制約下での最先端の性能を実現する。
直列モデルST-NAS-Aは76.4%の精度で326万マッドしか達成できない。
我々の中程度のモデルST-NAS-Bは、503M MAddsだけで77.9%のトップ-1精度が得られる。
どちらのモデルも、ワンショットNAS上の他の並行処理に比べて優れたパフォーマンスを提供する。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - TG-NAS: Leveraging Zero-Cost Proxies with Transformer and Graph Convolution Networks for Efficient Neural Architecture Search [1.30891455653235]
TG-NASは、アーキテクチャのパフォーマンス予測のためのトレーニング不要プロキシを作成することを目的としている。
TG-NASはトランスフォーマーベースの演算子埋め込みジェネレータとグラフ畳み込みネットワーク(GCN)を利用してアーキテクチャ性能を予測する新しいモデルベースユニバーサルプロキシである。
TG-NASは従来のSOTA ZCプロキシ手法に比べて最大300倍の検索効率向上を実現している。
論文 参考訳(メタデータ) (2024-03-30T07:25:30Z) - Generalizable Lightweight Proxy for Robust NAS against Diverse
Perturbations [59.683234126055694]
最近のニューラルアーキテクチャサーチ(NAS)フレームワークは、与えられた条件に対して最適なアーキテクチャを見つけるのに成功している。
クリーン画像と摂動画像の両方の特徴,パラメータ,勾配の整合性を考慮した,軽量で堅牢なゼロコストプロキシを提案する。
提案手法は,多種多様な摂動にまたがる堅牢性を示す一般化可能な特徴を学習可能な,効率的かつ迅速なニューラルアーキテクチャの探索を容易にする。
論文 参考訳(メタデータ) (2023-06-08T08:34:26Z) - Robust Neural Architecture Search [19.214462477848535]
我々は、新しいNAS手法、Robust Neural Architecture Search (RNAS)を提案する。
精度とロバスト性のバランスをとるために正規化項を設計するために、RNASは高い精度と良好なロバスト性の両方でアーキテクチャを生成する。
実験により、RNASは画像分類と敵攻撃の両方において最先端(SOTA)性能を達成することが示された。
論文 参考訳(メタデータ) (2023-04-06T03:21:24Z) - TND-NAS: Towards Non-differentiable Objectives in Progressive
Differentiable NAS Framework [6.895590095853327]
微分可能なアーキテクチャサーチは、ニューラルネットワークサーチ(NAS)分野において、徐々に主流の研究トピックになりつつある。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
微分可能なNASフレームワークにおける高効率と、多目的NASにおける非微分可能なメトリクス間の互換性を両立させたTND-NASを提案する。
論文 参考訳(メタデータ) (2021-11-06T14:19:36Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Progressive Automatic Design of Search Space for One-Shot Neural
Architecture Search [15.017964136568061]
単発モデルの精度が高いモデルでは,スタンドアローンの訓練では必ずしも優れた性能が得られない。
PAD-NASという検索空間のプログレッシブ自動設計を提案する。
このようにして、PAD-NASは各レイヤの操作を自動的に設計し、検索空間の品質とモデルの多様性のトレードオフを達成できる。
論文 参考訳(メタデータ) (2020-05-15T14:21:07Z) - BNAS:An Efficient Neural Architecture Search Approach Using Broad
Scalable Architecture [62.587982139871976]
我々はBCNN(Broad Convolutional Neural Network)と呼ばれる広義のスケーラブルなアーキテクチャを精巧に設計するBNAS(Broad Neural Architecture Search)を提案する。
BNASは0.19日であり、ENASよりも2.37倍安い。
論文 参考訳(メタデータ) (2020-01-18T15:07:55Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。