論文の概要: AceNAS: Learning to Rank Ace Neural Architectures with Weak Supervision
of Weight Sharing
- arxiv url: http://arxiv.org/abs/2108.03001v1
- Date: Fri, 6 Aug 2021 08:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:42:27.340099
- Title: AceNAS: Learning to Rank Ace Neural Architectures with Weak Supervision
of Weight Sharing
- Title(参考訳): AceNAS: ウェイトシェアの弱スーパービジョンでニューラルネットワークのランク付けを学ぶ
- Authors: Yuge Zhang and Chenqian Yan and Quanlu Zhang and Li Lyna Zhang and
Yaming Yang and Xiaotian Gao and Yuqing Yang
- Abstract要約: 空間から最高のアーキテクチャを選択するためのLearning to Rank手法を紹介します。
また,スーパーネットから得られた弱いラベルのアーキテクチャ表現を事前学習することで,重み共有から弱い管理を活用することを提案する。
NASベンチマークと大規模検索空間を用いた実験により,提案手法はSOTAよりも検索コストが大幅に削減された。
- 参考スコア(独自算出の注目度): 6.171090327531059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Architecture performance predictors have been widely used in neural
architecture search (NAS). Although they are shown to be simple and effective,
the optimization objectives in previous arts (e.g., precise accuracy estimation
or perfect ranking of all architectures in the space) did not capture the
ranking nature of NAS. In addition, a large number of ground-truth
architecture-accuracy pairs are usually required to build a reliable predictor,
making the process too computationally expensive. To overcome these, in this
paper, we look at NAS from a novel point of view and introduce Learning to Rank
(LTR) methods to select the best (ace) architectures from a space.
Specifically, we propose to use Normalized Discounted Cumulative Gain (NDCG) as
the target metric and LambdaRank as the training algorithm. We also propose to
leverage weak supervision from weight sharing by pretraining architecture
representation on weak labels obtained from the super-net and then finetuning
the ranking model using a small number of architectures trained from scratch.
Extensive experiments on NAS benchmarks and large-scale search spaces
demonstrate that our approach outperforms SOTA with a significantly reduced
search cost.
- Abstract(参考訳): アーキテクチャ性能予測器はニューラルアーキテクチャサーチ(NAS)で広く使われている。
それらは単純かつ効果的であることが示されているが、従来の芸術の最適化目的(例えば、空間内のすべてのアーキテクチャの正確な精度推定や完全なランキング)はNASのランク付けの性質を捉えていなかった。
さらに、信頼性の高い予測器を構築するには、多くの接地アーキテクチャと精度のペアが必要であり、計算コストが高すぎる。
そこで本稿では,NASを新たな視点から検討し,Learning to Rank(LTR)手法を導入して,空間から最高の(最悪の)アーキテクチャを選択する。
具体的には,正規化割引累積ゲイン(ndcg)を目標メトリックとして,ラムダランクをトレーニングアルゴリズムとして使用することを提案する。
また,スーパーネットから得られた弱いラベルに対するアーキテクチャ表現を事前トレーニングし,スクラッチからトレーニングした少数のアーキテクチャを用いてランキングモデルを微調整することにより,重量分散による弱い監督を活用することを提案する。
NASベンチマークと大規模検索空間の大規模な実験により,提案手法はSOTAよりも大幅にコストを削減した。
関連論文リスト
- NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Towards Self-supervised and Weight-preserving Neural Architecture Search [38.497608743382145]
本研究では,現在のNASフレームワークの拡張として,自己教師付き重み保存型ニューラルネットワーク探索(SSWP-NAS)を提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにおいて, 提案したフレームワークによって探索されたアーキテクチャが, 最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2022-06-08T18:48:05Z) - Neural Architecture Ranker [19.21631623578852]
アーキテクチャランキングは、最近、ニューラルネットワークサーチ(NAS)のための効率的で効果的なパフォーマンス予測器を設計することを提唱されている。
成層層化にインスパイアされた予測器,すなわちニューラルランサー(NAR)を提案する。
論文 参考訳(メタデータ) (2022-01-30T04:54:59Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - RankNAS: Efficient Neural Architecture Search by Pairwise Ranking [30.890612901949307]
本稿では,ペアランキングを用いたパフォーマンスランキング手法(RankNAS)を提案する。
トレーニングの例をはるかに少なくして、効率的なアーキテクチャ検索を可能にする。
最先端のNASシステムよりも桁違いに高速でありながら、高性能なアーキテクチャを設計することができる。
論文 参考訳(メタデータ) (2021-09-15T15:43:08Z) - Pretraining Neural Architecture Search Controllers with Locality-based
Self-Supervised Learning [0.0]
コントローラベースのNASに適用可能なプリトレーニング方式を提案する。
本手法は局所性に基づく自己教師付き分類タスクであり,ネットワークアーキテクチャの構造的類似性を活用し,優れたアーキテクチャ表現を得る。
論文 参考訳(メタデータ) (2021-03-15T06:30:36Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Semi-Supervised Neural Architecture Search [185.0651567642238]
SemiNASは、多くの未ラベルアーキテクチャを活用する半教師付きニューラルアーキテクチャサーチ(NAS)アプローチである(評価なしで、ほぼコストがかからない)。
NASBench-101で94.02%のテスト精度を達成し、同じ数のアーキテクチャを使用する場合、すべてのベースラインを上回ります。
低リソース環境では97%のインテリジェンス率、ロバストネス環境では15%のテストエラー率、ベースラインではそれぞれ9%、7%の改善を実現している。
論文 参考訳(メタデータ) (2020-02-24T17:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。