論文の概要: PRE-NAS: Predictor-assisted Evolutionary Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2204.12726v1
- Date: Wed, 27 Apr 2022 06:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 13:25:27.647372
- Title: PRE-NAS: Predictor-assisted Evolutionary Neural Architecture Search
- Title(参考訳): Pre-NAS: 予測型進化型ニューラルネットワーク検索
- Authors: Yameng Peng, Andy Song, Vic Ciesielski, Haytham M. Fayek, Xiaojun
Chang
- Abstract要約: 我々は、新しい進化型NAS戦略、Predictor-assisted E-NAS(PRE-NAS)を提案する。
Pre-NASは新しい進化的探索戦略を活用し、世代ごとに高忠実度重みの継承を統合する。
NAS-Bench-201とDARTSの探索実験により、Pre-NASは最先端のNAS法より優れていることが示された。
- 参考スコア(独自算出の注目度): 34.06028035262884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) aims to automate architecture engineering in
neural networks. This often requires a high computational overhead to evaluate
a number of candidate networks from the set of all possible networks in the
search space during the search. Prediction of the networks' performance can
alleviate this high computational overhead by mitigating the need for
evaluating every candidate network. Developing such a predictor typically
requires a large number of evaluated architectures which may be difficult to
obtain. We address this challenge by proposing a novel evolutionary-based NAS
strategy, Predictor-assisted E-NAS (PRE-NAS), which can perform well even with
an extremely small number of evaluated architectures. PRE-NAS leverages new
evolutionary search strategies and integrates high-fidelity weight inheritance
over generations. Unlike one-shot strategies, which may suffer from bias in the
evaluation due to weight sharing, offspring candidates in PRE-NAS are
topologically homogeneous, which circumvents bias and leads to more accurate
predictions. Extensive experiments on NAS-Bench-201 and DARTS search spaces
show that PRE-NAS can outperform state-of-the-art NAS methods. With only a
single GPU searching for 0.6 days, competitive architecture can be found by
PRE-NAS which achieves 2.40% and 24% test error rates on CIFAR-10 and ImageNet
respectively.
- Abstract(参考訳): ニューラルネットワークにおけるアーキテクチャエンジニアリングを自動化することを目的としている。
これは検索空間内の全ての可能なネットワークの集合から複数の候補ネットワークを評価するために高い計算オーバーヘッドを必要とすることが多い。
ネットワークの性能予測は、全ての候補ネットワークを評価する必要性を軽減し、この高い計算オーバーヘッドを軽減することができる。
このような予測器の開発には、通常、多くの評価されたアーキテクチャが必要となる。
本稿では,進化型NAS戦略である予測型E-NAS(Predictor-assisted E-NAS, PRE-NAS)を提案する。
pre-nasは新しい進化的探索戦略を活用し、世代間の高忠実度重み継承を統合する。
重量共有による評価のバイアスに悩まされるワンショット戦略とは異なり、プレNASの子孫候補はトポロジカルに均質であり、バイアスを回避し、より正確な予測をもたらす。
NAS-Bench-201とDARTSの探索実験により、プレNASは最先端のNAS法より優れていることが示された。
0.6日間の単一のgpu検索だけで、競合アーキテクチャは、それぞれcifar-10とimagenetで2.40%と24%のテストエラー率を達成しているpre-nasによって見つけることができる。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - A General-Purpose Transferable Predictor for Neural Architecture Search [22.883809911265445]
本稿では,探索空間を横断的に移動可能なニューラルネットワーク探索(NAS)のための汎用ニューラルネットワーク予測器を提案する。
NAS-Bench-101, 201, 301の実験結果から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-21T17:28:05Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - BRP-NAS: Prediction-based NAS using GCNs [21.765796576990137]
BRP-NASは、グラフ畳み込みネットワーク(GCN)に基づく正確な性能予測によって実現された効率的なハードウェア対応NASである
提案手法はNAS-Bench-101とNAS-Bench-201の先行手法よりも優れていることを示す。
また、幅広いデバイスで動作するNAS-Bench-201モデルのレイテンシデータセットであるLatBenchもリリースしました。
論文 参考訳(メタデータ) (2020-07-16T21:58:43Z) - ADWPNAS: Architecture-Driven Weight Prediction for Neural Architecture
Search [6.458169480971417]
ニューラルアーキテクチャ探索(NAS)のためのアーキテクチャ駆動重み予測(ADWP)手法を提案する。
提案手法では,まずアーキテクチャ集約型検索空間を設計し,次にアーキテクチャパラメータをエンコードすることでハイパーネットワークワークを訓練する。
結果は、CIFAR-10上で1つの探索手順を4.0GPU時間で完了することを示す。
論文 参考訳(メタデータ) (2020-03-03T05:06:20Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。