論文の概要: GP-NAS-ensemble: a model for NAS Performance Prediction
- arxiv url: http://arxiv.org/abs/2301.09231v1
- Date: Mon, 23 Jan 2023 00:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 14:29:26.063921
- Title: GP-NAS-ensemble: a model for NAS Performance Prediction
- Title(参考訳): GP-NASアンサンブル:NAS性能予測モデル
- Authors: Kunlong Chen, Liu Yang, Yitian Chen, Kunjin Chen, Yidan Xu, Lujun Li
- Abstract要約: GP-NASアンサンブルは、小さなトレーニングデータセットでニューラルネットワークアーキテクチャのパフォーマンスを予測するために提案されている。
CVPR2022第2級軽量NASチャレンジ性能予測トラックの2位にランクインする。
- 参考スコア(独自算出の注目度): 6.785608131249699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is of great significance to estimate the performance of a given model
architecture without training in the application of Neural Architecture Search
(NAS) as it may take a lot of time to evaluate the performance of an
architecture. In this paper, a novel NAS framework called GP-NAS-ensemble is
proposed to predict the performance of a neural network architecture with a
small training dataset. We make several improvements on the GP-NAS model to
make it share the advantage of ensemble learning methods. Our method ranks
second in the CVPR2022 second lightweight NAS challenge performance prediction
track.
- Abstract(参考訳): アーキテクチャの性能を評価するのに多くの時間を要するため、ニューラルネットワークサーチ(NAS)の適用をトレーニングすることなく、与えられたモデルアーキテクチャのパフォーマンスを見積もることは非常に重要である。
本稿では,GP-NASアンサンブルと呼ばれる新しいNASフレームワークを提案する。
gp-nasモデルにいくつかの改良を加え,アンサンブル学習の利点を生かした。
本手法はcvpr2022第2軽量nasチャレンジ性能予測トラックで第2位である。
関連論文リスト
- FlatNAS: optimizing Flatness in Neural Architecture Search for
Out-of-Distribution Robustness [3.724847012963521]
本研究では、FlatNAS(Flat Neural Architecture Search)と呼ばれる新しいNASソリューションを提案する。
シャープネス・アウェア・ミニマライゼーション(SAM)を用いた1つのNN最適化と頑健さから重みへの摂動に基づく新しいメリット像の相互作用を探索する。
NAS設計モデルのOODロバスト性は、文献における一般的なベンチマークデータセットを用いて、入力データの破損に対するロバスト性に着目して評価される。
論文 参考訳(メタデータ) (2024-02-29T12:33:14Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with
Diffusion Models [60.70651816115052]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
2つの予測型NASシナリオにおける広範囲な実験を通してDiffusionNAGの有効性を検証する。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - PredNAS: A Universal and Sample Efficient Neural Architecture Search
Framework [20.59478264338981]
ニューラル・アーキテクチャ・サーチ(NAS)のための汎用的で効果的なフレームワークであるPredNASを提案する。
我々はニューラル予測器を性能予測器として採用する。驚いたことに、PredNASはNASベンチマークの最先端のパフォーマンスを、少数のトレーニングサンプルで達成できる。
論文 参考訳(メタデータ) (2022-10-26T04:15:58Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Neural Architecture Performance Prediction Using Graph Neural Networks [17.224223176258334]
グラフニューラルネットワーク(GNN)に基づくニューラルネットワーク性能予測のための代理モデルを提案する。
構造不明アーキテクチャのニューラルネットワーク性能予測におけるこの代理モデルの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-19T09:33:57Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - BRP-NAS: Prediction-based NAS using GCNs [21.765796576990137]
BRP-NASは、グラフ畳み込みネットワーク(GCN)に基づく正確な性能予測によって実現された効率的なハードウェア対応NASである
提案手法はNAS-Bench-101とNAS-Bench-201の先行手法よりも優れていることを示す。
また、幅広いデバイスで動作するNAS-Bench-201モデルのレイテンシデータセットであるLatBenchもリリースしました。
論文 参考訳(メタデータ) (2020-07-16T21:58:43Z) - BNAS:An Efficient Neural Architecture Search Approach Using Broad
Scalable Architecture [62.587982139871976]
我々はBCNN(Broad Convolutional Neural Network)と呼ばれる広義のスケーラブルなアーキテクチャを精巧に設計するBNAS(Broad Neural Architecture Search)を提案する。
BNASは0.19日であり、ENASよりも2.37倍安い。
論文 参考訳(メタデータ) (2020-01-18T15:07:55Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。