論文の概要: NAS evaluation is frustratingly hard
- arxiv url: http://arxiv.org/abs/1912.12522v3
- Date: Thu, 13 Feb 2020 22:10:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:36:09.831487
- Title: NAS evaluation is frustratingly hard
- Title(参考訳): NAS評価はフラストレーション的に難しい
- Authors: Antoine Yang, Pedro M. Esperan\c{c}a, Fabio M. Carlucci
- Abstract要約: Neural Architecture Search(NAS)は、2012年のConvolutional Neural Networksと同じくらい、ゲームチェンジャーになることを約束する、エキサイティングな新しい分野だ。
異なるメソッドの比較は、まだ非常にオープンな問題です。
最初のコントリビューションは、データセット5ドルに対する8ドルのNASメソッドのベンチマークです。
- 参考スコア(独自算出の注目度): 1.7188280334580197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) is an exciting new field which promises to
be as much as a game-changer as Convolutional Neural Networks were in 2012.
Despite many great works leading to substantial improvements on a variety of
tasks, comparison between different methods is still very much an open issue.
While most algorithms are tested on the same datasets, there is no shared
experimental protocol followed by all. As such, and due to the under-use of
ablation studies, there is a lack of clarity regarding why certain methods are
more effective than others. Our first contribution is a benchmark of $8$ NAS
methods on $5$ datasets. To overcome the hurdle of comparing methods with
different search spaces, we propose using a method's relative improvement over
the randomly sampled average architecture, which effectively removes advantages
arising from expertly engineered search spaces or training protocols.
Surprisingly, we find that many NAS techniques struggle to significantly beat
the average architecture baseline. We perform further experiments with the
commonly used DARTS search space in order to understand the contribution of
each component in the NAS pipeline. These experiments highlight that: (i) the
use of tricks in the evaluation protocol has a predominant impact on the
reported performance of architectures; (ii) the cell-based search space has a
very narrow accuracy range, such that the seed has a considerable impact on
architecture rankings; (iii) the hand-designed macro-structure (cells) is more
important than the searched micro-structure (operations); and (iv) the
depth-gap is a real phenomenon, evidenced by the change in rankings between $8$
and $20$ cell architectures. To conclude, we suggest best practices, that we
hope will prove useful for the community and help mitigate current NAS
pitfalls. The code used is available at
https://github.com/antoyang/NAS-Benchmark.
- Abstract(参考訳): Neural Architecture Search(NAS)は、2012年のConvolutional Neural Networksと同じくらい、ゲームチェンジャーになることを約束する、エキサイティングな新しい分野だ。
様々なタスクに対する大幅な改善につながる多くの優れた作業にもかかわらず、異なるメソッドの比較は依然として非常にオープンな問題である。
ほとんどのアルゴリズムは同一のデータセットでテストされるが、実験的なプロトコルの共有は一切ない。
このように、また、アブレーション研究の過小利用により、特定の方法が他の方法よりも効果的である理由の明確さが欠如している。
最初のコントリビューションは、データセット5ドルに対する8ドルのNASメソッドのベンチマークです。
異なる検索空間とメソッドを比較するハードルを克服するため、ランダムにサンプリングされた平均的アーキテクチャよりも相対的に改善する手法を提案し、専門家が設計した検索空間やトレーニングプロトコルから生じる利点を効果的に除去する。
驚いたことに、多くのNAS技術が平均的なアーキテクチャのベースラインを大きく上回るのに苦労している。
我々は、NASパイプラインにおける各コンポーネントの寄与を理解するために、よく使われるDARTS探索空間でさらなる実験を行う。
これらの実験は
(i)評価プロトコルにおけるトリックの使用は、アーキテクチャの報告された性能に大きな影響を与える。
(ii) セルベースの検索空間は、その種がアーキテクチャのランキングに大きな影響を与えるように、非常に狭い精度範囲を有する。
(iii)手作りのマクロ構造(セル)は、探索されたマイクロ構造(操作)よりも重要である。
(iv)この奥行きギャップは実質的な現象であり、8ドルから20ドルのセルアーキテクチャのランキングが変化したことが証明している。
結論として、私たちはコミュニティにとって有益であることを証明し、現在のNAS落とし穴を軽減するためのベストプラクティスを提案します。
使用するコードはhttps://github.com/antoyang/NAS-Benchmarkで公開されている。
関連論文リスト
- Delta-NAS: Difference of Architecture Encoding for Predictor-based Evolutionary Neural Architecture Search [5.1331676121360985]
我々は,NASの微粒化を低コストで行うアルゴリズムを構築した。
類似ネットワークの精度の差を予測することにより,問題を低次元空間に投影することを提案する。
論文 参考訳(メタデータ) (2024-11-21T02:43:32Z) - The devil is in discretization discrepancy. Robustifying Differentiable NAS with Single-Stage Searching Protocol [2.4300749758571905]
勾配に基づく手法は離散化誤差に悩まされ、最終的なアーキテクチャを得る過程を著しく損なう可能性がある。
本稿では,連続的なアーキテクチャの復号化に依存しない新しい単一ステージ探索プロトコルを提案する。
本手法は,Cityscapes検証データセットの検索段階において75.3%の精度で他のDNAS法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T15:44:53Z) - Are Neural Architecture Search Benchmarks Well Designed? A Deeper Look
Into Operation Importance [5.065947993017157]
我々は、広く使われているNAS-Bench-101、NAS-Bench-201、TransNAS-Bench-101ベンチマークを実証分析した。
性能範囲の上限に近いアーキテクチャを生成するためには,操作プールのサブセットのみが必要であることがわかった。
一貫性のある畳み込みレイヤは、アーキテクチャのパフォーマンスに最も影響していると考えています。
論文 参考訳(メタデータ) (2023-03-29T18:03:28Z) - Generalizing Few-Shot NAS with Gradient Matching [165.5690495295074]
One-Shotメソッドは、1つのスーパーネットをトレーニングし、ウェイトシェアリングを通じて検索空間内の全てのアーキテクチャのパフォーマンスを近似する。
Few-Shot NASは、One-Shotスーパーネットを複数のサブスーパーネットに分割することで、ウェイトシェアリングのレベルを下げる。
Few-Shotよりも優れており、派生したアーキテクチャの精度という点では、従来の同等の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2022-03-29T03:06:16Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - Prioritized Architecture Sampling with Monto-Carlo Tree Search [54.72096546595955]
ワンショットニューラルアーキテクチャサーチ(NAS)法は,検索空間全体を1つのネットワークとして考えることにより,検索コストを大幅に削減する。
本稿では,モンテカルロ木(MCT)をモデルとした探索空間を用いたモンテカルロ木探索(MCTS)に基づくサンプリング戦略について紹介する。
公平な比較のために、CIFAR-10で評価されたマクロ検索空間、すなわちNAS-Bench-MacroのオープンソースNASベンチマークを構築する。
論文 参考訳(メタデータ) (2021-03-22T15:09:29Z) - Contrastive Neural Architecture Search with Neural Architecture
Comparators [46.45102111497492]
neural architecture search(nas)における重要なステップの1つは、候補アーキテクチャのパフォーマンスを見積もることである。
既存のメソッドは、バリデーションパフォーマンスを直接使用するか、あるいは予測子を学習してパフォーマンスを見積もる。
本稿では,アーキテクチャ間の比較結果を報奨としてアーキテクチャ探索を行うCTNAS(Contrastive Neural Architecture Search)手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T11:24:07Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。