論文の概要: NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2110.05668v1
- Date: Tue, 12 Oct 2021 01:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 04:45:56.415518
- Title: NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search
- Title(参考訳): NAS-Bench-360: ニューラルネットワーク探索のためのタスクのベンチマーク
- Authors: Renbo Tu, Mikhail Khodak, Nicholas Roberts, Ameet Talwalkar
- Abstract要約: 既存のニューラルアーキテクチャサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスクのパフォーマンスを優先している。
我々は、畳み込みニューラルネットワーク(CNN)のための最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
- 参考スコア(独自算出の注目度): 18.9676056830197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing neural architecture search (NAS) benchmarks and algorithms
prioritize performance on well-studied tasks, e.g., image classification on
CIFAR and ImageNet. This makes the applicability of NAS approaches in more
diverse areas inadequately understood. In this paper, we present NAS-Bench-360,
a benchmark suite for evaluating state-of-the-art NAS methods for convolutional
neural networks (CNNs). To construct it, we curate a collection of ten tasks
spanning a diverse array of application domains, dataset sizes, problem
dimensionalities, and learning objectives. By carefully selecting tasks that
can both interoperate with modern CNN-based search methods but that are also
far-afield from their original development domain, we can use NAS-Bench-360 to
investigate the following central question: do existing state-of-the-art NAS
methods perform well on diverse tasks? Our experiments show that a modern NAS
procedure designed for image classification can indeed find good architectures
for tasks with other dimensionalities and learning objectives; however, the
same method struggles against more task-specific methods and performs
catastrophically poorly on classification in non-vision domains. The case for
NAS robustness becomes even more dire in a resource-constrained setting, where
a recent NAS method provides little-to-no benefit over much simpler baselines.
These results demonstrate the need for a benchmark such as NAS-Bench-360 to
help develop NAS approaches that work well on a variety of tasks, a crucial
component of a truly robust and automated pipeline. We conclude with a
demonstration of the kind of future research our suite of tasks will enable.
All data and code is made publicly available.
- Abstract(参考訳): 既存のニューラルネットワークサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスク、例えばCIFARとImageNetの画像分類のパフォーマンスを優先している。
これにより、より多様な領域におけるNASアプローチの適用性が不十分になる。
本稿では,畳み込みニューラルネットワーク(CNN)の最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
これを構築するために、さまざまなアプリケーションドメイン、データセットのサイズ、問題次元、学習目標からなる10のタスクのコレクションをキュレーションします。
従来のCNNベースの検索手法と相互運用できるタスクを慎重に選択することで、NAS-Bench-360は、従来のNASメソッドが様々なタスクでうまく機能しているかという、次の中心的な疑問に答えることができる。
画像分類のための現代的なNASプロシージャは、他の次元や学習目的を持つタスクに対して優れたアーキテクチャを見出すことができるが、同じ手法はよりタスク固有の手法に抗し、非視覚領域の分類において破滅的に貧弱な処理を行う。
リソース制約のある環境では、NASロバストネスのケースは、より単純なベースラインよりも、最近のNASメソッドでは、ほとんど恩恵を受けない。
これらの結果は、NAS-Bench-360のようなベンチマークが、真に堅牢で自動化されたパイプラインの重要なコンポーネントである様々なタスクでうまく機能するNASアプローチの開発を支援する必要性を示している。
最後に、一連のタスクが実現するであろう将来の研究のデモで締めくくります。
すべてのデータとコードは公開されています。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - How Much Is Hidden in the NAS Benchmarks? Few-Shot Adaptation of a NAS
Predictor [22.87207410692821]
我々は,メタラーニングの豊富な分野から借用し,これらの手法のNASへの適用性について検討する。
我々のメタラーニングアプローチは、クロスバリデーション実験において優れた(あるいは一致した)性能を示すだけでなく、新しい検索空間とタスクへの外挿に成功した。
論文 参考訳(メタデータ) (2023-11-30T10:51:46Z) - Meta-prediction Model for Distillation-Aware NAS on Unseen Datasets [55.2118691522524]
Distillation-Aware Neural Architecture Search (DaNAS) は、最適な学生アーキテクチャを探すことを目的としている。
本稿では,あるアーキテクチャの最終的な性能をデータセット上で予測できる,蒸留対応のメタ精度予測モデルDaSSを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:00:35Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - UnrealNAS: Can We Search Neural Architectures with Unreal Data? [84.78460976605425]
ニューラルアーキテクチャサーチ(NAS)はディープニューラルネットワーク(DNN)の自動設計において大きな成功を収めた。
これまでの研究は、NASに地道ラベルを持つことの必要性を分析し、幅広い関心を喚起した。
NASが有効であるためには、実際のデータが必要であるかどうか、さらに疑問を呈する。
論文 参考訳(メタデータ) (2022-05-04T16:30:26Z) - Meta-Learning of NAS for Few-shot Learning in Medical Image Applications [10.666687733540668]
ニューラルアーキテクチャサーチ(NAS)は医療画像の様々な応用を動機付けている。
NASは、大量の注釈付きデータ、かなりのリソース、事前定義されたタスクの可用性を必要とする。
分類,セグメンテーション,検出,再構成などの様々な応用を応用した医用画像におけるNASアプローチについて紹介する。
論文 参考訳(メタデータ) (2022-03-16T21:21:51Z) - NAS-Bench-Suite: NAS Evaluation is (Now) Surprisingly Easy [37.72015163462501]
本稿では,一般的なNASアルゴリズムの詳細な解析と,検索空間とデータセットの25種類の組み合わせによる性能予測手法を提案する。
我々はNASベンチマークの包括的なコレクションであるNAS-Bench-Suiteを紹介する。
論文 参考訳(メタデータ) (2022-01-31T18:02:09Z) - TransNAS-Bench-101: Improving Transferability and Generalizability of
Cross-Task Neural Architecture Search [98.22779489340869]
本研究では、7つの視覚タスクにわたるネットワーク性能を含むベンチマークデータセットであるTransNAS-Bench-101を提案する。
セルレベルの検索空間とマクロレベルの検索空間という,基本的に異なるタイプの検索空間を探索する。
7つのタスクで7,352のバックボーンが評価され、詳細なトレーニング情報を備えた51,464のトレーニングモデルが提供される。
論文 参考訳(メタデータ) (2021-05-25T12:15:21Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。