論文の概要: NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search
- arxiv url: http://arxiv.org/abs/2001.00326v2
- Date: Wed, 15 Jan 2020 12:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 04:11:14.414731
- Title: NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search
- Title(参考訳): nas-bench-201:再現可能なニューラルネットワーク探索の範囲の拡張
- Authors: Xuanyi Dong and Yi Yang
- Abstract要約: 我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
- 参考スコア(独自算出の注目度): 55.12928953187342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) has achieved breakthrough success in a great
number of applications in the past few years. It could be time to take a step
back and analyze the good and bad aspects in the field of NAS. A variety of
algorithms search architectures under different search space. These searched
architectures are trained using different setups, e.g., hyper-parameters, data
augmentation, regularization. This raises a comparability problem when
comparing the performance of various NAS algorithms. NAS-Bench-101 has shown
success to alleviate this problem. In this work, we propose an extension to
NAS-Bench-101: NAS-Bench-201 with a different search space, results on multiple
datasets, and more diagnostic information. NAS-Bench-201 has a fixed search
space and provides a unified benchmark for almost any up-to-date NAS
algorithms. The design of our search space is inspired from the one used in the
most popular cell-based searching algorithms, where a cell is represented as a
DAG. Each edge here is associated with an operation selected from a predefined
operation set. For it to be applicable for all NAS algorithms, the search space
defined in NAS-Bench-201 includes all possible architectures generated by 4
nodes and 5 associated operation options, which results in 15,625 candidates in
total. The training log and the performance for each architecture candidate are
provided for three datasets. This allows researchers to avoid unnecessary
repetitive training for selected candidate and focus solely on the search
algorithm itself. The training time saved for every candidate also largely
improves the efficiency of many methods. We provide additional diagnostic
information such as fine-grained loss and accuracy, which can give inspirations
to new designs of NAS algorithms. In further support, we have analyzed it from
many aspects and benchmarked 10 recent NAS algorithms.
- Abstract(参考訳): neural architecture search (nas)はここ数年、多くのアプリケーションで画期的な成功を収めてきた。
一歩戻り、NASの分野における良い面と悪い面を分析する時が来たかもしれない。
異なる検索空間下での様々なアルゴリズム検索アーキテクチャ。
これらの検索アーキテクチャは、ハイパーパラメータ、データ拡張、正規化など、さまざまな設定でトレーニングされている。
これは様々なnasアルゴリズムの性能を比較する際に比較可能性の問題を引き起こす。
NAS-Bench-101はこの問題を緩和することに成功した。
本研究では,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
検索空間の設計は、セルをDAGとして表現する最も一般的なセルベース検索アルゴリズムで使用されるものから着想を得ている。
ここでの各エッジは、予め定義された操作セットから選択された操作に関連付けられる。
すべてのNASアルゴリズムに適用するために、NAS-Bench-201で定義された検索空間は、4つのノードと5つの関連する演算オプションによって生成される全ての可能なアーキテクチャを含み、結果として合計15,625の候補が得られる。
3つのデータセットに対して、トレーニングログと各アーキテクチャ候補のパフォーマンスを提供する。
これにより、研究者は選択した候補に対する不要な反復訓練を回避し、検索アルゴリズム自体に集中することができる。
各候補者の訓練時間は、多くの方法の効率を大幅に改善する。
我々は,nasアルゴリズムの新しい設計にインスピレーションを与えうる細粒度損失や精度などの追加診断情報を提供する。
さらに多くの側面から分析を行い、最近のNASアルゴリズム10をベンチマークした。
関連論文リスト
- Delta-NAS: Difference of Architecture Encoding for Predictor-based Evolutionary Neural Architecture Search [5.1331676121360985]
我々は,NASの微粒化を低コストで行うアルゴリズムを構築した。
類似ネットワークの精度の差を予測することにより,問題を低次元空間に投影することを提案する。
論文 参考訳(メタデータ) (2024-11-21T02:43:32Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - UnrealNAS: Can We Search Neural Architectures with Unreal Data? [84.78460976605425]
ニューラルアーキテクチャサーチ(NAS)はディープニューラルネットワーク(DNN)の自動設計において大きな成功を収めた。
これまでの研究は、NASに地道ラベルを持つことの必要性を分析し、幅広い関心を喚起した。
NASが有効であるためには、実際のデータが必要であるかどうか、さらに疑問を呈する。
論文 参考訳(メタデータ) (2022-05-04T16:30:26Z) - When NAS Meets Trees: An Efficient Algorithm for Neural Architecture
Search [117.89827740405694]
ニューラルアーキテクチャサーチ(NAS)の主な課題は、巨大なサーチ空間において賢明に探索する方法を設計することである。
少数のアーキテクチャを探索することで探索効率を向上するNAS(TNAS with Tree)手法を提案する。
TNASは、NAS-Bench-201の4時間でテスト精度94.37%のCIFAR-10のグローバルな最適アーキテクチャを発見した。
論文 参考訳(メタデータ) (2022-04-11T07:34:21Z) - NAS-Bench-Suite: NAS Evaluation is (Now) Surprisingly Easy [37.72015163462501]
本稿では,一般的なNASアルゴリズムの詳細な解析と,検索空間とデータセットの25種類の組み合わせによる性能予測手法を提案する。
我々はNASベンチマークの包括的なコレクションであるNAS-Bench-Suiteを紹介する。
論文 参考訳(メタデータ) (2022-01-31T18:02:09Z) - TND-NAS: Towards Non-differentiable Objectives in Progressive
Differentiable NAS Framework [6.895590095853327]
微分可能なアーキテクチャサーチは、ニューラルネットワークサーチ(NAS)分野において、徐々に主流の研究トピックになりつつある。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
微分可能なNASフレームワークにおける高効率と、多目的NASにおける非微分可能なメトリクス間の互換性を両立させたTND-NASを提案する。
論文 参考訳(メタデータ) (2021-11-06T14:19:36Z) - NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search [18.9676056830197]
既存のニューラルアーキテクチャサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスクのパフォーマンスを優先している。
我々は、畳み込みニューラルネットワーク(CNN)のための最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:13:18Z) - TransNAS-Bench-101: Improving Transferability and Generalizability of
Cross-Task Neural Architecture Search [98.22779489340869]
本研究では、7つの視覚タスクにわたるネットワーク性能を含むベンチマークデータセットであるTransNAS-Bench-101を提案する。
セルレベルの検索空間とマクロレベルの検索空間という,基本的に異なるタイプの検索空間を探索する。
7つのタスクで7,352のバックボーンが評価され、詳細なトレーニング情報を備えた51,464のトレーニングモデルが提供される。
論文 参考訳(メタデータ) (2021-05-25T12:15:21Z) - NATS-Bench: Benchmarking NAS Algorithms for Architecture Topology and
Size [31.903475598150152]
アーキテクチャトポロジとサイズの両方を検索するための統一ベンチマークであるNATS-Benchを提案する。
NATS-Benchには、アーキテクチャトポロジのための15,625のニューラルネットワーク候補と、3つのデータセット上のアーキテクチャサイズのための32,768の検索スペースが含まれている。
論文 参考訳(メタデータ) (2020-08-28T21:34:56Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。