論文の概要: Neural Architecture Search with Random Labels
- arxiv url: http://arxiv.org/abs/2101.11834v1
- Date: Thu, 28 Jan 2021 06:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:16:37.518149
- Title: Neural Architecture Search with Random Labels
- Title(参考訳): ランダムラベルを用いたニューラルアーキテクチャ検索
- Authors: Xuanyang Zhang, Pengfei Hou, Xiangyu Zhang, Jian Sun
- Abstract要約: ランダムラベル(RLNAS)を用いたニューラルアーキテクチャサーチ(NAS)パラダイムの新しい変種について検討する。
RLNASは、PC-DARTSやSingle Path One-Shotのような最先端のNAS手法と比較すると、同等またはそれ以上の結果が得られる。
- 参考スコア(独自算出の注目度): 16.18010700582234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate a new variant of neural architecture search
(NAS) paradigm -- searching with random labels (RLNAS). The task sounds
counter-intuitive for most existing NAS algorithms since random label provides
few information on the performance of each candidate architecture. Instead, we
propose a novel NAS framework based on ease-of-convergence hypothesis, which
requires only random labels during searching. The algorithm involves two steps:
first, we train a SuperNet using random labels; second, from the SuperNet we
extract the sub-network whose weights change most significantly during the
training. Extensive experiments are evaluated on multiple datasets (e.g.
NAS-Bench-201 and ImageNet) and multiple search spaces (e.g. DARTS-like and
MobileNet-like). Very surprisingly, RLNAS achieves comparable or even better
results compared with state-of-the-art NAS methods such as PC-DARTS, Single
Path One-Shot, even though the counterparts utilize full ground truth labels
for searching. We hope our finding could inspire new understandings on the
essential of NAS.
- Abstract(参考訳): 本稿では、ランダムラベル(RLNAS)による探索というニューラルアーキテクチャ探索(NAS)パラダイムの新しい変種について検討する。
ランダムラベルは各候補アーキテクチャのパフォーマンスに関する情報が少ないため、ほとんどの既存のNASアルゴリズムでは直感に反してタスクが聞こえる。
そこで我々は,検索中にランダムラベルのみを必要とする,収束の容易性仮説に基づく新しいNASフレームワークを提案する。
アルゴリズムには2つのステップがある: まず、ランダムなラベルを使ってスーパーネットを訓練する; 第二に、スーパーネットから、トレーニング中に重みが最も大きく変化するサブネットワークを抽出する。
大規模な実験は複数のデータセットで評価される。
NAS-Bench-201とImageNet)と複数の検索スペース(例)
DARTSライクとMobileNetライク)。
非常に驚くべきことに、RLNASはPC-DARTS、Single Path One-Shotなどの最先端のNAS法と比較して、同等の結果を達成しています。
われわれの発見がNASの本質に関する新たな理解を刺激することを期待している。
関連論文リスト
- Meta-prediction Model for Distillation-Aware NAS on Unseen Datasets [55.2118691522524]
Distillation-Aware Neural Architecture Search (DaNAS) は、最適な学生アーキテクチャを探すことを目的としている。
本稿では,あるアーキテクチャの最終的な性能をデータセット上で予測できる,蒸留対応のメタ精度予測モデルDaSSを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:00:35Z) - UnrealNAS: Can We Search Neural Architectures with Unreal Data? [84.78460976605425]
ニューラルアーキテクチャサーチ(NAS)はディープニューラルネットワーク(DNN)の自動設計において大きな成功を収めた。
これまでの研究は、NASに地道ラベルを持つことの必要性を分析し、幅広い関心を喚起した。
NASが有効であるためには、実際のデータが必要であるかどうか、さらに疑問を呈する。
論文 参考訳(メタデータ) (2022-05-04T16:30:26Z) - When NAS Meets Trees: An Efficient Algorithm for Neural Architecture
Search [117.89827740405694]
ニューラルアーキテクチャサーチ(NAS)の主な課題は、巨大なサーチ空間において賢明に探索する方法を設計することである。
少数のアーキテクチャを探索することで探索効率を向上するNAS(TNAS with Tree)手法を提案する。
TNASは、NAS-Bench-201の4時間でテスト精度94.37%のCIFAR-10のグローバルな最適アーキテクチャを発見した。
論文 参考訳(メタデータ) (2022-04-11T07:34:21Z) - NAS-Bench-Suite: NAS Evaluation is (Now) Surprisingly Easy [37.72015163462501]
本稿では,一般的なNASアルゴリズムの詳細な解析と,検索空間とデータセットの25種類の組み合わせによる性能予測手法を提案する。
我々はNASベンチマークの包括的なコレクションであるNAS-Bench-Suiteを紹介する。
論文 参考訳(メタデータ) (2022-01-31T18:02:09Z) - Generic Neural Architecture Search via Regression [27.78105839644199]
我々は、ジェネリックNAS(GenNAS)と呼ばれる新規で汎用的なニューラルアーキテクチャサーチ(NAS)フレームワークを提案する。
GenNASはタスク固有のラベルを使用せず、代わりに、アーキテクチャ評価のために手動で設計された合成信号基盤のセットにtextitregressionを採用する。
次に,下流タスク固有のラベルを用いた合成信号の組み合わせを最適化するタスクの自動探索を提案する。
論文 参考訳(メタデータ) (2021-08-04T08:21:12Z) - Accelerating Neural Architecture Search via Proxy Data [17.86463546971522]
ニューラルアーキテクチャ探索(NAS)に適した新しいプロキシデータ選択法を提案する。
提案された選択でDARTSを実行するには、CIFAR-10で40分、単一のGPUでImageNetで7.5時間しかかからない。
提案した選択を用いてImageNetで検索したアーキテクチャが逆CIFAR-10に転送されると、2.4%の最先端テストエラーが生成される。
論文 参考訳(メタデータ) (2021-06-09T03:08:53Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。