論文の概要: RelativeNAS: Relative Neural Architecture Search via Slow-Fast Learning
- arxiv url: http://arxiv.org/abs/2009.06193v3
- Date: Tue, 13 Jul 2021 14:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:25:34.304869
- Title: RelativeNAS: Relative Neural Architecture Search via Slow-Fast Learning
- Title(参考訳): relativenas:低速学習による相対的ニューラルネットワークアーキテクチャ探索
- Authors: Hao Tan, Ran Cheng, Shihua Huang, Cheng He, Changxiao Qiu, Fan Yang,
Ping Luo
- Abstract要約: RelativeNASはニューラルアーキテクチャサーチ(NAS)手法である。
RelativeNASは、高速学習者(比較的高い精度のネットワーク)と低速学習者(英語版)をペア方式で共同学習する。
RelativeNASは、ImageNet上で24.88%のエラー率で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 31.246979560129855
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Despite the remarkable successes of Convolutional Neural Networks (CNNs) in
computer vision, it is time-consuming and error-prone to manually design a CNN.
Among various Neural Architecture Search (NAS) methods that are motivated to
automate designs of high-performance CNNs, the differentiable NAS and
population-based NAS are attracting increasing interests due to their unique
characters. To benefit from the merits while overcoming the deficiencies of
both, this work proposes a novel NAS method, RelativeNAS. As the key to
efficient search, RelativeNAS performs joint learning between fast-learners
(i.e. networks with relatively higher accuracy) and slow-learners in a pairwise
manner. Moreover, since RelativeNAS only requires low-fidelity performance
estimation to distinguish each pair of fast-learner and slow-learner, it saves
certain computation costs for training the candidate architectures. The
proposed RelativeNAS brings several unique advantages: (1) it achieves
state-of-the-art performance on ImageNet with top-1 error rate of 24.88%, i.e.
outperforming DARTS and AmoebaNet-B by 1.82% and 1.12% respectively; (2) it
spends only nine hours with a single 1080Ti GPU to obtain the discovered cells,
i.e. 3.75x and 7875x faster than DARTS and AmoebaNet respectively; (3) it
provides that the discovered cells obtained on CIFAR-10 can be directly
transferred to object detection, semantic segmentation, and keypoint detection,
yielding competitive results of 73.1% mAP on PASCAL VOC, 78.7% mIoU on
Cityscapes, and 68.5% AP on MSCOCO, respectively. The implementation of
RelativeNAS is available at https://github.com/EMI-Group/RelativeNAS
- Abstract(参考訳): コンピュータビジョンにおける畳み込みニューラルネットワーク(cnns)の顕著な成功にもかかわらず、手動でcnnを設計するのは時間がかかる。
高性能CNNの設計を自動化するために動機付けられた様々なニューラルネットワークサーチ (NAS) 手法の中で, 識別可能なNASと人口ベースNASは, 特徴的特徴から興味を惹きつけている。
両者の欠点を克服しながらメリットを享受するため,本研究では新しいnas法であるrelativenasを提案する。
効率的な探索の鍵として、RelativeNASは高速学習者(比較的高い精度のネットワーク)と遅い学習者(英語版)をペアで共同学習する。
さらに、RelativeNASは、高速ラーナーと遅いラーナーのペアを区別するために、低忠実度の性能評価しか必要としないため、候補アーキテクチャをトレーニングするための計算コストを削減できる。
The proposed RelativeNAS brings several unique advantages: (1) it achieves state-of-the-art performance on ImageNet with top-1 error rate of 24.88%, i.e. outperforming DARTS and AmoebaNet-B by 1.82% and 1.12% respectively; (2) it spends only nine hours with a single 1080Ti GPU to obtain the discovered cells, i.e. 3.75x and 7875x faster than DARTS and AmoebaNet respectively; (3) it provides that the discovered cells obtained on CIFAR-10 can be directly transferred to object detection, semantic segmentation, and keypoint detection, yielding competitive results of 73.1% mAP on PASCAL VOC, 78.7% mIoU on Cityscapes, and 68.5% AP on MSCOCO, respectively.
RelativeNASの実装はhttps://github.com/EMI-Group/RelativeNASで公開されている。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - Efficient Architecture Search for Diverse Tasks [29.83517145790238]
多様な問題を効率的に解くために,ニューラルネットワーク探索(NAS)について検討する。
本稿では,畳み込みのフーリエ対角化を用いた混合動作を計算する,微分可能なNASアルゴリズムであるDASHを紹介する。
DASH-Bench-360は多様な領域におけるNASベンチマークのために設計された10のタスクスイートである。
論文 参考訳(メタデータ) (2022-04-15T17:21:27Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - Few-shot Neural Architecture Search [35.28010196935195]
サブスーパーネットと呼ばれる複数のスーパーネットワークを用いて、検索空間の異なる領域をカバーし、望ましくないコ・アダプションを緩和する数ショットNASを提案する。
ImageNetでは、600MB FLOPSで80.5%、238 MFLOPSで77.5%のTop-1精度に達するモデルが見つかる。
論文 参考訳(メタデータ) (2020-06-11T22:36:01Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。