論文の概要: HourNAS: Extremely Fast Neural Architecture Search Through an Hourglass
Lens
- arxiv url: http://arxiv.org/abs/2005.14446v3
- Date: Tue, 8 Dec 2020 00:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:30:41.802429
- Title: HourNAS: Extremely Fast Neural Architecture Search Through an Hourglass
Lens
- Title(参考訳): HourNAS:Hourglassレンズによる超高速なニューラルネットワーク検索
- Authors: Zhaohui Yang, Yunhe Wang, Xinghao Chen, Jianyuan Guo, Wei Zhang, Chao
Xu, Chunjing Xu, Dacheng Tao, Chang Xu
- Abstract要約: ニューラルアーキテクチャサーチ(英: Neural Architecture Search、NAS)は、アーキテクチャを自動設計する手法である。
本稿では,この問題に対する時間ガラスインスパイアされたアプローチ (HourNAS) を提案する。
ImageNetの実験結果によると、1つのGPUで3時間(0.1日)しか使用できないため、HourNASは77.0%のTop-1精度を実現するアーキテクチャを検索できる。
- 参考スコア(独自算出の注目度): 125.39301622207674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) refers to automatically design the
architecture. We propose an hourglass-inspired approach (HourNAS) for this
problem that is motivated by the fact that the effects of the architecture
often proceed from the vital few blocks. Acting like the narrow neck of an
hourglass, vital blocks in the guaranteed path from the input to the output of
a deep neural network restrict the information flow and influence the network
accuracy. The other blocks occupy the major volume of the network and determine
the overall network complexity, corresponding to the bulbs of an hourglass. To
achieve an extremely fast NAS while preserving the high accuracy, we propose to
identify the vital blocks and make them the priority in the architecture
search. The search space of those non-vital blocks is further shrunk to only
cover the candidates that are affordable under the computational resource
constraints. Experimental results on the ImageNet show that only using 3 hours
(0.1 days) with one GPU, our HourNAS can search an architecture that achieves a
77.0% Top-1 accuracy, which outperforms the state-of-the-art methods.
- Abstract(参考訳): Neural Architecture Search (NAS) はアーキテクチャを自動的に設計する。
本稿では,この問題に対する時間ガラスインスパイアされたアプローチ (HourNAS) を提案する。
時計の狭い首のように、ディープニューラルネットワークの出力への入力から保証された経路のバイタルブロックは情報の流れを制限し、ネットワークの精度に影響を与える。
他のブロックはネットワークの主要なボリュームを占め、砂時計の球根に対応するネットワーク全体の複雑さを決定する。
高い精度を保ちながら極めて高速なNASを実現するため,本研究では,重要なブロックを同定し,アーキテクチャ探索の優先事項とする。
これらの非ベクトルブロックの探索空間はさらに小さくなり、計算資源制約の下で安価な候補のみをカバーする。
ImageNetの実験結果によると、1つのGPUで3時間(0.1日)しか使用できないため、HourNASは77.0%のTop-1精度を実現するアーキテクチャを検索できる。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - Single Cell Training on Architecture Search for Image Denoising [16.72206392993489]
コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
さらに,空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
提案したDenoising Prior Neural Architecture Search (DPNAS) は、1つのGPUで1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証した。
論文 参考訳(メタデータ) (2022-12-13T04:47:24Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - S3NAS: Fast NPU-aware Neural Architecture Search Methodology [2.607400740040335]
S3NASと呼ばれる高速なNPU対応NAS手法を提案し,既存のNASよりも高精度なCNNアーキテクチャを提案する。
TPUv3を使って3時間でネットワークを見つけることができ、11.66ミリ秒のレイテンシでImageNetの82.72%のトップ1の精度を示している。
論文 参考訳(メタデータ) (2020-09-04T04:45:50Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。