論文の概要: Fine-Grained Stochastic Architecture Search
- arxiv url: http://arxiv.org/abs/2006.09581v1
- Date: Wed, 17 Jun 2020 01:04:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 19:23:41.175225
- Title: Fine-Grained Stochastic Architecture Search
- Title(参考訳): きめ細かい確率的アーキテクチャ探索
- Authors: Shraman Ray Chaudhuri, Elad Eban, Hanhan Li, Max Moroz, Yair
Movshovitz-Attias
- Abstract要約: Fine-Grained Architecture Search (FiGS) は、より大きな候補アーキテクチャの集合を探索する微分可能な検索手法である。
FiGSは、構造化スパース正規化ペナルティを適用して、検索空間内の演算子を同時に選択・変更する。
既存の3つの検索空間にまたがって結果を示し、元の検索アルゴリズムのマッチングや性能を向上する。
- 参考スコア(独自算出の注目度): 6.277767522867666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art deep networks are often too large to deploy on mobile
devices and embedded systems. Mobile neural architecture search (NAS) methods
automate the design of small models but state-of-the-art NAS methods are
expensive to run. Differentiable neural architecture search (DNAS) methods
reduce the search cost but explore a limited subspace of candidate
architectures. In this paper, we introduce Fine-Grained Stochastic Architecture
Search (FiGS), a differentiable search method that searches over a much larger
set of candidate architectures. FiGS simultaneously selects and modifies
operators in the search space by applying a structured sparse regularization
penalty based on the Logistic-Sigmoid distribution. We show results across 3
existing search spaces, matching or outperforming the original search
algorithms and producing state-of-the-art parameter-efficient models on
ImageNet (e.g., 75.4% top-1 with 2.6M params). Using our architectures as
backbones for object detection with SSDLite, we achieve significantly higher
mAP on COCO (e.g., 25.8 with 3.0M params) than MobileNetV3 and MnasNet.
- Abstract(参考訳): 最先端のディープネットワークはモバイルデバイスや組み込みシステムにデプロイするには大きすぎることが多い。
mobile neural architecture search (nas)メソッドは小さなモデルの設計を自動化するが、最先端のnasメソッドの実行は高価である。
微分可能なニューラルアーキテクチャサーチ (DNAS) 法は探索コストを削減するが、候補アーキテクチャの限られた部分空間を探索する。
本稿では,より大きな候補アーキテクチャの集合を探索する微分可能探索法であるFine-Grained Stochastic Architecture Search (FiGS)を提案する。
figsはロジスティック・シグモイド分布に基づく構造化スパース正規化ペナルティを適用して、検索空間における演算子を選択・修正する。
既存の3つの検索空間にまたがって結果を示し、元の検索アルゴリズムをマッチングまたは性能良くし、ImageNet上で最先端のパラメータ効率モデルを生成する。
SSDLiteによるオブジェクト検出のバックボーンとしてアーキテクチャを使用すると、MobileNetV3やMnasNetよりもCOCO上のmAP(例えば、3.0Mパラムを持つ25.8)が大幅に向上する。
関連論文リスト
- Flexible Channel Dimensions for Differentiable Architecture Search [50.33956216274694]
本稿では,効率的な動的チャネル割当アルゴリズムを用いた新しい微分可能なニューラルアーキテクチャ探索法を提案する。
提案するフレームワークは,タスク精度と推論遅延において,従来の手法と等価なDNNアーキテクチャを見つけることができることを示す。
論文 参考訳(メタデータ) (2023-06-13T15:21:38Z) - DASS: Differentiable Architecture Search for Sparse neural networks [0.5735035463793009]
識別可能なアーキテクチャ探索手法により高密度ネットワーク用に設計されたアーキテクチャは,プルーニング機構を適用した場合,有効ではないことがわかった。
本稿では,スパシティフレンドリなニューラルアーキテクチャを探索する新しい手法を提案する。
検索空間に2つの新しいスパース操作を追加し、探索目的を変更することでこれを行う。
論文 参考訳(メタデータ) (2022-07-14T14:53:50Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - Multi-Objective Neural Architecture Search Based on Diverse Structures
and Adaptive Recommendation [4.595675084986132]
畳み込みニューラルネットワーク(CNN)のためのニューラルネットワーク探索(NAS)の検索空間は巨大である。
本稿では,既存の研究結果と過去の情報を利用して,軽量かつ高精度なアーキテクチャを迅速に発見するMoARRアルゴリズムを提案する。
実験結果から,CIFAR-10上でのMoARRは6GPU時間で1.9%の誤差率と2.3Mパラメータを持つ,強力で軽量なモデルを実現することができた。
論文 参考訳(メタデータ) (2020-07-06T13:42:33Z) - ADWPNAS: Architecture-Driven Weight Prediction for Neural Architecture
Search [6.458169480971417]
ニューラルアーキテクチャ探索(NAS)のためのアーキテクチャ駆動重み予測(ADWP)手法を提案する。
提案手法では,まずアーキテクチャ集約型検索空間を設計し,次にアーキテクチャパラメータをエンコードすることでハイパーネットワークワークを訓練する。
結果は、CIFAR-10上で1つの探索手順を4.0GPU時間で完了することを示す。
論文 参考訳(メタデータ) (2020-03-03T05:06:20Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。