論文の概要: DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning
- arxiv url: http://arxiv.org/abs/1905.13543v3
- Date: Fri, 10 Mar 2023 18:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 04:31:57.919119
- Title: DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning
- Title(参考訳): DDPNAS:動的分散解析による効率的なニューラルネットワーク探索
- Authors: Xiawu Zheng, Chenyi Yang, Shaokun Zhang, Yan Wang, Baochang Zhang,
Yongjian Wu, Yunsheng Wu, Ling Shao, Rongrong Ji
- Abstract要約: DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
- 参考スコア(独自算出の注目度): 135.27931587381596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) has demonstrated state-of-the-art
performance on various computer vision tasks. Despite the superior performance
achieved, the efficiency and generality of existing methods are highly valued
due to their high computational complexity and low generality. In this paper,
we propose an efficient and unified NAS framework termed DDPNAS via dynamic
distribution pruning, facilitating a theoretical bound on accuracy and
efficiency. In particular, we first sample architectures from a joint
categorical distribution. Then the search space is dynamically pruned and its
distribution is updated every few epochs. With the proposed efficient network
generation method, we directly obtain the optimal neural architectures on given
constraints, which is practical for on-device models across diverse search
spaces and constraints. The architectures searched by our method achieve
remarkable top-1 accuracies, 97.56 and 77.2 on CIFAR-10 and ImageNet (mobile
settings), respectively, with the fastest search process, i.e., only 1.8 GPU
hours on a Tesla V100. Codes for searching and network generation are available
at: https://openi.pcl.ac.cn/PCL AutoML/XNAS.
- Abstract(参考訳): neural architecture search (nas) は様々なコンピュータビジョンタスクで最先端のパフォーマンスを示している。
性能が優れているにもかかわらず、既存の手法の効率性と一般化は高い計算複雑性と低い一般性のために高く評価されている。
本稿では,DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
特に、我々はまずジョイント・カテゴリカル分布からアーキテクチャをサンプル化した。
そして、探索空間を動的に刈り取り、その分布を数エポック毎に更新する。
提案する効率的なネットワーク生成手法により、与えられた制約に基づいて最適なニューラルネットワークアーキテクチャを直接獲得し、様々な検索空間と制約をまたいだデバイス上でのモデルに適用する。
提案手法で検索したアーキテクチャは,CIFAR-10では97.56,ImageNet(モバイル設定)で77.2,Tesla V100では1.8GPU時間という最速の検索処理を実現している。
検索とネットワーク生成のコードは、https://openi.pcl.ac.cn/PCL AutoML/XNASで利用可能である。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - You Only Search Once: On Lightweight Differentiable Architecture Search
for Resource-Constrained Embedded Platforms [10.11289927237036]
微分可能なニューラルアーキテクチャサーチ(NAS)は、競合するディープニューラルネットワーク(DNN)を自動設計する最も有力な代替品として進化してきた。
我々は、LightNASと呼ばれる軽量ハードウェア対応の差別化可能なNASフレームワークを導入し、ワンタイム検索によって必要なアーキテクチャを見つけ出そうとしている。
従来の最先端技術よりもLightNASの方が優れていることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-30T02:23:23Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Efficient Architecture Search for Diverse Tasks [29.83517145790238]
多様な問題を効率的に解くために,ニューラルネットワーク探索(NAS)について検討する。
本稿では,畳み込みのフーリエ対角化を用いた混合動作を計算する,微分可能なNASアルゴリズムであるDASHを紹介する。
DASH-Bench-360は多様な領域におけるNASベンチマークのために設計された10のタスクスイートである。
論文 参考訳(メタデータ) (2022-04-15T17:21:27Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - Optimizing Neural Architecture Search using Limited GPU Time in a
Dynamic Search Space: A Gene Expression Programming Approach [0.0]
本稿では,畳み込みモデルの効率的な発見のための進化的ニューラルネットワーク探索手法を提案する。
効率的な検索環境と表現型表現により、遺伝子発現プログラミングはネットワークのセル生成に適応する。
提案手法は手動で設計した畳み込みネットワークやNAS生成ネットワークと類似し, 同様に制約された進化に基づくNAS作業にも勝っている。
論文 参考訳(メタデータ) (2020-05-15T17:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。