論文の概要: Efficient Search of Multiple Neural Architectures with Different
Complexities via Importance Sampling
- arxiv url: http://arxiv.org/abs/2207.10334v1
- Date: Thu, 21 Jul 2022 07:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:17:16.951349
- Title: Efficient Search of Multiple Neural Architectures with Different
Complexities via Importance Sampling
- Title(参考訳): 重要度サンプリングによる複雑度の異なる複数ニューラルネットワークの効率的な探索
- Authors: Yuhei Noda, Shota Saito, Shinichi Shirakawa
- Abstract要約: 本研究では、2つのメトリクスの重み付け和からなる目的関数を最適化するアーキテクチャの複雑性を考慮したワンショットNASに焦点を当てた。
提案手法は,CIAFR-10およびImageNetデータセット上の畳み込みニューラルネットワークのアーキテクチャ探索に適用される。
- 参考スコア(独自算出の注目度): 3.759936323189417
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural architecture search (NAS) aims to automate architecture design
processes and improve the performance of deep neural networks. Platform-aware
NAS methods consider both performance and complexity and can find
well-performing architectures with low computational resources. Although
ordinary NAS methods result in tremendous computational costs owing to the
repetition of model training, one-shot NAS, which trains the weights of a
supernetwork containing all candidate architectures only once during the search
process, has been reported to result in a lower search cost. This study focuses
on the architecture complexity-aware one-shot NAS that optimizes the objective
function composed of the weighted sum of two metrics, such as the predictive
performance and number of parameters. In existing methods, the architecture
search process must be run multiple times with different coefficients of the
weighted sum to obtain multiple architectures with different complexities. This
study aims at reducing the search cost associated with finding multiple
architectures. The proposed method uses multiple distributions to generate
architectures with different complexities and updates each distribution using
the samples obtained from multiple distributions based on importance sampling.
The proposed method allows us to obtain multiple architectures with different
complexities in a single architecture search, resulting in reducing the search
cost. The proposed method is applied to the architecture search of
convolutional neural networks on the CIAFR-10 and ImageNet datasets.
Consequently, compared with baseline methods, the proposed method finds
multiple architectures with varying complexities while requiring less
computational effort.
- Abstract(参考訳): neural architecture search(nas)は、アーキテクチャ設計プロセスの自動化とディープニューラルネットワークのパフォーマンス向上を目的としている。
プラットフォーム対応NAS手法は、性能と複雑さの両方を考慮し、計算資源の少ない優れたアーキテクチャを見つけることができる。
通常のNAS法は, モデルトレーニングの繰り返しによる計算コストが大幅に低下するが, 探索過程において, 全ての候補アーキテクチャを含むスーパーネットワークの重みをトレーニングするワンショットNASは, 探索コストが低下することが報告されている。
本研究は,予測性能やパラメータ数などの2つの指標の重み付け和からなる目的関数を最適化する,アーキテクチャ複雑性を考慮した一発nasに着目した。
既存の方法では、アーキテクチャ探索プロセスは重み付け和の異なる係数で複数回実行し、複雑さの異なる複数のアーキテクチャを得る必要がある。
本研究の目的は,複数のアーキテクチャの発見に伴う検索コストの削減である。
提案手法では,異なる複雑さのアーキテクチャを生成するために複数の分布を用い,重要サンプリングに基づいて複数の分布から得られたサンプルを用いて各分布を更新する。
提案手法により,単一のアーキテクチャ探索において異なる複雑度を持つ複数のアーキテクチャを得ることができ,検索コストを低減できる。
提案手法は,CIAFR-10およびImageNetデータセット上の畳み込みニューラルネットワークのアーキテクチャ探索に適用される。
その結果,提案手法はベースライン法と比較して,計算量が少なく,複雑度が異なる複数のアーキテクチャを見出すことができた。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - Pareto-aware Neural Architecture Generation for Diverse Computational
Budgets [94.27982238384847]
既存の手法は、しばしば各目標予算に対して独立したアーキテクチャ探索プロセスを実行する。
提案するニューラルアーキテクチャジェネレータ(PNAG)は,任意の予算に対して,推論によって最適なアーキテクチャを動的に生成する。
このような共同探索アルゴリズムは、全体の検索コストを大幅に削減するだけでなく、結果も改善する。
論文 参考訳(メタデータ) (2022-10-14T08:30:59Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - Rethinking Architecture Selection in Differentiable NAS [74.61723678821049]
微分可能なニューラルアーキテクチャ探索は、その探索効率と簡易性において最も人気のあるNAS手法の1つである。
本稿では,各操作がスーパーネットに与える影響を直接測定する摂動に基づくアーキテクチャ選択を提案する。
提案手法により,DARTSの故障モードを大幅に緩和できることがわかった。
論文 参考訳(メタデータ) (2021-08-10T00:53:39Z) - Enhanced Gradient for Differentiable Architecture Search [17.431144144044968]
ネットワーク性能の同時改善とネットワークの複雑性低減を目的としたニューラルネットワークアーキテクチャ探索アルゴリズムを提案する。
提案するフレームワークは,ブロックレベルの検索とネットワークレベルの検索という2段階のネットワークアーキテクチャを自動構築する。
実験の結果,本手法は画像分類において,すべての手作りネットワークよりも優れていた。
論文 参考訳(メタデータ) (2021-03-23T13:27:24Z) - Multi-Objective Neural Architecture Search Based on Diverse Structures
and Adaptive Recommendation [4.595675084986132]
畳み込みニューラルネットワーク(CNN)のためのニューラルネットワーク探索(NAS)の検索空間は巨大である。
本稿では,既存の研究結果と過去の情報を利用して,軽量かつ高精度なアーキテクチャを迅速に発見するMoARRアルゴリズムを提案する。
実験結果から,CIFAR-10上でのMoARRは6GPU時間で1.9%の誤差率と2.3Mパラメータを持つ,強力で軽量なモデルを実現することができた。
論文 参考訳(メタデータ) (2020-07-06T13:42:33Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z) - RC-DARTS: Resource Constrained Differentiable Architecture Search [162.7199952019152]
資源制約付き微分可能なアーキテクチャ探索法(RC-DARTS)を提案する。
RC-DARTS法は,モデルサイズが小さく,計算量も少ない,軽量なニューラルアーキテクチャを学習する。
論文 参考訳(メタデータ) (2019-12-30T05:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。