論文の概要: Approximate Neural Architecture Search via Operation Distribution
Learning
- arxiv url: http://arxiv.org/abs/2111.04670v1
- Date: Mon, 8 Nov 2021 17:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:12:07.088483
- Title: Approximate Neural Architecture Search via Operation Distribution
Learning
- Title(参考訳): 運用分散学習による近似型ニューラルネットワーク探索
- Authors: Xingchen Wan, Binxin Ru, Pedro M. Esperan\c{c}a, Fabio M. Carlucci
- Abstract要約: アーキテクチャセルが与えられた場合、その性能は使用した操作の比率に大きく依存することを示す。
この直感は特定の探索戦略であり、多様なNASアルゴリズムに適用することができる。
- 参考スコア(独自算出の注目度): 4.358626952482686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The standard paradigm in Neural Architecture Search (NAS) is to search for a
fully deterministic architecture with specific operations and connections. In
this work, we instead propose to search for the optimal operation distribution,
thus providing a stochastic and approximate solution, which can be used to
sample architectures of arbitrary length. We propose and show, that given an
architectural cell, its performance largely depends on the ratio of used
operations, rather than any specific connection pattern in typical search
spaces; that is, small changes in the ordering of the operations are often
irrelevant. This intuition is orthogonal to any specific search strategy and
can be applied to a diverse set of NAS algorithms. Through extensive validation
on 4 data-sets and 4 NAS techniques (Bayesian optimisation, differentiable
search, local search and random search), we show that the operation
distribution (1) holds enough discriminating power to reliably identify a
solution and (2) is significantly easier to optimise than traditional
encodings, leading to large speed-ups at little to no cost in performance.
Indeed, this simple intuition significantly reduces the cost of current
approaches and potentially enable NAS to be used in a broader range of
applications.
- Abstract(参考訳): ニューラルネットワーク探索(NAS)の標準パラダイムは、特定の操作と接続を持つ完全な決定論的アーキテクチャを探すことである。
そこで本研究では, 最適動作分布を探索し, 任意の長さのアーキテクチャのサンプルに使用できる確率的近似解を提案する。
アーキテクチャセルを与えられた場合、その性能は、典型的な検索空間における特定の接続パターンではなく、使用中の操作の割合に大きく依存する。
この直観は任意の特定の探索戦略に直交し、様々なnasアルゴリズムに適用することができる。
4つのデータセットと4つのnas技術(ベイズ最適化、微分可能な検索、ローカル検索、ランダム検索)の広範囲な検証を通じて、(1)演算分布は解を確実に識別するのに十分な識別能力を持ち、(2)従来のエンコーディングよりも最適化が容易であり、パフォーマンスの面での大幅な高速化につながることを示した。
実際、この単純な直感は、現在のアプローチのコストを大幅に削減し、幅広いアプリケーションでNASを使用できる可能性がある。
関連論文リスト
- Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - Zero-Cost Proxies Meet Differentiable Architecture Search [20.957570100784988]
微分可能なニューラルアーキテクチャサーチ(NAS)は近年大きな注目を集めている。
DARTSの成功にもかかわらず、一部のケースでは堅牢性に欠ける。
微分可能なNASの文脈における新しい操作選択パラダイムを提案する。
論文 参考訳(メタデータ) (2021-06-12T15:33:36Z) - Efficient Model Performance Estimation via Feature Histories [27.008927077173553]
ニューラルネットワーク設計のタスクにおける重要なステップは、モデルの性能を評価することである。
この研究では、トレーニングの初期段階におけるネットワークの機能の進化履歴を使用して、プロキシ分類器を構築します。
本手法は,複数の探索アルゴリズムと組み合わせ,より幅広いタスクに対するより良い解を見つけることができることを示す。
論文 参考訳(メタデータ) (2021-03-07T20:41:57Z) - Efficient Sampling for Predictor-Based Neural Architecture Search [3.287802528135173]
ニューラルネットワーク探索のための予測器に基づくNASアルゴリズムについて検討する。
探索空間のサブセットに対してのみプロキシが計算されると,予測アルゴリズムのサンプル効率が劇的に低下することを示す。
これは、実際に予測器ベースのNASアルゴリズムを有用にするための重要なステップである。
論文 参考訳(メタデータ) (2020-11-24T11:36:36Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search [41.62970837629573]
本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-09T17:05:41Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z) - Scalable NAS with Factorizable Architectural Parameters [102.51428615447703]
Neural Architecture Search (NAS)は、機械学習とコンピュータビジョンにおける新たなトピックである。
本稿では,多数の候補演算子をより小さな部分空間に分解することで,スケーラブルなアルゴリズムを提案する。
検索コストが少なめに増加し、再トレーニングに余分なコストがかからないため、これまで調査されなかった興味深いアーキテクチャが見つかる。
論文 参考訳(メタデータ) (2019-12-31T10:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。