論文の概要: Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search
- arxiv url: http://arxiv.org/abs/2010.04683v3
- Date: Wed, 12 May 2021 12:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 03:55:33.661219
- Title: Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search
- Title(参考訳): 効率的なニューラルネットワーク探索のための滑らかな変分グラフ埋め込み
- Authors: Jovita Lukasik and David Friede and Arber Zela and Frank Hutter and
Margret Keuper
- Abstract要約: 本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 41.62970837629573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) has recently been addressed from various
directions, including discrete, sampling-based methods and efficient
differentiable approaches. While the former are notoriously expensive, the
latter suffer from imposing strong constraints on the search space.
Architecture optimization from a learned embedding space for example through
graph neural network based variational autoencoders builds a middle ground and
leverages advantages from both sides. Such approaches have recently shown good
performance on several benchmarks. Yet, their stability and predictive power
heavily depends on their capacity to reconstruct networks from the embedding
space. In this paper, we propose a two-sided variational graph autoencoder,
which allows to smoothly encode and accurately reconstruct neural architectures
from various search spaces. We evaluate the proposed approach on neural
architectures defined by the ENAS approach, the NAS-Bench-101 and the
NAS-Bench-201 search space and show that our smooth embedding space allows to
directly extrapolate the performance prediction to architectures outside the
seen domain (e.g. with more operations). Thus, it facilitates to predict good
network architectures even without expensive Bayesian optimization or
reinforcement learning.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は最近、離散的なサンプリングベースの手法や効率的な微分可能なアプローチなど、様々な方向から対処されている。
前者は高価なことで悪名高いが、後者は検索スペースに強い制約を課すことに苦しむ。
例えば、グラフニューラルネットワークに基づく変分オートエンコーダによる学習した埋め込み空間からのアーキテクチャ最適化は、中間層を構築し、両側の利点を活用する。
このようなアプローチは、最近いくつかのベンチマークで良いパフォーマンスを示している。
しかし、その安定性と予測力は、埋め込み空間からネットワークを再構築する能力に大きく依存している。
本稿では,様々な探索空間からニューラルネットワークアーキテクチャをスムースにエンコードし,正確な再構成を可能にする2面変分グラフオートエンコーダを提案する。
我々は、ENASアプローチ、NAS-Bench-101、NAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法を評価し、スムーズな埋め込み空間により、パフォーマンス予測を、目に見えない領域外のアーキテクチャ(例えば、より多くの操作)に直接外挿できることを示す。
これにより、高価なベイズ最適化や強化学習がなくても、優れたネットワークアーキテクチャを予測することができる。
関連論文リスト
- BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - Rethinking Architecture Selection in Differentiable NAS [74.61723678821049]
微分可能なニューラルアーキテクチャ探索は、その探索効率と簡易性において最も人気のあるNAS手法の1つである。
本稿では,各操作がスーパーネットに与える影響を直接測定する摂動に基づくアーキテクチャ選択を提案する。
提案手法により,DARTSの故障モードを大幅に緩和できることがわかった。
論文 参考訳(メタデータ) (2021-08-10T00:53:39Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Effective, Efficient and Robust Neural Architecture Search [4.273005643715522]
敵攻撃の最近の進歩は、ニューラルアーキテクチャサーチ(NAS)によって探索されたディープニューラルネットワークの脆弱性を示している
本稿では,ニューラルネットワークアーキテクチャの性能,堅牢性,資源制約を考慮し,ニューラルネットワークアーキテクチャを探索する,効率的で効率的かつロバストなニューラルネットワーク探索手法を提案する。
ベンチマークデータセットを用いた実験により,提案手法は,モデルサイズと同等の分類精度で,逆向きに頑健なアーキテクチャを見出すことができることがわかった。
論文 参考訳(メタデータ) (2020-11-19T13:46:23Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Neural Architecture Optimization with Graph VAE [21.126140965779534]
連続空間におけるネットワークアーキテクチャを最適化するための効率的なNAS手法を提案する。
フレームワークは、エンコーダ、パフォーマンス予測器、複雑性予測器、デコーダの4つのコンポーネントを共同で学習する。
論文 参考訳(メタデータ) (2020-06-18T07:05:48Z) - Interpretable Neural Architecture Search via Bayesian Optimisation with
Weisfeiler-Lehman Kernels [17.945881805452288]
現在のニューラルアーキテクチャサーチ(NAS)戦略は、単一の優れたアーキテクチャを見つけることに集中している。
そこで我々は,Weisfeiler-Lehmanグラフカーネルとガウス過程サロゲートを組み合わせたNASに対するベイズ最適化手法を提案する。
提案手法は,有用なネットワーク特徴とそれに伴うネットワーク性能への影響を発見することによって,解釈可能性を実現する。
論文 参考訳(メタデータ) (2020-06-13T04:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。