論文の概要: Towards NNGP-guided Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2011.06006v1
- Date: Wed, 11 Nov 2020 19:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:34:26.804308
- Title: Towards NNGP-guided Neural Architecture Search
- Title(参考訳): nngp誘導ニューラルアーキテクチャ探索に向けて
- Authors: Daniel S. Park, Jaehoon Lee, Daiyi Peng, Yuan Cao and Jascha
Sohl-Dickstein
- Abstract要約: ニューラル・ニューラルネットワーク・ガウス・プロセス(NNGP)を用いたニューラル・アーキテクチャ・サーチ(NAS)の信号としての可能性について検討する。
CIFAR-10上のNAS-bench 101データセットにおいて,約423kネットワークのNNGP性能を計算した。
NNGPベースのメトリクスの利点を比較検討し、潜在的な応用について議論する。
- 参考スコア(独自算出の注目度): 40.23708067611991
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The predictions of wide Bayesian neural networks are described by a Gaussian
process, known as the Neural Network Gaussian Process (NNGP). Analytic forms
for NNGP kernels are known for many models, but computing the exact kernel for
convolutional architectures is prohibitively expensive. One can obtain
effective approximations of these kernels through Monte-Carlo estimation using
finite networks at initialization. Monte-Carlo NNGP inference is
orders-of-magnitude cheaper in FLOPs compared to gradient descent training when
the dataset size is small. Since NNGP inference provides a cheap measure of
performance of a network architecture, we investigate its potential as a signal
for neural architecture search (NAS). We compute the NNGP performance of
approximately 423k networks in the NAS-bench 101 dataset on CIFAR-10 and
compare its utility against conventional performance measures obtained by
shortened gradient-based training. We carry out a similar analysis on 10k
randomly sampled networks in the mobile neural architecture search (MNAS) space
for ImageNet. We discover comparative advantages of NNGP-based metrics, and
discuss potential applications. In particular, we propose that NNGP performance
is an inexpensive signal independent of metrics obtained from training that can
either be used for reducing big search spaces, or improving training-based
performance measures.
- Abstract(参考訳): ワイドベイズニューラルネットワークの予測は、ニューラルネットワークガウス過程(NNGP)として知られるガウス過程によって記述される。
NNGPカーネルの解析形式は多くのモデルで知られているが、畳み込みアーキテクチャの正確なカーネルの計算は違法に高価である。
初期化における有限ネットワークを用いたモンテカルロ推定により、これらのカーネルの効果的な近似が得られる。
Monte-Carlo NNGP推論は、データセットサイズが小さい場合の勾配降下訓練に比べ、FLOPsでは桁違いの精度が低い。
NNGP推論はネットワークアーキテクチャの性能の安価な尺度を提供するので、ニューラルネットワーク探索(NAS)の信号としての可能性を検討する。
CIFAR-10上のNAS-bench 101データセットにおける約423kネットワークのNNGP性能を計算し、勾配に基づくトレーニングを短縮した従来の性能指標と比較した。
ImageNetの移動型ニューラルネットワークサーチ(MNAS)空間において、10kのランダムサンプリングネットワーク上で同様の解析を行う。
NNGPベースのメトリクスの利点を比較検討し、潜在的な応用について議論する。
特に,NNGPの性能は,大規模な検索スペースの削減や,トレーニングベースのパフォーマンス対策の改善に使用可能な,トレーニングから得られるメトリクスに依存しない安価な信号であることを示す。
関連論文リスト
- FR-NAS: Forward-and-Reverse Graph Predictor for Efficient Neural Architecture Search [10.699485270006601]
ニューラルネットワーク探索のための新しいグラフニューラルネットワーク(GNN)予測器を提案する。
この予測器は、従来のグラフビューと逆グラフビューを組み合わせることで、ニューラルネットワークをベクトル表現に変換する。
実験の結果, 予測精度は3%~16%向上し, 予測精度は有意に向上した。
論文 参考訳(メタデータ) (2024-04-24T03:22:49Z) - Do Not Train It: A Linear Neural Architecture Search of Graph Neural
Networks [15.823247346294089]
ニューラルアーキテクチャコーディング(NAC)という新しいNAS-GNN法を開発した。
当社のアプローチでは,最先端のパフォーマンスを実現しています。そのパフォーマンスは,強いベースラインよりも200倍高速で,18.8%の精度で実現しています。
論文 参考訳(メタデータ) (2023-05-23T13:44:04Z) - A General-Purpose Transferable Predictor for Neural Architecture Search [22.883809911265445]
本稿では,探索空間を横断的に移動可能なニューラルネットワーク探索(NAS)のための汎用ニューラルネットワーク予測器を提案する。
NAS-Bench-101, 201, 301の実験結果から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-21T17:28:05Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Incorporating Prior Knowledge into Neural Networks through an Implicit
Composite Kernel [1.6383321867266318]
Implicit Composite Kernel (ICK) は、ニューラルネットワークによって暗黙的に定義されたカーネルと、既知のプロパティをモデル化するために選択された第2のカーネル関数を組み合わせたカーネルである。
合成データセットと実世界のデータセットの両方において、ICKの優れた性能と柔軟性を実証する。
論文 参考訳(メタデータ) (2022-05-15T21:32:44Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。