論文の概要: Generalization Properties of NAS under Activation and Skip Connection
Search
- arxiv url: http://arxiv.org/abs/2209.07238v1
- Date: Thu, 15 Sep 2022 12:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:04:07.324831
- Title: Generalization Properties of NAS under Activation and Skip Connection
Search
- Title(参考訳): アクティベーションおよびスキップ接続探索によるNASの一般化特性
- Authors: Zhenyu Zhu, Fanghui Liu, Grigorios G Chrysos, Volkan Cevher
- Abstract要約: ニューラルネットワーク探索(NAS)の一般化特性について検討する。
我々は,Tangent (in)finite width regimeの下で,ニューラルカーネルの最小固有値の下(および上)境界を導出する。
得られた結果がNASを誘導してトップパフォーマンスアーキテクチャを選択できるかを実験的に示す。
- 参考スコア(独自算出の注目度): 60.21582414287523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Architecture Search (NAS) has fostered the automatic discovery of
neural architectures, which achieve state-of-the-art accuracy in image
recognition. Despite the progress achieved with NAS, so far there is little
attention to theoretical guarantees on NAS. In this work, we study the
generalization properties of NAS under a unifying framework enabling (deep)
layer skip connection search and activation function search. To this end, we
derive the lower (and upper) bounds of the minimum eigenvalue of Neural Tangent
Kernel under the (in)finite width regime from a search space including mixed
activation functions, fully connected, and residual neural networks. Our
analysis is non-trivial due to the coupling of various architectures and
activation functions under the unifying framework. Then, we leverage the
eigenvalue bounds to establish generalization error bounds of NAS in the
stochastic gradient descent training. Importantly, we theoretically and
experimentally show how the derived results can guide NAS to select the
top-performing architectures, even in the case without training, leading to a
training-free algorithm based on our theory. Accordingly, our numerical
validation shed light on the design of computationally efficient methods for
NAS.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は、画像認識における最先端の精度を達成するニューラルアーキテクチャの自動発見を促進する。
NASの進歩にもかかわらず、NASに関する理論的保証はほとんど注目されていない。
本研究では,NASの一般化特性について,(深層)接続探索とアクティベーション関数探索を可能にする統一フレームワークを用いて検討する。
この目的のために、(in)finite width regime下の(in)finite width regimeにおける神経接核の最小固有値の下(および上)境界を、混合活性化関数、完全連結ニューラルネットワーク、残留ニューラルネットワークを含む探索空間から導出する。
我々の分析は、統一フレームワークの下で様々なアーキテクチャとアクティベーション関数が結合しているため、非自明である。
次に,固有値境界を利用して確率勾配降下訓練におけるNASの一般化誤差境界を確立する。
重要な点は,本理論に基づくトレーニングフリーなアルゴリズムを実現するために,nasによるトップパフォーマンスアーキテクチャの選択を理論的に実験的に示すことである。
その結果,nasのための計算効率の高い手法の設計に光を当てた。
関連論文リスト
- Delta-NAS: Difference of Architecture Encoding for Predictor-based Evolutionary Neural Architecture Search [5.1331676121360985]
我々は,NASの微粒化を低コストで行うアルゴリズムを構築した。
類似ネットワークの精度の差を予測することにより,問題を低次元空間に投影することを提案する。
論文 参考訳(メタデータ) (2024-11-21T02:43:32Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Towards Self-supervised and Weight-preserving Neural Architecture Search [38.497608743382145]
本研究では,現在のNASフレームワークの拡張として,自己教師付き重み保存型ニューラルネットワーク探索(SSWP-NAS)を提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにおいて, 提案したフレームワークによって探索されたアーキテクチャが, 最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2022-06-08T18:48:05Z) - Understanding and Accelerating Neural Architecture Search with
Training-Free and Theory-Grounded Metrics [117.4281417428145]
この作業は、ニューラルネットワークサーチ(NAS)のための原則的で統一的なトレーニングフリーフレームワークの設計を目標としている。
NASは、高性能ニューラルネットワークの発見を自動化するために爆発的に研究されてきたが、資源消費に悩まされ、しばしば訓練や近似によって探索バイアスを引き起こす。
我々は,検索ネットワークの「TEG」特性を解消し,NASを理解し,加速するための統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-26T17:52:07Z) - Generic Neural Architecture Search via Regression [27.78105839644199]
我々は、ジェネリックNAS(GenNAS)と呼ばれる新規で汎用的なニューラルアーキテクチャサーチ(NAS)フレームワークを提案する。
GenNASはタスク固有のラベルを使用せず、代わりに、アーキテクチャ評価のために手動で設計された合成信号基盤のセットにtextitregressionを採用する。
次に,下流タスク固有のラベルを用いた合成信号の組み合わせを最適化するタスクの自動探索を提案する。
論文 参考訳(メタデータ) (2021-08-04T08:21:12Z) - Pretraining Neural Architecture Search Controllers with Locality-based
Self-Supervised Learning [0.0]
コントローラベースのNASに適用可能なプリトレーニング方式を提案する。
本手法は局所性に基づく自己教師付き分類タスクであり,ネットワークアーキテクチャの構造的類似性を活用し,優れたアーキテクチャ表現を得る。
論文 参考訳(メタデータ) (2021-03-15T06:30:36Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z) - AdvantageNAS: Efficient Neural Architecture Search with Credit
Assignment [23.988393741948485]
ワンショット・スパース伝播NAS(AdvantageNAS)の新たな探索戦略を提案する。
アドバンテージNASは、アーキテクチャ更新の勾配推定にクレジット割り当てを導入することで検索効率を向上させるグラデーションベースのアプローチです。
NAS-Bench-201およびPTBデータセットの実験は、AdvantageNASが限られた時間予算でより高いパフォーマンスのアーキテクチャを発見することを示しています。
論文 参考訳(メタデータ) (2020-12-11T05:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。