論文の概要: Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics
- arxiv url: http://arxiv.org/abs/2201.04194v1
- Date: Tue, 11 Jan 2022 20:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 22:54:11.657327
- Title: Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics
- Title(参考訳): ニューラルネットワーク容量:エッジダイナミクスによるニューラルネットワーク選択の新しい視点
- Authors: Chunheng Jiang, Tejaswini Pedapati, Pin-Yu Chen, Yizhou Sun, Jianxi
Gao
- Abstract要約: 現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
- 参考スコア(独自算出の注目度): 85.31710759801705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient model selection for identifying a suitable pre-trained neural
network to a downstream task is a fundamental yet challenging task in deep
learning. Current practice requires expensive computational costs in model
training for performance prediction. In this paper, we propose a novel
framework for neural network selection by analyzing the governing dynamics over
synaptic connections (edges) during training. Our framework is built on the
fact that back-propagation during neural network training is equivalent to the
dynamical evolution of synaptic connections. Therefore, a converged neural
network is associated with an equilibrium state of a networked system composed
of those edges. To this end, we construct a network mapping $\phi$, converting
a neural network $G_A$ to a directed line graph $G_B$ that is defined on those
edges in $G_A$. Next, we derive a neural capacitance metric $\beta_{\rm eff}$
as a predictive measure universally capturing the generalization capability of
$G_A$ on the downstream task using only a handful of early training results. We
carried out extensive experiments using 17 popular pre-trained ImageNet models
and five benchmark datasets, including CIFAR10, CIFAR100, SVHN, Fashion MNIST
and Birds, to evaluate the fine-tuning performance of our framework. Our neural
capacitance metric is shown to be a powerful indicator for model selection
based only on early training results and is more efficient than
state-of-the-art methods.
- Abstract(参考訳): 下流タスクに適切なトレーニング済みニューラルネットワークを特定するための効率的なモデル選択は、ディープラーニングの基本的な課題である。
現在の実践では、パフォーマンス予測のためのモデルトレーニングに高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいている。
したがって、収束ニューラルネットワークは、これらのエッジからなるネットワークシステムの平衡状態と関連付けられる。
この目的のために、ニューラルネットワーク$G_A$を有向線グラフ$G_B$に変換するネットワークマッピング$\phi$を構築し、これらエッジ上で定義した$G_A$を$G_A$とする。
次に、一握りの初期のトレーニング結果を用いて、下流タスクにおける$g_a$の一般化能力を普遍的に捉える予測指標として、ニューラルキャパシタンスメトリック$\beta_{\rm eff}$を導出する。
本フレームワークの微調整性能を評価するために,17種類のイメージネットモデルとcifar10,cifar100,svhn,fashion mnist,birdsを含む5つのベンチマークデータセットを用いて広範な実験を行った。
我々のニューラルキャパシタンスメトリックは、初期トレーニング結果のみに基づいたモデル選択の強力な指標であり、最先端の手法よりも効率的である。
関連論文リスト
- NEAR: A Training-Free Pre-Estimator of Machine Learning Model Performance [0.0]
我々は、トレーニングなしで最適なニューラルネットワークを特定するために、アクティベーションランク(NEAR)によるゼロコストプロキシネットワーク表現を提案する。
このネットワークスコアとNAS-Bench-101とNATS-Bench-SSS/TSSのモデル精度の最先端相関を実証した。
論文 参考訳(メタデータ) (2024-08-16T14:38:14Z) - Demystifying Lazy Training of Neural Networks from a Macroscopic Viewpoint [5.9954962391837885]
ニューラルネットワークの勾配勾配勾配ダイナミクスをマクロ的限界レンズを用いて検討する。
我々の研究は、勾配降下がディープニューラルネットワークを高速でトレーニング損失ゼロに駆動できることを明らかにした。
我々のアプローチは、Neural Tangent Kernel(NTK)パラダイムからインスピレーションを得ている。
論文 参考訳(メタデータ) (2024-04-07T08:07:02Z) - Epistemic Modeling Uncertainty of Rapid Neural Network Ensembles for
Adaptive Learning [0.0]
新しいタイプのニューラルネットワークは、高速ニューラルネットワークパラダイムを用いて提示される。
提案したエミュレータを組み込んだニューラルネットワークは,予測精度を損なうことなく,ほぼ瞬時に学習できることが判明した。
論文 参考訳(メタデータ) (2023-09-12T22:34:34Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Does Preprocessing Help Training Over-parameterized Neural Networks? [19.64638346701198]
我々は,$Omega(mnd)$バリアをバイパスする2つの新しい前処理手法を提案する。
本研究は,これまでに確立された高速訓練法について理論的考察を行った。
論文 参考訳(メタデータ) (2021-10-09T18:16:23Z) - Training Graph Neural Networks by Graphon Estimation [2.5997274006052544]
本稿では,基礎となるネットワークデータから得られたグラフトン推定値から再サンプリングすることで,グラフニューラルネットワークをトレーニングする。
我々のアプローチは競争力があり、多くの場合、他の過度にスムースなGNNトレーニング手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-04T19:21:48Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Taylorized Training: Towards Better Approximation of Neural Network
Training at Finite Width [116.69845849754186]
Taylorized Trainingは、ニューラルネットワークの$k$-orderTaylor拡張をトレーニングする。
我々は、Taylorized Trainingが完全なニューラルネットワークトレーニングに同意していることを示します。
本実験は, 広帯域ニューラルネットワークにおいて, 近似誤差$k$-階Taylorized Modelが指数関数的に$k$以上減衰することを示す理論的結果と相補する。
論文 参考訳(メタデータ) (2020-02-10T18:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。