論文の概要: An Effective and Efficient Initialization Scheme for Training
Multi-layer Feedforward Neural Networks
- arxiv url: http://arxiv.org/abs/2005.08027v3
- Date: Thu, 25 Jun 2020 12:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:05:13.220752
- Title: An Effective and Efficient Initialization Scheme for Training
Multi-layer Feedforward Neural Networks
- Title(参考訳): 多層フィードフォワードニューラルネットワークのための効率的かつ効率的な初期化法
- Authors: Zebin Yang, Hengtao Zhang, Agus Sudjianto, Aijun Zhang
- Abstract要約: 本稿では,有名なスタインの身元に基づく新しいネットワーク初期化手法を提案する。
提案したSteinGLM法は、ニューラルネットワークのトレーニングによく使われる他の一般的な手法よりもはるかに高速で高精度であることを示す。
- 参考スコア(独自算出の注目度): 5.161531917413708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network initialization is the first and critical step for training neural
networks. In this paper, we propose a novel network initialization scheme based
on the celebrated Stein's identity. By viewing multi-layer feedforward neural
networks as cascades of multi-index models, the projection weights to the first
hidden layer are initialized using eigenvectors of the cross-moment matrix
between the input's second-order score function and the response. The input
data is then forward propagated to the next layer and such a procedure can be
repeated until all the hidden layers are initialized. Finally, the weights for
the output layer are initialized by generalized linear modeling. Such a
proposed SteinGLM method is shown through extensive numerical results to be
much faster and more accurate than other popular methods commonly used for
training neural networks.
- Abstract(参考訳): ネットワークの初期化は、ニューラルネットワークをトレーニングする最初の重要なステップである。
本稿では,有名なスタインのアイデンティティに基づく新しいネットワーク初期化手法を提案する。
マルチインデックスモデルのカスケードとして多層フィードフォワードニューラルネットワークを見ることにより、入力の2次スコア関数と応答の間のクロスモーメント行列の固有ベクトルを用いて、第1の隠蔽層への投影重みを初期化する。
入力データは次の層に転送され、そのような手順は全ての隠れた層が初期化されるまで繰り返される。
最後に、出力層の重みは一般化線形モデリングによって初期化される。
このようなSteinGLM法は、ニューラルネットワークのトレーニングによく使われる他の一般的な手法よりもはるかに高速で正確であることを示す。
関連論文リスト
- An Initialization Schema for Neuronal Networks on Tabular Data [0.9155684383461983]
本稿では,二項ニューラルネットワークが表データに対して有効に利用できることを示す。
提案手法はニューラルネットワークの最初の隠蔽層を初期化するための単純だが効果的なアプローチを示す。
我々は、複数の公開データセットに対する我々のアプローチを評価し、他のニューラルネットワークベースのアプローチと比較して、改善されたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-11-07T13:52:35Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Sparse tree-based initialization for neural networks [0.0]
専用ニューラルネットワーク(NN)アーキテクチャは、画像のCNNやテキストのRNNといった特定のデータタイプを処理可能であることを示す。
本研究では,(潜在的に深い)多層パーセプトロン(MLP)の新しい手法を提案する。
NNトレーニング中に新しい初期化器が暗黙の正規化を行うことを示すとともに,第1層がスパース機能抽出器として機能することを強調する。
論文 参考訳(メタデータ) (2022-09-30T07:44:03Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - A Greedy Algorithm for Quantizing Neural Networks [4.683806391173103]
本稿では,事前学習したニューラルネットワークの重みを定量化するための計算効率のよい新しい手法を提案する。
本手法は,複雑な再学習を必要とせず,反復的に層を定量化する手法である。
論文 参考訳(メタデータ) (2020-10-29T22:53:10Z) - Linear discriminant initialization for feed-forward neural networks [0.0]
最良クラスを識別する線形判別器を用いてニューラルネットワークの第1層を初期化する。
この方法でのネットワークは、同じレベルのトレーニングに到達するためのトレーニングステップを減らします。
論文 参考訳(メタデータ) (2020-07-24T21:53:48Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。