論文の概要: Improved weight initialization for deep and narrow feedforward neural
network
- arxiv url: http://arxiv.org/abs/2311.03733v1
- Date: Tue, 7 Nov 2023 05:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 16:51:11.881532
- Title: Improved weight initialization for deep and narrow feedforward neural
network
- Title(参考訳): 深部および狭部フィードフォワードニューラルネットワークの重み初期化改善
- Authors: Hyunwoo Lee, Yunho Kim, Seungyeop Yang, Hayoung Choi
- Abstract要約: ReLUニューロンが不活性になり出力がゼロとなるReLU死の問題は、ReLU活性化機能を持つディープニューラルネットワークのトレーニングにおいて大きな課題となる。
この問題に対処するための新しい重み初期化法を提案する。
提案した初期重み行列の特性を証明し,これらの特性が信号ベクトルの効果的な伝播を促進することを実証する。
- 参考スコア(独自算出の注目度): 3.362993584890866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Appropriate weight initialization settings, along with the ReLU activation
function, have been a cornerstone of modern deep learning, making it possible
to train and deploy highly effective and efficient neural network models across
diverse artificial intelligence. The problem of dying ReLU, where ReLU neurons
become inactive and yield zero output, presents a significant challenge in the
training of deep neural networks with ReLU activation function. Theoretical
research and various methods have been introduced to address the problem.
However, even with these methods and research, training remains challenging for
extremely deep and narrow feedforward networks with ReLU activation function.
In this paper, we propose a new weight initialization method to address this
issue. We prove the properties of the proposed initial weight matrix and
demonstrate how these properties facilitate the effective propagation of signal
vectors. Through a series of experiments and comparisons with existing methods,
we demonstrate the effectiveness of the new initialization method.
- Abstract(参考訳): 適切なウェイト初期化設定とReLUアクティベーション関数は、現代のディープラーニングの基盤であり、多様な人工知能をまたいだ高効率で効率的なニューラルネットワークモデルのトレーニングとデプロイを可能にしている。
ReLUニューロンが不活性になり出力がゼロとなるReLU死の問題は、ReLU活性化機能を持つディープニューラルネットワークのトレーニングにおいて大きな課題となる。
理論的研究と様々な手法がこの問題に対処するために導入されている。
しかし、これらの手法や研究によっても、reluアクティベーション機能を持つ非常に深く狭いフィードフォワードネットワークでは、トレーニングが難しいままである。
本稿では,この問題に対処する新しい重み初期化法を提案する。
提案する初期重み行列の性質を証明し,これらの特性が信号ベクトルの効果的な伝播を促進することを示す。
既存の手法との比較実験を通じて,新しい初期化手法の有効性を実証する。
関連論文リスト
- Robust Weight Initialization for Tanh Neural Networks with Fixed Point Analysis [5.016205338484259]
提案手法は既存手法よりもネットワークサイズの変化に頑健である。
物理インフォームドニューラルネットワークに適用すると、ネットワークサイズの変化に対するより高速な収束とロバスト性を示す。
論文 参考訳(メタデータ) (2024-10-03T06:30:27Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Homotopy Relaxation Training Algorithms for Infinite-Width Two-Layer ReLU Neural Networks [1.8434042562191815]
HRTA(Homotopy Relaxation Training Algorithm)と呼ばれる新しいトレーニング手法を提案する。
提案アルゴリズムは,線形活性化関数とReLU活性化関数をシームレスに結合するホモトピー活性化関数を構築することを含む。
我々は,ニューラル・タンジェント・カーネル(NTK)の文脈において,この手法の詳細な解析を行った。
論文 参考訳(メタデータ) (2023-09-26T20:18:09Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - A Weight Initialization Based on the Linear Product Structure for Neural
Networks [0.0]
非線形的な観点からニューラルネットワークを研究し、ニューラルネットワークの線形積構造(LPS)に基づく新しいウェイト初期化戦略を提案する。
提案手法は, 数値代数学の理論を用いて, すべての局所最小値を求めることを保証することにより, 活性化関数の近似から導かれる。
論文 参考訳(メタデータ) (2021-09-01T00:18:59Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。