論文の概要: The Impact of Reinitialization on Generalization in Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2109.00267v1
- Date: Wed, 1 Sep 2021 09:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:15:59.079328
- Title: The Impact of Reinitialization on Generalization in Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークの一般化における再初期化の影響
- Authors: Ibrahim Alabdulmohsin, Hartmut Maennel, Daniel Keysers
- Abstract要約: 12のベンチマーク画像分類データセットにまたがる複数の畳み込みアーキテクチャにおける異なる再初期化手法の影響について検討する。
本稿では,従来の手法よりも優れた階層的再初期化アルゴリズムを提案する。
我々のメッセージは、ボトムアップ階層の再初期化を用いて、小さなデータセットに対して畳み込みニューラルネットワークの精度を改善することができるということだ。
- 参考スコア(独自算出の注目度): 3.462210753108297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent results suggest that reinitializing a subset of the parameters of a
neural network during training can improve generalization, particularly for
small training sets. We study the impact of different reinitialization methods
in several convolutional architectures across 12 benchmark image classification
datasets, analyzing their potential gains and highlighting limitations. We also
introduce a new layerwise reinitialization algorithm that outperforms previous
methods and suggest explanations of the observed improved generalization.
First, we show that layerwise reinitialization increases the margin on the
training examples without increasing the norm of the weights, hence leading to
an improvement in margin-based generalization bounds for neural networks.
Second, we demonstrate that it settles in flatter local minima of the loss
surface. Third, it encourages learning general rules and discourages
memorization by placing emphasis on the lower layers of the neural network. Our
takeaway message is that the accuracy of convolutional neural networks can be
improved for small datasets using bottom-up layerwise reinitialization, where
the number of reinitialized layers may vary depending on the available compute
budget.
- Abstract(参考訳): 最近の結果は、トレーニング中にニューラルネットワークのパラメータのサブセットを再活性化することで、特に小さなトレーニングセットの一般化が改善されることを示唆している。
12のベンチマーク画像分類データセットにまたがる複数の畳み込みアーキテクチャにおける様々な再初期化手法の影響について検討し、その可能性を分析し、限界を強調する。
また,従来の手法に匹敵する新しい階層的再帰化アルゴリズムを導入し,改良された一般化の解説を提案する。
まず,重みのノルムを増加させることなく,学習例のマージンを段階的に増加させることにより,ニューラルネットワークのマージンベース一般化境界が向上することを示す。
第2に,損失面のより平坦な局所的極小領域に沈着することを示す。
第3に、ニューラルネットワークの下位層に重点を置くことで、一般的なルールの学習を奨励し、記憶を損なう。
我々のメッセージは、ボトムアップ層再初期化を用いて小さなデータセットに対して畳み込みニューラルネットワークの精度を改善することができるということだ。
関連論文リスト
- Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Imbedding Deep Neural Networks [0.0]
ニューラルODEのような連続深度ニューラルネットワークは、非線形ベクトル値の最適制御問題の観点から、残留ニューラルネットワークの理解を再燃させた。
本稿では,ネットワークの深さを基本変数とする新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T22:00:41Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - A Weight Initialization Based on the Linear Product Structure for Neural
Networks [0.0]
非線形的な観点からニューラルネットワークを研究し、ニューラルネットワークの線形積構造(LPS)に基づく新しいウェイト初期化戦略を提案する。
提案手法は, 数値代数学の理論を用いて, すべての局所最小値を求めることを保証することにより, 活性化関数の近似から導かれる。
論文 参考訳(メタデータ) (2021-09-01T00:18:59Z) - Backward Gradient Normalization in Deep Neural Networks [68.8204255655161]
ニューラルネットワークトレーニングにおける勾配正規化のための新しい手法を提案する。
勾配は、ネットワークアーキテクチャ内の特定の点で導入された正規化レイヤを使用して、後方通過中に再スケールされる。
非常に深いニューラルネットワークを用いたテストの結果、新しい手法が勾配ノルムを効果的に制御できることが示されている。
論文 参考訳(メタデータ) (2021-06-17T13:24:43Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。