論文の概要: Neighborhood Region Smoothing Regularization for Finding Flat Minima In
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2201.06064v1
- Date: Sun, 16 Jan 2022 15:11:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 11:55:43.369084
- Title: Neighborhood Region Smoothing Regularization for Finding Flat Minima In
Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークにおけるフラットミニマ検出のための近隣領域平滑化
- Authors: Yang Zhao and Hao Zhang
- Abstract要約: 我々はNRS(Neighborhood Region Smoothing)と呼ばれる効果的な正規化手法を提案する。
NRSは、近似出力を得るために、重量空間の近傍領域を規則化しようとする。
NRSによって発見されたミニマは、従来の方法に比べて比較的小さなヘッセン固有値を持つことを実証的に示す。
- 参考スコア(独自算出の注目度): 16.4654807047138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to diverse architectures in deep neural networks (DNNs) with severe
overparameterization, regularization techniques are critical for finding
optimal solutions in the huge hypothesis space. In this paper, we propose an
effective regularization technique, called Neighborhood Region Smoothing (NRS).
NRS leverages the finding that models would benefit from converging to flat
minima, and tries to regularize the neighborhood region in weight space to
yield approximate outputs. Specifically, gap between outputs of models in the
neighborhood region is gauged by a defined metric based on Kullback-Leibler
divergence. This metric provides similar insights with the minimum description
length principle on interpreting flat minima. By minimizing both this
divergence and empirical loss, NRS could explicitly drive the optimizer towards
converging to flat minima. We confirm the effectiveness of NRS by performing
image classification tasks across a wide range of model architectures on
commonly-used datasets such as CIFAR and ImageNet, where generalization ability
could be universally improved. Also, we empirically show that the minima found
by NRS would have relatively smaller Hessian eigenvalues compared to the
conventional method, which is considered as the evidence of flat minima.
- Abstract(参考訳): 重度の過パラメータ化を伴うディープニューラルネットワーク(DNN)の多様なアーキテクチャのため、巨大な仮説空間における最適解を見つけるには正規化技術が不可欠である。
本稿では,NRS(Neighborhood Region Smoothing)と呼ばれる効果的な正規化手法を提案する。
NRSはモデルが平らなミニマへの収束の恩恵を受けることを発見し、重量空間の近傍領域を規則化して近似出力を得る。
具体的には、周辺地域のモデルの出力間のギャップを、Kulback-Leiblerの発散に基づく定義された計量で測定する。
この計量は、平坦なミニマを解釈する上での最小記述長原理で同様の洞察を与える。
このばらつきと経験的損失を最小化することで、NRSはオプティマイザをフラットなミニマに収束させるように明示的に駆動することができた。
一般化能力が普遍的に向上できるcifarやimagenetなどの一般的なデータセット上で,幅広いモデルアーキテクチャにわたって画像分類タスクを行うことで,nrsの有効性を確認した。
また, nrs が発見した最小値は, 平らな最小値の証拠と考えられる従来の方法に比べ, 比較的小さいヘッセン固有値を持つことを実証的に示した。
関連論文リスト
- Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Typical and atypical solutions in non-convex neural networks with
discrete and continuous weights [2.7127628066830414]
ランダムな規則や関連を学習する単純な非拘束型ネットワークモデルとして、二項および連続負マージンパーセプトロンについて検討する。
どちらのモデルも、非常に平坦で幅の広い劣支配的な最小化器を示す。
両モデルにおいて、学習装置としての一般化性能は、広い平坦な最小化器の存在により大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-04-26T23:34:40Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - On generalization bounds for deep networks based on loss surface
implicit regularization [5.68558935178946]
現代のディープニューラルネットワークは、多くのパラメータにもかかわらずよく一般化されている。
現在のディープニューラルネットワークは、多くのパラメータが古典的な統計的学習理論と矛盾するにもかかわらず、よく一般化されている。
論文 参考訳(メタデータ) (2022-01-12T16:41:34Z) - Probabilistic partition of unity networks: clustering based deep
approximation [0.0]
ユニタリネットワーク(POU-Nets)の分割は、回帰とPDEの解に対する代数収束率を実現することができる。
ガウス雑音モデルを用いてPOU-Netを拡張し、最大可算損失の勾配に基づく一般化を導出できる確率的一般化を得る。
本研究では,高次元・低次元での性能を定量化するためのベンチマークを行い,高次元空間内のデータの潜在次元にのみ依存することを示す。
論文 参考訳(メタデータ) (2021-07-07T08:02:00Z) - Unveiling the structure of wide flat minima in neural networks [0.46664938579243564]
ディープラーニングは、科学全体にわたるネットワークの応用の可能性を明らかにしている。
ディープラーニングの成功は、科学全体にわたるネットワークの適用可能性を明らかにしている。
論文 参考訳(メタデータ) (2021-07-02T16:04:57Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - Effective Version Space Reduction for Convolutional Neural Networks [61.84773892603885]
アクティブラーニングでは、サンプリングバイアスは深刻な矛盾問題を引き起こし、アルゴリズムが最適な仮説を見つけるのを妨げる可能性がある。
本稿では,畳み込みニューラルネットワークを用いた能動学習について,バージョン空間削減の原理的レンズを用いて検討する。
論文 参考訳(メタデータ) (2020-06-22T17:40:03Z) - Entropic gradient descent algorithms and wide flat minima [6.485776570966397]
広い平坦領域に属する最小値に対応するベイズ最適点推定器が存在することを解析的に示す。
解析を広範囲な数値検証により深層学習シナリオに拡張する。
計算が容易な平坦度測定は、テスト精度と明確な相関を示す。
論文 参考訳(メタデータ) (2020-06-14T13:22:19Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。