論文の概要: On the Interpretability of Regularisation for Neural Networks Through
Model Gradient Similarity
- arxiv url: http://arxiv.org/abs/2205.12642v1
- Date: Wed, 25 May 2022 10:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:29:07.906615
- Title: On the Interpretability of Regularisation for Neural Networks Through
Model Gradient Similarity
- Title(参考訳): モデル勾配類似性によるニューラルネットワークの正規化の解釈可能性について
- Authors: Vincent Szolnoky, Viktor Andersson, Balazs Kulcsar, Rebecka J\"ornsten
- Abstract要約: モデルグラディエント類似度(MGS)は正規化の指標である。
MGSは、優れたパフォーマンスを示す新しい正規化スキームの基礎を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most complex machine learning and modelling techniques are prone to
over-fitting and may subsequently generalise poorly to future data. Artificial
neural networks are no different in this regard and, despite having a level of
implicit regularisation when trained with gradient descent, often require the
aid of explicit regularisers. We introduce a new framework, Model Gradient
Similarity (MGS), that (1) serves as a metric of regularisation, which can be
used to monitor neural network training, (2) adds insight into how explicit
regularisers, while derived from widely different principles, operate via the
same mechanism underneath by increasing MGS, and (3) provides the basis for a
new regularisation scheme which exhibits excellent performance, especially in
challenging settings such as high levels of label noise or limited sample
sizes.
- Abstract(参考訳): ほとんどの複雑な機械学習とモデリング技術は過剰フィッティングになりがちで、将来のデータにはあまり一般化しない可能性がある。
この点に関して、ニューラルネットワークは変わらないし、勾配降下訓練時に暗黙の正規化レベルを持つにもかかわらず、しばしば明示的な正規化の助けを必要とする。
We introduce a new framework, Model Gradient Similarity (MGS), that (1) serves as a metric of regularisation, which can be used to monitor neural network training, (2) adds insight into how explicit regularisers, while derived from widely different principles, operate via the same mechanism underneath by increasing MGS, and (3) provides the basis for a new regularisation scheme which exhibits excellent performance, especially in challenging settings such as high levels of label noise or limited sample sizes.
関連論文リスト
- Enhancing Fine-Grained Visual Recognition in the Low-Data Regime Through Feature Magnitude Regularization [23.78498670529746]
抽出した特徴量の均等分布を保証するために正規化手法を導入する。
その明らかな単純さにもかかわらず、我々の手法は様々な細粒度視覚認識データセットに対して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-03T07:32:46Z) - Rule Based Learning with Dynamic (Graph) Neural Networks [0.8158530638728501]
本稿ではルールベースグラフニューラルネットワーク(RuleGNN)を提案する。
実験の結果,ルールGNNの予測性能は最先端のグラフ分類器に匹敵することがわかった。
専門家の知識をルールGNNに組み込む方法を示すために,新しいベンチマークグラフデータセットを導入する。
論文 参考訳(メタデータ) (2024-06-14T12:01:18Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Monotonic Neural Additive Models: Pursuing Regulated Machine Learning
Models for Credit Scoring [1.90365714903665]
本稿では,ニューラルネットワークアーキテクチャを簡素化し,モノトニック性を強制することによって,規制要件を満たす新しいモノトニックニューラルネットワークモデルを提案する。
我々の新しいモデルは、ブラックボックスの完全接続ニューラルネットワークと同じくらい正確であり、高度に正確で規制された機械学習方法を提供する。
論文 参考訳(メタデータ) (2022-09-21T02:14:09Z) - On the Generalization of Models Trained with SGD: Information-Theoretic
Bounds and Implications [13.823089111538128]
本稿では,SGDで学習したニューラルネットワークなどの機械学習モデルの一般化誤差に対して,より厳密な情報理論上界を提案する。
これらの境界に基づく実験的研究は、ニューラルネットワークのSGDトレーニングに関する洞察を与える。
論文 参考訳(メタデータ) (2021-10-07T00:53:33Z) - Squared $\ell_2$ Norm as Consistency Loss for Leveraging Augmented Data
to Learn Robust and Invariant Representations [76.85274970052762]
元のサンプルと拡張されたサンプルの埋め込み/表現の距離を規則化することは、ニューラルネットワークの堅牢性を改善するための一般的なテクニックである。
本稿では、これらの様々な正規化選択について検討し、埋め込みの正規化方法の理解を深める。
私たちが特定したジェネリックアプローチ(squared $ell$ regularized augmentation)は、それぞれ1つのタスクのために特別に設計されたいくつかの手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T22:40:09Z) - Certified Monotonic Neural Networks [15.537695725617576]
本稿では,混合整数線形計画問題の解法により,一般のピースワイド線形ニューラルネットワークの単調性を証明することを提案する。
我々のアプローチでは、重み空間に対する人間設計の制約を必要とせず、より正確な近似が得られる。
論文 参考訳(メタデータ) (2020-11-20T04:58:13Z) - Neural Complexity Measures [96.06344259626127]
本稿では,一般化を予測するメタラーニングフレームワークであるNeural Complexity(NC)を提案する。
我々のモデルは、データ駆動方式で、多くの異種タスクとの相互作用を通じてスカラー複雑性尺度を学習する。
論文 参考訳(メタデータ) (2020-08-07T02:12:10Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。