論文の概要: On the Inherent Regularization Effects of Noise Injection During
Training
- arxiv url: http://arxiv.org/abs/2102.07379v1
- Date: Mon, 15 Feb 2021 07:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:59:11.748384
- Title: On the Inherent Regularization Effects of Noise Injection During
Training
- Title(参考訳): 訓練中の騒音インジェクションの固有正則化効果について
- Authors: Oussama Dhifallah and Yue M. Lu
- Abstract要約: 本稿では,学習データに人工雑音を注入することに対応する無作為摂動の一方法に関する理論的研究について述べる。
このようなランダム摂動学習問題の訓練と一般化誤差をランダム特徴モデル上で高精度に評価する。
- 参考スコア(独自算出の注目度): 12.614901374282868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Randomly perturbing networks during the training process is a commonly used
approach to improving generalization performance. In this paper, we present a
theoretical study of one particular way of random perturbation, which
corresponds to injecting artificial noise to the training data. We provide a
precise asymptotic characterization of the training and generalization errors
of such randomly perturbed learning problems on a random feature model. Our
analysis shows that Gaussian noise injection in the training process is
equivalent to introducing a weighted ridge regularization, when the number of
noise injections tends to infinity. The explicit form of the regularization is
also given. Numerical results corroborate our asymptotic predictions, showing
that they are accurate even in moderate problem dimensions. Our theoretical
predictions are based on a new correlated Gaussian equivalence conjecture that
generalizes recent results in the study of random feature models.
- Abstract(参考訳): トレーニングプロセス中にランダムに摂動するネットワークは、一般化のパフォーマンスを改善するための一般的なアプローチです。
本稿では, トレーニングデータに人工雑音を注入することに対応する, ランダム摂動の特定の方法に関する理論的研究について述べる。
ランダムな特徴モデル上で、このようなランダムに摂動する学習問題の訓練と一般化エラーの正確な無症状性評価を提供する。
学習過程におけるガウスノイズインジェクションは,ノイズインジェクションの数が無限度になる傾向にある場合,重み付きリッジ正規化の導入と等価であることを示す。
正規化の明示的な形式も与えられる。
数値結果は漸近的な予測と相関し、中程度の問題次元でも正確であることを示した。
我々の理論予測は、ランダム特徴モデルの研究における最近の結果を一般化する新しい相関ガウス等価予想に基づいている。
関連論文リスト
- May the Noise be with you: Adversarial Training without Adversarial
Examples [3.4673556247932225]
我々は、敵の訓練を受けずに敵の訓練を受けたモデルを得ることができるかという疑問を調査する。
提案手法は,訓練時にNNモデルの層にガウス雑音を埋め込むことによって固有性を取り入れる。
我々の研究は、全く異なるアプローチで敵の訓練を受けたネットワークに貢献し、敵の訓練と経験的に類似した堅牢性を持つ。
論文 参考訳(メタデータ) (2023-12-12T08:22:28Z) - A Heavy-Tailed Algebra for Probabilistic Programming [53.32246823168763]
本稿では,確率変数の尾を解析するための体系的アプローチを提案する。
本稿では,確率型プログラミング言語コンパイラの静的解析(サンプル作成前)において,この手法をどのように利用できるかを示す。
実験結果から,重み付き代数を利用する推論アルゴリズムは,多数の密度モデリングおよび変分推論タスクにおいて優れた性能が得られることを確認した。
論文 参考訳(メタデータ) (2023-06-15T16:37:36Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Fluctuations, Bias, Variance & Ensemble of Learners: Exact Asymptotics
for Convex Losses in High-Dimension [25.711297863946193]
我々は、異なる、しかし相関のある特徴に基づいて訓練された一般化線形モデルの集合における揺らぎの研究の理論を開発する。
一般凸損失と高次元限界における正則化のための経験的リスク最小化器の結合分布の完全な記述を提供する。
論文 参考訳(メタデータ) (2022-01-31T17:44:58Z) - Asymmetric Heavy Tails and Implicit Bias in Gaussian Noise Injections [73.95786440318369]
我々は、勾配降下(SGD)のダイナミクスに対する注射ノイズの影響であるGNIsのいわゆる暗黙効果に焦点を当てています。
この効果は勾配更新に非対称な重尾ノイズを誘発することを示す。
そして、GNIが暗黙のバイアスを引き起こすことを正式に証明し、これは尾の重みと非対称性のレベルによって異なる。
論文 参考訳(メタデータ) (2021-02-13T21:28:09Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z) - Explicit Regularisation in Gaussian Noise Injections [64.11680298737963]
ガウスノイズインジェクション(GNI)によるニューラルネットワークの正規化の検討
GNIの明示的な正則化を導出する。
このような正規化は、大きな分類マージンを持つ校正分類器を生成することを分析的かつ実証的に示す。
論文 参考訳(メタデータ) (2020-07-14T21:29:46Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。